-
Notifications
You must be signed in to change notification settings - Fork 0
/
Copy pathreconocedoremociones.py
75 lines (56 loc) · 2.59 KB
/
reconocedoremociones.py
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
import cv2
import numpy as np
from deepface import DeepFace
# Inicializar la cámara
cap = cv2.VideoCapture(0)
# Cargar la imagen del banner
image_path = 'banner.png' # Reemplaza con la ruta correcta de la imagen
image = cv2.imread(image_path)
# Obtener las dimensiones originales del banner
banner_height, banner_width = image.shape[:2]
# Diccionario de traducción de emociones
dicOriginal = ['angry', 'disgust', 'fear', 'happy', 'sad', 'surprise', 'neutral']
dicEspanol = ['Enojo >:( ', 'Disgusto :S ', 'Miedo D: ', 'Felicidad :D ', 'Tristeza :( ', 'Sorpresa :o', 'Neutro :| ']
dd = dict(zip(dicOriginal, dicEspanol))
while True:
# Leer el cuadro de la cámara
ret, frame = cap.read()
# Obtener las dimensiones del cuadro de video
frame_height, frame_width = frame.shape[:2]
# Ajustar la imagen a las dimensiones originales del banner
if image is not None:
image_resized = cv2.resize(image, (frame_width, banner_height))
# Combinar el banner con el cuadro de video
combined_frame = cv2.vconcat([image_resized, frame])
else:
combined_frame = frame
try:
# Realizar el reconocimiento facial en el cuadro
results = DeepFace.analyze(frame, actions=['emotion'])
# Extraer las emociones del primer resultado
emotions = results[0]['emotion']
# Obtener la emoción con el mayor valor
max_emotion = max(emotions, key=emotions.get)
# Crear el texto de la emoción
emotion_text = dd[max_emotion]
# Obtener el tamaño del texto
text_size, _ = cv2.getTextSize(emotion_text, cv2.FONT_HERSHEY_SIMPLEX, 0.7, 2)
# Calcular la posición del texto centrado en la parte inferior
text_x = int((frame_width - text_size[0]) / 2)
text_y = banner_height + frame_height + 30
# Crear una imagen en blanco con el tamaño adecuado para mostrar la emoción
emotion_image = np.zeros((banner_height, frame_width, 3), dtype=np.uint8)
cv2.putText(emotion_image, emotion_text, (text_x, int(banner_height / 2)),
cv2.FONT_HERSHEY_SIMPLEX, 0.7, (255, 0, 0), 2) # Color azul (BGR)
# Combinar el cuadro de video con el banner y la emoción
combined_frame = cv2.vconcat([combined_frame, emotion_image])
# Mostrar el cuadro combinado con la emoción predominante
cv2.imshow('Facial Emotion Recognition', combined_frame)
except:
print('No detecta rostro')
# Salir del bucle al presionar 'q'
if cv2.waitKey(1) & 0xFF == ord('q'):
break
# Liberar los recursos
cap.release()
cv2.destroyAllWindows()