Machine Learning y Diadema Epoc+ para eventos simultáneos en estudios de expresiones faciales

Ángel Castro-López, Luis Castañeda-Álvarez, Juan Razón-González, Leonardo Martínez-Jiménez, Felipe Torres-del Carmen, Miroslava Cano-Lara

Resumen


En el área de reconocimiento facial las aplicaciones van en aumento, al emplear AI (Artificial Intelligence) o técnicas BCI (Brain-Computer Interface) se logra identificar la emoción facial que expresa una persona. En este trabajo se presenta la comparación de emociones del rostro mediante los algoritmos de ML (Machine Learning) en entorno de Phyton y la diadema Emotiv Epoc+ en su software Xavier Control Panel. Los modelos ML permiten extraer y mapear el movimiento facial en una malla de 468 nodos para EFGF (Extraction of Facial Geometric Features) y permite realizar una detección facial en cascada para extraer las características faciales en múltiples zonas simultáneamente para el algoritmo MTCNN (MultiTask Cascaded Convolutional Neural Network). La técnica BCI con la diadema Emotiv Epoc+ permite la extracción de las señales EEG (Electroencephalogram) para determinar la expresión facial. Finalmente, los modelos AI presentan la ventaja de una nula intervención física con la cabeza, en contraste de requerir tratamiento en la imagen para reducir el ruido, aumento en el tiempo de procesamiento y control de escenario de iluminación. En cambio, la técnica BCI realiza directamente la interpretación de la emoción con el software Xavier al detectar las contracciones musculares en el rostro del usuario y predecir la emoción. Las expresiones faciales logran ser aplicadas en el ámbito de la psicología, medicina, investigaciones policiacas, etc., brindan una herramienta practica para agilizar entrevistas relacionando el reconocimiento de las emociones en el momento exacto que se requiera.

Recibido: 10 de noviembre de 2023
Aceptado: 20 de marzo de 2024


Palabras clave


Expresión facial; Aprendizaje automático; MTCNN; EFGF; Diadema Emotiv

Texto completo:

PDF

Referencias


Akhmedov, F., Abdusalomov, A. B., Mukhiddinov, M., & Cho, Y. I, 2022. Development of Real-Time Landmark-Based Emotion Recognition CNN for masked faces. Sensors, 22(22), 8704. https://doi.org/10.3390/s22228704

Arroyo, A.& Anai, A., 2022. Método de extracción de rasgos faciales para la autenticación de personas. Tesis Doctorado. BUAP. México. https://hdl.handle.net/20.500.12371/16797

Barrionuevo, C., Ierache, J. S., & Sattolo, I. I., 2020. Reconocimiento de emociones a través de expresiones faciales con el empleo de aprendizaje supervisado aplicando regresión logística. CACIC http://sedici.unlp.edu.ar/handle/10915/113243

Bustamante, S., 2014. Algoritmos de procesamiento de imágen aplicados a la detección de figuras geométricas y sus propiedades espaciales. Pontificia Universidad Católica de Valparaíso.

Caballo, V., 2009. Manual de evaluación de entrenamiento de las habilidades sociales. Siglo XXI.

Chávez-Sáenz, V., Torres-Ramírez, D., Herrera-Ogaz, J., & Hernández-Rodríguez, A., 2016. Adquisición y análisis de señales electroencefalográficas utilizando el dispositivo Emotiv EPOC. Revista de Tecnología e Innovación, 107.

Chávez-Sáenz, 2016, Velia, Jimenez-González, Fernando, Torres-Ramírez, Dulce y Perezklapez, Christian. Estudio de las señales EEG generadas a partir de expresiones faciales. Revista de Investigación y Desarrollo 2016, 2-6: 115-124

Denzin NK, 2009, On Understanding Emotion. New Brunswick, NJ: Transaction Publishers

Ekman, P., 1984. Expression and the nature of emotion. In K. R. Scherer y P. Ekman (Eds.), Approaches to Emotions. Hillsdale: Erlbaum

Emotiv, 2023 Guía BCI https://www.emotiv.com/bci-guide/

Emotiv, 2023Guía EEG https://www.emotiv.com/eeg-guide/

Ghofrani A., Toroghi, R. M., & Ghanbari, S, 2019. Realtime face-detection and emotion recognition using mtcnn and minishufflenet v2. In 2019 5th Conference on Knowledge Based Engineering and Innovation (KBEI) (pp. 817-821). IEEE.

Roldan González, E., et al, 2021. Diseño de un sistema de captura de movimiento facial para la cuantificación de gestos faciales. Revista Virtual Universitaria, 16(2), 84–88. Recuperado a partir de https://revistas.fumc.edu.co/index.php/rvu/article/view/102

Google., 2023. GitHub - Google/MediaPipe: cross-platform, customizable ML solutions for live and streaming media. GitHub. https://github.com/google/mediapipe

Python, 2023, math — Funciones matemáticas — documentación Python https://docs.python.org/es/3.10/library/math.html

Hassouneh, A., Mutawa, A. M., & Murugappan, M., 2020. Development of a Real-Time Emotion Recognition system using facial expressions and EEG based on machine learning and deep neural network methods. Informatics in Medicine Unlocked, 20, 100372. https://doi.org/10.1016/j.imu.2020.100372

Hou, X., Wang, Y., Wang, X., Zhao, J., Zhu, X., & Su, J., 2021. A markerless 2d video, facial feature recognition–based, artificial intelligence model to assist with screening for parkinson disease: development and usability study. Journal of Medical Internet Research, 23(11), e29554. https://doi.org/10.2196/29554

Lowe, J., 2020. Ocular Motion Classification for Mobile Device Presentation Attack Detection. University of Missouri-Kansas City.

Lugaresi, C., Tang, J., Nash, H., McClanahan, C., Uboweja, E., Hays, M., ... & Grundmann, M., 2019. Mediapipe: A framework for perceiving and processing reality. In Third workshop on computer vision for AR/VR at IEEE computer vision and pattern recognition (CVPR) (Vol. 2019).

Pham, T. D., & Tran, D., 2012. Emotion Recognition Using the Emotiv EPOC Device. Lecture Notes in Computer Science, 394–399. doi:10.1007/978-3-642-34500-5_47

Abigail, P. M. Q. 2021. Detección automatizada de emociones a través del rostro, una revisión del estado del arte. Retrieved from https://ri.uaemex.mx/handle/20.500.11799/112586

Revelo. L., 2021. GitHub – DavidReveloLuna /Face_Emotion. GitHub. https://github.com/DavidReveloLuna/Face_Emotion

Sánchez-Ruiz, M., Flores-Monroy, J., Escamilla-Hernández, E., Nakano-Miyatake, M., & Perez-Meana, H., 2022. Detección de estados de ánimo en ambientes no restringidos. Pädi Boletín Científico de Ciencias Básicas e Ingenierías del ICBI, 10 (Especial4), 110-115.

Tang, J., Xu, M., Han, J., Liu, M., Dai, T., Chen, S., & Ming, D., 2020. Optimizing SSVEP-based BCI system towards practical high-speed spelling. Sensors, 20(15), 4186.

Zhang, N., Luo, J., & Gao, W., 2020. Research on Face Detection Technology Based on MTCNN. IEEE. https://doi.org/10.1109/iccnea50255.2020.00040




Creative Commons License
Todos los documentos publicados en esta revista se distribuyen bajo una
Licencia Creative Commons Atribución -No Comercial- Compartir Igual 4.0 Internacional.
Por lo que el envío, procesamiento y publicación de artículos en la revista es totalmente gratuito.