Un equipo de investigadores de la Universidad Pública de Navarra (UPNA), liderado por el profesor y miembro del Instituto Smart Cities (ISC) José Javier Astrain Escola, y formado por Yaiza Álvarez Cubillo, Jesús Villadangos Alonso (ISC), Alberto Córdoba Izaguirre, Pablo Medrano Fernández (ISC) e Iñigo Paños Basterra (todos ellos, del Departamento de Estadística, Informática y Matemáticas) ha trabajado en el diseño y desarrollo de un sistema de reconocimiento de las emociones faciales de las personas que alcanza una tasa de acierto del 93%.
Los investigadores participantes en el proyecto BRAINSENS, en la UPNA. De izda. a dcha. en la fila delantera: Hansel Fernández, Yaiza Álvarez e Iñigo Paños. En la misma orientación, fila trasera: Mikel Berástegui, Pablo Sarobe, Jesús Villadangos y José Javier Astrain.
El proyecto de investigación en el que se enmarca este desarrollo se denomina BRAINSENS, está financiado por el Gobierno de Navarra con 109.167 euros y lo lidera la empresa navarra “Smart Talent Source SL”. Esta compañía, liderada por Hansel Fernández Torres, y con la participación de Mikel Berastegui Polo y Pablo Sarobe González, apuesta por el desarrollo de tecnologías basadas en la inteligencia artificial y la realidad virtual que permitan, entre otras cosas, el diagnóstico de enfermedades neurológicas a partir del reconocimiento facial de emociones y la rehabilitación cognitiva basada en realidad virtual.
Tal y como explican los investigadores de la UPNA, “las reacciones psicológicas de los humanos se reflejan en sus emociones, que se plasman principalmente en su rostro. En 1972 el psicólogo Paul Ekman estableció seis emociones básicas de la especie humana: ira, asco, miedo, alegría, tristeza y sorpresa. Es una clasificación universal y presente desde edades muy tempranas en todas las culturas, por tanto, saber reconocerlas e interpretarlas es un aspecto clave de la evolución humana”, precisan. Sin embargo, hay ciertas patologías (de nacimiento o adquiridas) que pueden hacer que una persona no sepa reconocer las emociones de otras, con los problemas personales y sociales que ello puede acarrear: “el estudio del reconocimiento de las expresiones faciales es fundamental en patologías neurológicas, con el fin de dilucidar qué mecanismos subyacen a cada una de ellas y poder diagnosticar y tratar estos déficits de forma oportuna”, concluyen los investigadores de la UPNA.
Base de más de 50.000 imágenes
El sistema que han desarrollado los investigadores se basa en algoritmos de aprendizaje que han sido entrenados con más de 50.000 imágenes. Como se ha indicado, además de para ayudar a realizar un diagnóstico “se utiliza la realidad virtual como herramienta terapéutica lo que supone una alternativa novedosa que está teniendo muy buenos resultados”, apuntan los investigadores. Esto es, las personas afectadas también podrían aprender o reaprender a interpretar estos rostros con la ayuda de esta tecnología.
En este sentido, según explican los investigadores de la UPNA, la capacidad de inmersión y la capacidad de interacción de las personas con un mundo real virtual permiten que se puedan desarrollar actividades para mejorar la atención, la memoria o la percepción y, en general, para mejorar la conducta prosocial, que es aquella encaminada a ayudar o satisfacer a otras personas. Por lo tanto, concluyen que “la integración del sistema de reconocimiento de emociones con la realidad virtual (VR) está permitiendo el desarrollo de sistemas de ayuda al diagnóstico de patologías relacionadas con la incapacidad de reconocer las mencionadas expresiones faciales y el desarrollo de terapias cognitivas adaptadas a las necesidades de los pacientes”.