Investigadores de la UPNA ensayan técnicas de seguimiento de la mirada en ordenadores o teléfonos

Esta mejora incrementaría las potenciales aplicaciones comerciales de esta tecnología y abriría la puerta a utilizar estos dispositivos en nuevos ámbitos
Investigadores de la UPNA ensayan técnicas de seguimiento de la mirada en ordenadores o teléfonos

Un grupo de investigadores del Instituto Smart Cities (ISC) de la Universidad Pública de Navarra trabaja en un proyecto para la mejora de la precisión de los sistemas de seguimiento de la mirada ('eye-tracking') en dispositivos de uso cotidiano, como ordenadores portátiles o smartphones. Esta mejora incrementaría las potenciales aplicaciones comerciales de esta tecnología y abriría la puerta a utilizar estos dispositivos en nuevos ámbitos, ha informado la UPNA.

El seguimiento de la mirada se ha realizado históricamente con infraestructuras complejas y muy constreñidas para el usuario, que, además, requerían que el sujeto analizado permaneciera inmóvil durante su utilización para registrar adecuadamente el movimiento de sus pupilas, ha añadido. Estos sistemas se comercializan, pero su uso se limita a ámbitos muy concretos, como la interacción con la máquina por parte de usuarios con discapacidad motriz muy severa (por ejemplo, en pacientes con ELA) o el análisis de movimientos oculares en industrias como el neuromarketing o la investigación en rendimiento deportivo.

Arantxa Villanueva Larre, investigadora principal del proyecto, considera que el grupo de investigación que lidera, 'Gaze Interaction 4 Everybody' (GI4E), puede hacer valer su bagaje de más de veinte años en el ámbito del eye-tracking para ayudar a comprender las posibilidades reales que brindan los sistemas de inteligencia artificial. "La tecnología todavía está en una fase muy incipiente y lo que pretendemos con este proyecto es crear una base de conocimiento sobre estos sistemas. Queremos ver cuáles son las limitaciones de la tecnología, que no se conocen de momento", detalla.

Para lograrlo, los investigadores de la UPNA generan imágenes sintéticas que representan el rostro de un sujeto artificial, con los que pueden simular distintos tipos de miradas y someterlos posteriormente a seguimiento. "Mediante esta técnica hemos conseguido generar el mejor modelo para seguimiento de la mirada que podríamos conseguir idealmente y, a partir de ahí, estamos caracterizando sus limitaciones comparándolo con los resultados de experimentos realizados con imágenes de sujetos reales", explica Villanueva.

El proyecto cuenta como ente promotor observador a la empresa das-Nano y ya se han fijado algunas reuniones de coordinación para identificar posibles fórmulas de transferencia de conocimiento.

Este proyecto, denominado ChETOS (Retos de un sistema de estimación de mirada empleando componentes de propósito general y redes neuronales), cuenta con financiación del Ministerio de Ciencia, Innovación y Universidades para el periodo 2021-2024. En él trabajan los investigadores del grupo GI4E Arantxa Villanueva, Rafael Cabeza, Sonia Porta, Gonzalo Garde, Andoni Larumbe, Benôit Bossavit y Arnaldo Belzunce y los investigadores del grupo GIARA Mikel Galar y Daniel Paternain, que aplican aproximaciones de inteligencia artificial para resolver el problema planteado.

APOYO DE INTELIGENCIA ARTIFICIAL

En la actualidad, existen muchas iniciativas en marcha en el ámbito tecnológico para intentar realizar técnicas de seguimiento de mirada con hardware más universal. Sin embargo, los resultados obtenidos hasta la fecha presentan menor precisión que las mediciones realizadas con equipos complejos, con márgenes de error de hasta 5-7° (2-3° en las investigaciones más punteras), rangos que se consideran del todo insuficientes para garantizar la utilidad de los resultados, ha indicado la UPNA.

Tal y como explica la responsable del proyecto, "en los sistemas convencionales de altas prestaciones que veníamos utilizando la imagen que obtenemos es de muy buena calidad". "Solo se captura el ojo y se diferencia perfectamente la pupila, el iris, la esclerótica, el lagrimal. Sin embargo, si tomamos la imagen de una webcam o de la cámara frontal del móvil, tenemos la imagen completa del sujeto, un fondo, una iluminación que puede ser muy variable y el problema se complica mucho", expone.

La solución que se ha planteado desde numerosos grupos de investigación de universidades de todo el mundo radica en emplear algoritmos de inteligencia artificial para deducir la dirección de la mirada a partir de las imágenes tomadas, de modo que el sistema autoaprenda a partir de una muestra muy amplia de sujetos analizados. Con todo, los sistemas de inteligencia artificial presentan limitaciones.

"Uno de los problemas más comunes es la dificultad para determinar el desfase entre la dirección de nuestra mirada y el eje óptico de nuestro globo ocular. Cuando miramos un punto, se traza un eje de simetría que pasa por el centro de la pupila hacia el punto observado. Sin embargo, en realidad no miramos en esa dirección. Todos tenemos un eje visual, que es el que realmente representa la mirada, que une una zona muy concreta de la retina, la fóvea, con el objeto observado. Los sistemas de inteligencia artificial pueden determinar sin problemas el eje óptico, pero no así la dirección de la mirada", precisa Arantxa Villanueva.