En el Centro Universitario de Ciencias Exactas e Ingenierías (CUCEI), de la UdeG, se desarrolla un prototipo de robot que podría identificar emociones, y acompañaría a los seres humanos en su vida cotidicana o auxiliaría en cuidados médicos.
El académico del Departamento de Electrónica y Computación, Daniel Zaldívar Navarro, dijo que el reto que tiene junto con el también investigador Erik Valdemar Cuevas Jiménez es hacer que los prototipos que desarrollan posean lo que los estudiosos llaman “inteligencia social”.
Precisó que pretenden que se comporten “de la manera más humana posible, que sean de utilidad para los humanos y aceptados sin causar rechazo o miedo en las personas”.
“Son robots sensibles a nuestras emociones y que pudieran contribuir a que estemos mejor, que obtengamos un beneficio; es una máquina que se vuelve mi compañía, que me proporciona lo que yo necesito según el momento y mi estado de ánimo”, apuntó.
Dijo que ambos -doctores en Inteligencia artificial por la Universidad Libre de Berlín- trabajan desde hace años en diversos prototipos con capacidad para moverse de forma balanceada y han logrado, incluso, crear pequeños robots que juegan futbol sin ningún control remoto y de forma independiente.
Comentó que aunque es un proyecto a largo plazo, ambos trabajan para lograr que en menos de un año los nuevos prototipos, llamados “Marisol” y “El Rostro”, puedan hacer contacto visual y seguir a una persona con la mirada o mover las manos de la forma más similar posible a cómo lo hacen los humanos.
“Podemos hacer que esa máquina tome en cuenta esos estímulos mediante la visión artificial, y en una fase posterior detectar las expresiones de las personas y que el robot identifique su significado y pueda dar una respuesta inteligente”, apuntó.
Citó, como ejemplo, que si el robot percibe que una persona tiene una expresión de cansancio.
“Podría preguntarle su estado de ánimo y ofrecerle reproducir una de sus canciones favoritas; o identificar si los adultos mayores tienen algún comportamiento o síntoma anormal y verificar su estado de salud mediante sensores táctiles que midan sus signos vitales”, dijo.
Manifestó que el proyecto involucra a estudiantes de licenciatura, de maestría y doctorado, quienes ayudan en la programación y perfeccionamiento de los movimientos de los prototipos.
Subrayó que lo ambicioso del proyecto conlleva que los resultados sean palpables a mediano y largo plazos, para lo que requerirán financiamiento de diversas instancias dentro y fuera de la UdeG.
Con información de Excélsior