Cargando...

Máquinas capaces de sonreír

Una informática vasca crea un mecanismo para dotar de comunicación emocional a programas y sistemas tecnológicos

Publicidad

En la historia de la informática, los humanos siempre se han tenido que adaptar a las máquinas. Primero, las órdenes se introducían mediante líneas de comandos en una pantalla negra. A partir de 1984, la interfaz gráfica llenó los ordenadores de color, con sus ventanas, iconos, menús y señaladores (WIMP). Pero, aunque el paradigma WIMP los hizo más amigables, la relación sigue limitada a una interacción hombre-máquina basaba en la comunicación verbal (mediante texto o voz). Ahora, una investigadora vasca propone un sistema para dotar de emociones a esa relación.

Publicidad

Amalia Ortiz, la directora del área de Interacción para Educación, Ocio y eInclusión del centro tecnológico VICOMTech , defiende, en su tesis doctoral Avatares para la interacción emocional presentada en la Universidad del País Vasco, la necesidad de crear una representación virtual del sistema o máquina que sea capaz de expresar emociones y de entender la comunicación no verbal (gestos corporales y faciales) del usuario.

Click to enlarge
A fallback.

El paradigma WIMP, aunque ayudó a popularizar los ordenadores, presenta muchas limitaciones. Para Ortiz, la más importante es que "obliga al usuario a adaptarse a la máquina". En los últimos tiempos se ha impuesto lo que llaman "interacción multimodal". La visión artificial, los gráficos 3D y la voz sintetizada han permitido que la interacción entre máquina y hombre sea más natural. Las pantallas táctiles y los sensores de movimiento instalados en los equipos también han ayudado a usar más los sentidos para trabajar, jugar o vivir con los sistemas informáticos.

La importancia de los gestos

Publicidad

Sin embargo, y como muestra Ortiz en su tesis, todos estos avances se olvidan de un hecho básico en la comunicación: tan importante es el cómo se dice y los gestos al decirlo, como lo que se dice. De hecho, es más relevante la forma que el fondo. El psicólogo Albert Mehrabian ya estableció que, en la aceptación de un mensaje transmitido cara a cara, el 55% depende de la gesticulación y la expresión facial, un 38% de aspectos como el tono y el volumen de la voz y sólo un 7%, del significado de las palabras.

Con esta premisa, Ortiz ha estudiado cómo el uso de avatares (representaciones virtuales) capaces de entender y expresar gestos faciales puede mejorar la relación con las máquinas. "Que un programa se comunique contigo a través de emociones y entienda las tuyas permite comunicar más y mejor información", explica Ortiz.

Publicidad

Lo primero que hizo esta informática vasca fue desarrollar una arquitectura genérica que puedan aprovechar los desarrolladores de programas e incluso los usuarios sin muchos conocimientos para crear avatares. "No existe algo parecido en el mercado aunque sí hay varias investigaciones en marcha", explica.

Después creó varios programas específicos apoyados en este sistema: uno era un paseo virtual por la historia basado en narraciones asistido por un avatar, otro era un software para chatear usando representaciones de los usuarios que pueden expresar distintas emociones y otro busca ayudar a usuarios con alguna discapacidad cognitiva.

Publicidad

Otro ejemplo es el tutor virtual de un curso de enseñanza on-line. Este agente tridimensional detecta el estado de ánimo del alumno según las respuestas que hace a las preguntas, lo que tarda en responder o los movimientos del ratón. Si detecta ansiedad, desinterés o dificultad para alcanzar un objetivo, el avatar puede reaccionar volviendo atrás en el curso y hablándole con una sonrisa de ánimo en el rostro.

Emociones en la cara

Publicidad

El sistema de Amalia Ortiz se apoya en el modelo del psicólogo Paul Ekman sobre la relación entre emociones y su expresión facial. Ira, miedo, alegría, tristeza, asco y sorpresa son las seis emociones básicas que, basado en las acciones del usuario, el avatar puede reconocer o expresar.

Tres tipos de interacción

Publicidad

Hay tres módulos de interacción: emocional estática (predefinida en el sistema por su creador), emocional dinámica (se genera en función de los eventos que van sucediendo) y emocional humana (cómo el avatar debe expresar facialmente las emociones).

Mayor eficacia

Publicidad

En las pruebas realizadas, los usuarios preferían interactuar con avatares, en especial si eran capaces de expresar alguna emoción en su rostro. En el caso del curso on-line, el acierto en las respuesta mejoró un 23%. 

Publicidad