Secciones bajar

Lara Croft se alegra de verte

  • Investigadores de la UIB desarrollan un modelo de emociones para personajes virtuales
Por SHEREZADE ÁLVAREZ* (SOITU.ES)
Actualizado 26-12-2008 10:32 CET

¿Te gustaría, no? Sin embargo, ¿por qué en ocasiones nos da cierto repelús hablar con un contestador automático o nos parece ridículo interactuar con un personaje creado por ordenador? ¿Porqué las 'estrellas' de los videojuegos llegan al cenit de su carrera y nos sentimos más identificados con ellos cuando algún actor les ha dado vida en la gran pantalla? Si bien es verdad que los creadores (sea de videojuegos, cómics, etcétera) intentan conferir a sus personajes una historia, un carácter determinado e incluso unos sentimientos para humanizarles (aunque sean animales o el clip de Windows), no lo es menos que es difícil llegar a concretar en un rostro la cantidad de registros que tenemos los humanos (unos más que otros).

Sin duda, la calidad de las animaciones por ordenador es espectacular y ha avanzado mucho desde Mario Bros, pero aun queda un largo camino para que cualquier personaje pueda reflejar con su rostro de una manera 'humana' un carácter determinado, para que la empatía sea mayor que con algo inerte. ¿O no? Precisamente a partir de esta idea un equipo de investigadores de la Universidad de las Islas Baleares (UIB) ha desarrollado un modelo de emociones, estados de ánimo y personalidad que pueda adaptarse a personajes virtuales, específicamente a sus expresiones faciales. Este modelo permitiría generar caras en las que, por primera vez, se visualizan emociones y estados de ánimo acordes a los rasgos de personalidad. El estudio se publica en el último número de la revista Computer Animation and Virtual Worlds.

Según explica Diana Arellano, de la Unidad de Gráficos y Visión por Ordenador e Inteligencia Artificial de la UIB e integrante del equipo de investigación que ha desarrollado el modelo, "las emociones (como el miedo, la alegría o la sorpresa) son alteraciones del ánimo casi instantáneas, a diferencia de los estados emocionales (como el aburrimiento o la ansiedad) que son más duraderos, o la personalidad, que suele ser para toda la vida".

Personalidad, emociones y estados emocionales

Basándose en las teorías de Albert Mehrabian —que establece ocho estados emocionales: alegre, triste, dócil, hostil, dependiente, desdeñoso, relajado y ansioso— y el modelo de emociones de los 'Cinco Factores' (o Big Five) —extroversión, neurosis, apertura, diligencia y simpatía—, han integrado en un solo espacio 3D al mismo tiempo personalidad, emociones y estados emocionales o de ánimo, que hasta ahora trataban de forma separada.

"Además de las expresiones universales (alegría, tristeza, enfado, disgusto, miedo y sorpresa), hemos generado expresiones intermedias mediante algoritmos que mezclan estas universales y nos permiten obtener otras como gratitud, satisfacción, pena, amor, etcétera", asegura Arellano.

Para lograrlo, se asignaron diferentes valores (entre -1 y 1) a cada factor, obteniendo una personalidad que será traducida en el modelo como el 'estado emocional por defecto', que sería el estado emocional que el personaje expresaría cuando no experimentase ninguna emoción. Si algo en el entorno provocase emociones en el personaje, estas serían influenciadas por el estado emocional que tenga en ese momento, y por lo tanto expresadas en el rostro con una intensidad diferente.

"De aquí que se diga que una persona neurótica expresará la alegría de una forma diferente a una persona extrovertida", añade la investigadora. "Utilizamos el modelo de Mehrabian para tener un espacio geométrico que nos permita implementar algoritmos para la generación de las expresiones. Los puntos de la cara que definen estas emociones se pueden determinar matemáticamente, y con los algoritmos desarrollados se pueden obtener de forma 'fácil y rápida' las distintas expresiones faciales. El sistema, que emplea la definición de una malla facial provista por el estándar MPEG-4 (conocido por ser el estándar de codificación de vídeo) para generar las imágenes, permite visualizar las emociones básicas (enfado, asco, miedo, alegría, tristeza, sorpresa) y las expresiones intermedias", concluye.

Dos métodos diferentes

Para evaluar hasta qué punto los resultados eran convincentes, se utilizaron dos métodos: uno llamado objetivo, mediante un programa automático que identificó el 82% de las expresiones generadas, y otro subjetivo, que enfrentó a personas con las imágenes generadas por el modelo para conocer si realmente identificaban las expresiones que se quería transmitir. A través de una encuesta a un grupo de 75 alumnos universitarios, llegaron a la conclusión que éstos reconocieron con éxito el 86% de las emociones y el 73% de los estados emocionales representados en el ordenador.

Pero el equipo todavía trabaja para perfeccionar el modelo a pesar de sus adelantos, pues aún hay aspectos importantes sin desarrollar como la disponibilidad de 'un entorno que facilite el reconocimiento'. A lo que se refieren con esto es a que "ciertas expresiones faciales son muy difíciles de reconocer, sobre todo si lo que se muestra son imágenes estáticas de las mismas. En cambio, si se tiene un personaje 3D que pone cierta expresión debido a un evento, y esto se muestra dinámicamente, es más fácil saber cuál es la expresión. Por ejemplo, un personaje que ha recibido un chocolate de alguien que le cae bien sonreirá o pondrá una expresión que se puede asociar con la emoción de gratitud o satisfacción. Pero si pones sólo una cara sonriendo, y nada más, no sabes exactamente a qué emoción pertenecería", explica Arellano.

A esta dificultad del modelo además se le podría añadir la falta de gestos y otros rasgos que refuerzan nuestra personalidad y logran que asociemos una expresión facial determinada a una emoción. "Cuando tengamos un entorno dinámico que permita una mayor y mejor evaluación de las caras, se podrá refinar esta asociación".

En cuanto a las utilidades de este modelo, los investigadores apuntan hacia aplicaciones de tutores virtuales o presentadores además de, por supuesto, personajes de videojuegos o historias interactivas. "La idea de nuestro modelo es que pueda añadir un componente humano que haría más real la interacción del usuario con dichos personajes".

Varias empresas y centros se han interesado en colaborar con el equipo, pero la expresión de los investigadores al saber la noticia no se ha registrado en el modelo.


* Sherezade Álvarez es una periodista especializada que trabaja en la empresa de divulgación científica DIVULGA.

Di lo que quieras

Aceptar

Si quieres firmar tus comentarios puedes iniciar sesión »

En este espacio aparecerán los comentarios a los que hagas referencia. Por ejemplo, si escribes "comentario nº 3" en la caja de la izquierda, podrás ver el contenido de ese comentario aquí. Así te aseguras de que tu referencia es la correcta. No se permite código HTML en los comentarios.

Di lo que quieras

Lo sentimos, no puedes comentar esta noticia si no eres un usuario registrado y has iniciado sesión.
Si ya lo estás registrado puedes iniciar sesión ahora.

Volver a actualidad Volver a portada
subir Subir al principio de la página