Tesis profesional presentada por
Licenciatura en Ingeniería en Sistemas y Tecnologías de Información. Departamento de Computación, Electrónica y Mecatrónica. Escuela de Ingeniería, Universidad de las Américas Puebla.
Jurado Calificador
Presidente: Dr. J. Alfredo Sánchez
Huitrón
Secretario y Director: Dr. Oleg Starostenko
Vocal: Dr. Vicente Alarcón Aquino
Cholula, Puebla, México a 17 de mayo de 2013.
Esta tesis presenta las bases teóricas para el desarrollo de un aplicación web que permita reproducir las expresiones reconocidas como universales o prototípicas propuestas por Ekman (alegría, tristeza, miedo, disgusto, ira, sorpresa) en un avatar 3D. La aplicación está desarrollada en estándares del sistema de codificación de acción facial (FACS por sus siglas en inglés "facial action coding system") y unidades de acción (AU por sus siglas en inglés "action units") desarrolladas por Ekman y Friesen 1970. Este trabajo incluye información relevante sobre el modelado de un objeto facial 3D del estándar de codificación de objetos audiovisuales MEPG-4 e información general de las técnicas básicas de modelado y animación facial de un avatar 3D. Además presenta el funcionamiento del modelo de emociones de Plutchik y el modelo circumplejo de Russell y Mehrabian. Como marco de referencia se presenta el modelo de las emociones propuestas por Ekman y su sistema de FACS y AUs. Se presenta un conjunto delimitado de formas de expresar las emociones prototípicas de las cuales se toma un subconjunto de diferentes expresiones para modelarlas en esta aplicación. Estas expresiones, están identificadas como: ira 1, ira 2, disgusto 1, disgusto 2, miedo 1, miedo 2, alegría, tristeza, sorpresa y desprecio.
La aplicación fue desarrollada utilizando el framework y el web player plugin de Unity3D. Los avatares (dos hombres y dos mujeres) fueron realizados en 3D Studio Max, se utilizaron mallas poligonales y animación por huesos. La aplicación fue cargada en un servidor compartido y está disponible en el dominio chopis.com.
Los avatares modelados fueron sometidos a un proceso de evaluación para cuantificar el reconociendo de cada emoción. La muestra utilizada está compuesta por noventa y seis personas, de un rango de edad de catorce a cincuenta y seis años y de diferentes niveles de estudios. De esta evaluación se obtuvieron los siguientes resultados porcentuales de reconocimiento: ira 1= 37.5%, ira 2 = 17.7%, disgusto 1 = 31.3%, disgusto 2 = 18.8%, miedo 1 = 21.9%, miedo 2 = 41.7%, alegría = 90.6%, tristeza = 77.1%, sorpresa = 76%. De lo cual se puede concluir que las emociones de alegría, tristeza y sorpresa fueron las únicas reconocidas por obtener una puntuación mayor al 75%, mientras que el resto de las expresiones al obtener un porcentaje de reconocimiento menor al 50% denota la falla del avatar en su modelado. Cada uno de los avatares fue evaluado según el número de personas que lo ponderaron con el fin de observar las diferencias de reconocimiento por cada emoción. Se realizó el cálculo de reconocimiento de emociones por nivel de estudios para identificar si existía una correlación entre éste y la capacidad para reconocer las emociones, sin embargo, los resultados no mostraron una correlación significativa.
Además se realizó el cálculo de reconocimiento de expresiones distintas, es decir, sin repetición. Se obtuvieron los siguientes resultados: 11% logró reconocer las seis expresiones, 29% reconoció cinco de las seis expresiones, 35% reconoció cuatro de las seis expresiones, 17% reconoció tres de las seis expresiones, 6% reconoció dos expresiones y 1% únicamente reconoció una de las seis expresión.
Palabras clave: avatar, expresiones faciales, Ekman.
Capítulo 1. Introducción (archivo pdf, 2 mb)
Capítulo 2. Base de Conocimientos (archivo pdf, 3 mb)
Capítulo 3. Desarrollo de un modelo 3D (archivo pdf, 4 mb)
Capítulo 4. Desarrollo de un avatar (archivo pdf, 3 mb)
Capítulo 5. Generación de la aplicación (archivo pdf, 3 mb)
Capítulo 6. Pruebas y Evaluaciones (archivo pdf, 423 kb)
Capítulo 7. Concluciones generales y Trabajo a futuro (archivo pdf, 70 kb)
Referencias (archivo pdf, 82 kb)
Anexo B. Tabla con ubicación de FPs en un modelo facial (archivo pdf, 102 kb)
Anexo C. Tabla de Definición de FAPs, asignación de grupos y tamaño de pasos (archivo pdf, 121 kb)
Anexo D. Estudio de usabilidad (archivo pdf, 153 kb)
Anexo E. Expresión: Tablas (archivo pdf, 463 kb)
Anexo F. Script del menú de emociones (archivo pdf, 99 kb)
Anexo G. Script del screenShot (archivo pdf, 100 kb)
Medina Bello, P. N. 2013. Aplicación web para el modelado de expresiones faciales en un avatar. Tesis Licenciatura. Ingeniería en Sistemas y Tecnologías de Información. Departamento de Computación, Electrónica y Mecatrónica, Escuela de Ingeniería, Universidad de las Américas Puebla. Mayo. Derechos Reservados © 2013.