Affective Computing Models: from Facial Expression to Mind-Reading
Mind reading plays an indispensable role in human social interaction and communication. One of the key factors in mind reading is facial expression analysis. It is thus crucial to understand and model facial behaviors reflecting m...
ver más
TIN2011-24660
HACIA UNA NUEVA GENERACION DE AGENTES DE TIPO HUMANO
92K€
Cerrado
PSI2014-54720-P
RECONOCIMIENTO DE EXPRESIONES FACIALES EMOCIONALES DINAMICAS...
48K€
Cerrado
EMERGE
Emergent awareness from minimal collectives
3M€
Cerrado
RYC-2016-19770
The study of behavioral and psychological transformations re...
309K€
Cerrado
InStance
Intentional stance for social attunement
1M€
Cerrado
TIN2010-19654
ANALISIS DEL ROSTRO HUMANO EN AMBIENTES INTELIGENTES Y SEGUR...
10K€
Cerrado
Últimas noticias
27-11-2024:
Videojuegos y creaci...
Se abre la línea de ayuda pública: Ayudas para la promoción del sector del videojuego, del pódcast y otras formas de creación digital
27-11-2024:
DGIPYME
En las últimas 48 horas el Organismo DGIPYME ha otorgado 1 concesiones
Descripción del proyecto
Mind reading plays an indispensable role in human social interaction and communication. One of the key factors in mind reading is facial expression analysis. It is thus crucial to understand and model facial behaviors reflecting mental states to enhance communication experience with robots and other intelligent agents in either real social interaction or augmented virtual environments. As well, consistent cross-cultural disagreement about the emotion and intensity conveyed by gold-standard universal facial expressions questions the universality hypothesis. In recent years, even though automatic facial expression analysis has achieved excellent progress, the research of emotion understanding in realistic environment across cultures is still lacking. Substantial psychological works support the use of the appraisal theory for internal emotion detection through facial behaviors, while research in computer science mainly focuses on facial modelling but ignoring the underlying biologically-driven mechanism. Therefore, we plan to reconstruct facial macro- and micro-expressions and digitise emotion appraisal, collect 4D (dynamic 3D) facial expression dataset with culture diversity and develop autonomous 4D facial model based on the collected 4D data and cultural emotion appraisal theory, and push forward commercialisation.
ACMod project aims to advance the state of the art in understanding and modelling naturalistic facial behaviours in social interaction cross various cultures, which is essential to the next generation of human-computer interaction, robotics and augmented virtual reality techniques. This project will open up a new avenue for modelling facial behaviors by taking a fundamentally different and interdisciplinary approach, combining theories and techniques in e.g. psychology and computer science with an emphasis on social interaction applications. The project will promote knowledge exchange between EU and East Asian partners to foster the researchers involved.
Seleccionando "Aceptar todas las cookies" acepta el uso de cookies para ayudarnos a brindarle una mejor experiencia de usuario y para analizar el uso del sitio web. Al hacer clic en "Ajustar tus preferencias" puede elegir qué cookies permitir. Solo las cookies esenciales son necesarias para el correcto funcionamiento de nuestro sitio web y no se pueden rechazar.
Cookie settings
Nuestro sitio web almacena cuatro tipos de cookies. En cualquier momento puede elegir qué cookies acepta y cuáles rechaza. Puede obtener más información sobre qué son las cookies y qué tipos de cookies almacenamos en nuestra Política de cookies.
Son necesarias por razones técnicas. Sin ellas, este sitio web podría no funcionar correctamente.
Son necesarias para una funcionalidad específica en el sitio web. Sin ellos, algunas características pueden estar deshabilitadas.
Nos permite analizar el uso del sitio web y mejorar la experiencia del visitante.
Nos permite personalizar su experiencia y enviarle contenido y ofertas relevantes, en este sitio web y en otros sitios web.