Identificador persistente para citar o vincular este elemento: http://hdl.handle.net/10662/8098
Registro completo de Metadatos
Campo DCValoridioma
dc.contributor.authorCid Burgos, Felipe Andrés-
dc.contributor.authorMoreno del Pozo, José-
dc.contributor.authorBustos García de Castro, Pablo-
dc.contributor.authorNúñez de Trujillo, Pedro Miguel-
dc.date.accessioned2018-10-26T11:53:21Z-
dc.date.available2018-10-26T11:53:21Z-
dc.date.issued2014-
dc.identifier.issn1424-8220-
dc.identifier.urihttp://hdl.handle.net/10662/8098-
dc.description.abstractEste artículo presenta una cabeza robótica humanoide multi-sensor para la interacción del robot humano. El diseño de la cabeza robótica, Muecas, se basa en la investigación en curso sobre los mecanismos de percepción e imitación de las expresiones y emociones humanas. Estos mecanismos permiten la interacción directa entre el robot y su compañero humano a través de las diferentes modalidades del lenguaje natural: habla, lenguaje corporal y expresiones faciales. La cabeza robótica tiene 12 grados de libertad, en una configuración de tipo humano, incluyendo ojos, cejas, boca y cuello, y ha sido diseñada y construida totalmente por IADeX (Ingeniería, Automatización y Diseño de Extremadura) y RoboLab. Se proporciona una descripción detallada de su cinemática junto con el diseño de los controladores más complejos. Muecas puede ser controlado directamente por FACS (Sistema de Codificación de Acción Facial), el estándar de facto para reconocimiento y síntesis de expresión facial. Esta característica facilita su uso por parte de plataformas de terceros y fomenta el desarrollo de la imitación y de los sistemas basados en objetivos. Los sistemas de imitación aprenden del usuario, mientras que los basados en objetivos utilizan técnicas de planificación para conducir al usuario hacia un estado final deseado. Para mostrar la flexibilidad y fiabilidad de la cabeza robótica, se presenta una arquitectura de software capaz de detectar, reconocer, clasificar y generar expresiones faciales en tiempo real utilizando FACS. Este sistema se ha implementado utilizando la estructura robótica, RoboComp, que proporciona acceso independiente al hardware a los sensores en la cabeza. Finalmente, se presentan resultados experimentales que muestran el funcionamiento en tiempo real de todo el sistema, incluyendo el reconocimiento y la imitación de las expresiones faciales humanas.es_ES
dc.description.abstractThis paper presents a multi-sensor humanoid robotic head for human robot interaction. The design of the robotic head, Muecas, is based on ongoing research on the mechanisms of perception and imitation of human expressions and emotions. These mechanisms allow direct interaction between the robot and its human companion through the different natural language modalities: speech, body language and facial expressions. The robotic head has 12 degrees of freedom, in a human-like configuration, including eyes, eyebrows, mouth and neck, and has been designed and built entirely by IADeX (Engineering, Automation and Design of Extremadura) and RoboLab. A detailed description of its kinematics is provided along with the design of the most complex controllers. Muecas can be directly controlled by FACS (Facial Action Coding System), the de facto standard for facial expression recognition and synthesis. This feature facilitates its use by third party platforms and encourages the development of imitation and of goal-based systems. Imitation systems learn from the user, while goal-based ones use planning techniques to drive the user towards a final desired state. To show the flexibility and reliability of the robotic head, the paper presents a software architecture that is able to detect, recognize, classify and generate facial expressions in real time using FACS. This system has been implemented using the robotics framework, RoboComp, which provides hardware-independent access to the sensors in the head. Finally, the paper presents experimental results showing the real-time functioning of the whole system, including recognition and imitation of human facial expressions.es_ES
dc.description.sponsorshipTrabajo financiado por: Ministerio de Ciencia e Innovación. Proyecto TIN2012-38079-C03-1 Gobierno de Extremadura. Proyecto GR10144es_ES
dc.format.extent27 p.es_ES
dc.language.isoenges_ES
dc.publisherMDPIes_ES
dc.rightsAtribución-NoComercial-SinDerivadas 3.0 España*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/es/*
dc.subjectInteracción robot humanoes_ES
dc.subjectCabeza robóticaes_ES
dc.subjectImitaciónes_ES
dc.subjectHuman robot interactiones_ES
dc.subjectRobotic heades_ES
dc.subjectImitationes_ES
dc.titleMuecas: a multi-sensor robotic head for affective human robot interaction and imitationes_ES
dc.typearticlees_ES
dc.description.versionpeerReviewedes_ES
dc.rights.accessRightsopenAccesses_ES
dc.subject.unesco1203.04 Inteligencia Artificiales_ES
dc.subject.unesco3311.14 Servomecanismoses_ES
dc.identifier.bibliographicCitationCid Burgos, F. A.; Moreno del Pozo, J.; Bustos García de Castro, P. y Núñez de Trujillo, P. M. (2014). Muecas: a multi-sensor robotic head for affective human robot interaction and imitation. Sensors, 14, 5, 7711-7737. ISSN 1424-8220es_ES
dc.type.versionpublishedVersiones_ES
dc.contributor.affiliationUniversidad de Extremadura. Departamento de Ingeniería de Sistemas Informáticos y Telemáticoses_ES
dc.contributor.affiliationUniversidad de Extremadura. Departamento de Tecnología de los Computadores y de las Comunicacioneses_ES
dc.relation.publisherversionhttp://www.mdpi.com/1424-8220/14/5/7711/htmes_ES
dc.identifier.doi10.3390/s140507711-
dc.identifier.publicationtitleSensorses_ES
dc.identifier.publicationissue5es_ES
dc.identifier.publicationfirstpage7711es_ES
dc.identifier.publicationlastpage7737es_ES
dc.identifier.publicationvolume14es_ES
Colección:DTCYC - Artículos

Archivos
Archivo Descripción TamañoFormato 
s140507711.pdf12,71 MBAdobe PDFDescargar


Este elemento está sujeto a una licencia Licencia Creative Commons Creative Commons