Identificador persistente para citar o vincular este elemento: http://hdl.handle.net/10662/9278
Registro completo de Metadatos
Campo DCValoridioma
dc.contributor.authorGutiérrez Giraldo, Marco Antonio
dc.contributor.authorManso Fernández-Argüelles, Luis Jesús
dc.contributor.authorPandya, Harit
dc.contributor.authorNúñez Trujillo, Pedro Miguel
dc.date.accessioned2019-05-13T08:38:40Z
dc.date.available2019-05-13T08:38:40Z
dc.date.issued2017
dc.identifier.issn1424-8220
dc.identifier.urihttp://hdl.handle.net/10662/9278
dc.description.abstractLa detección y clasificación de objetos tiene innumerables aplicaciones en sistemas que interactúan entre humanos y robots. Es una habilidad necesaria para los robots autónomos que realizan tareas en escenarios domésticos. A pesar de los grandes avances en el aprendizaje profundo y la visión por computadora, los robots sociales que realizan tareas no triviales usualmente pasan la mayor parte de su tiempo encontrando y modelando objetos. Trabajar en escenarios reales significa tratar con cambios constantes en el entorno y datos de sensores de calidad relativamente baja debido a la distancia a la que se encuentran los objetos a menudo. Los sistemas de inteligencia ambiental equipados con diferentes sensores también pueden beneficiarse de la capacidad de encontrar objetos, lo que les permite informar a los humanos sobre su ubicación. Para que estas aplicaciones tengan éxito, los sistemas necesitan detectar los objetos que potencialmente pueden contener otros objetos, trabajando con datos de sensores de resolución relativamente baja. Se ha diseñado una arquitectura de aprendizaje pasivo para sensores con el fin de aprovechar la información multimodal, obtenida mediante una cámara RGB-D y modelos de lenguaje semántico capacitados. La principal contribución de la arquitectura radica en la mejora del rendimiento del sensor en condiciones de baja resolución y altas variaciones de luz utilizando una combinación de etiquetado de imágenes y semántica de palabras. Las pruebas realizadas en cada una de las etapas de la arquitectura comparan esta solución con las técnicas de etiquetado de investigación actuales para la aplicación de un robot social autónomo que trabaja en un apartamento. Los resultados obtenidos demuestran que la arquitectura del sensor propuesta supera los enfoques de vanguardia.es_ES
dc.description.abstractObject detection and classification have countless applications in human–robot interacting systems. It is a necessary skill for autonomous robots that perform tasks in household scenarios. Despite the great advances in deep learning and computer vision, social robots performing non-trivial tasks usually spend most of their time finding and modeling objects. Working in real scenarios means dealing with constant environment changes and relatively low-quality sensor data due to the distance at which objects are often found. Ambient intelligence systems equipped with different sensors can also benefit from the ability to find objects, enabling them to inform humans about their location. For these applications to succeed, systems need to detect the objects that may potentially contain other objects, working with relatively low-resolution sensor data. A passive learning architecture for sensors has been designed in order to take advantage of multimodal information, obtained using an RGB-D camera and trained semantic language models. The main contribution of the architecture lies in the improvement of the performance of the sensor under conditions of low resolution and high light variations using a combination of image labeling and word semantics. The tests performed on each of the stages of the architecture compare this solution with current research labeling techniques for the application of an autonomous social robot working in an apartment. The results obtained demonstrate that the proposed sensor architecture outperforms state-of-the-art approaches.es_ES
dc.description.sponsorship• Ministerio de Ciencia, Innovación y Universidades. Proyecto TIN2015-65686-C5-5-R • Gobierno de Extremadura y Fondos FEDER. Proyecto GR15120 • MEC Project PHBP14/00083 (Italia)es_ES
dc.format.extent19 p.es_ES
dc.format.mimetypeapplication/pdfen_US
dc.language.isoenges_ES
dc.publisherMDPIes_ES
dc.rightsAttribution 4.0 International*
dc.rights.urihttp://creativecommons.org/licenses/by/4.0/*
dc.subjectSensores de robotes_ES
dc.subjectSensores de inteligencia ambientales_ES
dc.subjectAprendizaje profundoes_ES
dc.subjectDetección de objetoses_ES
dc.subjectReconocimiento de objetoses_ES
dc.subjectSemánticaes_ES
dc.subjectRobot sensorses_ES
dc.subjectAmbient intelligence sensorses_ES
dc.subjectDeep learninges_ES
dc.subjectObject detectiones_ES
dc.subjectObject recognitiones_ES
dc.subjectWord semanticses_ES
dc.titleA passive learning sensor architecture for multimodal image labeling: an application for social robotses_ES
dc.typearticlees_ES
dc.description.versionpeerReviewedes_ES
europeana.typeTEXTen_US
dc.rights.accessRightsopenAccesses_ES
dc.subject.unesco1203.04 Inteligencia Artificiales_ES
europeana.dataProviderUniversidad de Extremadura. Españaes_ES
dc.identifier.bibliographicCitationGutiérrez Giraldo, M. A.; Manso Fernández-Argüelles, L. J.; Pandya, H. y Núñez Trujillo, P. M. (2017). A passive learning sensor architecture for multimodal image labeling: an application for social robots. Sensors, 17, 2, 353. ISSN 1424-8220es_ES
dc.type.versionpublishedVersiones_ES
dc.contributor.affiliationRobotics Research Center. Indiaes_ES
dc.contributor.affiliationUniversidad de Extremadura. Departamento de Tecnología de los Computadores y de las Comunicacioneses_ES
dc.relation.publisherversionhttps://doi.org/10.3390/s17020353es_ES
dc.relation.publisherversionhttps://www.mdpi.com/1424-8220/17/2/353es_ES
dc.identifier.doi10.3390/s17020353
dc.identifier.publicationtitleSensorses_ES
dc.identifier.publicationissue2es_ES
dc.identifier.publicationfirstpage1es_ES
dc.identifier.publicationlastpage19es_ES
dc.identifier.publicationvolume17, 353es_ES
Colección:DTCYC - Artículos

Archivos
Archivo Descripción TamañoFormato 
s17020353.pdf4,17 MBAdobe PDFDescargar


Este elemento está sujeto a una licencia Licencia Creative Commons Creative Commons