Identificador persistente para citar o vincular este elemento: http://hdl.handle.net/10662/5187
Títulos: A perception-aware architecture for autonomous robots
Autores/as: Manso Fernández-Argüelles, Luis Jesús
Bustos García de Castro, Pablo
Bachiller Burgos, Pilar
Núñez Trujillo, Pedro Miguel
Palabras clave: Percepción consciente de la planificación;Arquitecturas de robot;Percepción activa;Percepción semántica;Perception-aware planning;Robot architectures;Active perception;Semantic perception
Fecha de publicación: 2015
Editor/a: SAGE
Resumen: Los robots de servicio están obligados a operar en ambientes interiores para ayudar a los seres humanos en su vida cotidiana. Para lograr las tareas que podrían ser asignadas, los robots deben ser capaces de modelar de forma autónoma e interactuar con los elementos en él. Incluso en los hogares, que son generalmente más predecibles que los escenarios al aire libre, la percepción del robot es una tarea sumamente difícil. El desorden, la distancia y las vistas parciales complican la modelación del entorno, por lo que es esencial. Para que los robots se aproximen a los objetos para percibir para ganar puntos de vista favorables. Este artículo propone una novedosa arquitectura distribuida basada en la gramática, diseñada teniendo en cuenta la reutilización y la escalabilidad, que permite a los robots no sólo encontrar y ejecutar los planes perceptivos necesarios para alcanzar sus objetivos, sino también verificar que la representación mundial que construyen Es válida según un conjunto de reglas gramaticales para el modelo mundial. Además, describe un ejemplo real de uso, proporcionando resultados cualitativos, en el que un robot con éxito modela la habitación en la que se encuentra y encuentra una taza de café.
Service robots are required to operate in indoor environments to help humans in their daily lives. To achieve the tasks that they might be assigned, the robots must be able to autonomously model and interact with the elements in it. Even in homes, which are usually more predictable than outdoor scenarios, robot perception is an extremely challenging task. Clutter, distance and partial views complicate modelling the environment, making it essential for robots to approach the objects to perceive in order to gain favourable points of view. This article proposes a novel grammar-based distributed architecture, designed with reusability and scalability in mind, which enables robots not only to find and execute the perception-aware plans they need to achieve their goals, but also to verify that the world representation they build is valid according to a set of grammatical rules for the world model. Additionally, it describes a real-world example of use, providing qualitative results, in which a robot successfully models the room in which it is located and finds a coffee mug.
URI: http://hdl.handle.net/10662/5187
ISSN: 1729-8806
DOI: 10.5772/61742
Colección:DIAYF - Artículos
DTCYC - Artículos

Archivos
Archivo Descripción TamañoFormato 
61742.pdf3,52 MBAdobe PDFDescargar


Este elemento está sujeto a una licencia Licencia Creative Commons Creative Commons