Please use this identifier to cite or link to this item: http://hdl.handle.net/10662/5187
Title: A perception-aware architecture for autonomous robots
Authors: Manso Fernández-Argüelles, Luis Jesús
Bustos García de Castro, Pablo
Bachiller Burgos, Pilar
Núñez Trujillo, Pedro Miguel
Keywords: Percepción consciente de la planificación;Arquitecturas de robot;Percepción activa;Percepción semántica;Perception-aware planning;Robot architectures;Active perception;Semantic perception
Issue Date: 2015
Publisher: SAGE
Abstract: Los robots de servicio están obligados a operar en ambientes interiores para ayudar a los seres humanos en su vida cotidiana. Para lograr las tareas que podrían ser asignadas, los robots deben ser capaces de modelar de forma autónoma e interactuar con los elementos en él. Incluso en los hogares, que son generalmente más predecibles que los escenarios al aire libre, la percepción del robot es una tarea sumamente difícil. El desorden, la distancia y las vistas parciales complican la modelación del entorno, por lo que es esencial. Para que los robots se aproximen a los objetos para percibir para ganar puntos de vista favorables. Este artículo propone una novedosa arquitectura distribuida basada en la gramática, diseñada teniendo en cuenta la reutilización y la escalabilidad, que permite a los robots no sólo encontrar y ejecutar los planes perceptivos necesarios para alcanzar sus objetivos, sino también verificar que la representación mundial que construyen Es válida según un conjunto de reglas gramaticales para el modelo mundial. Además, describe un ejemplo real de uso, proporcionando resultados cualitativos, en el que un robot con éxito modela la habitación en la que se encuentra y encuentra una taza de café.
Service robots are required to operate in indoor environments to help humans in their daily lives. To achieve the tasks that they might be assigned, the robots must be able to autonomously model and interact with the elements in it. Even in homes, which are usually more predictable than outdoor scenarios, robot perception is an extremely challenging task. Clutter, distance and partial views complicate modelling the environment, making it essential for robots to approach the objects to perceive in order to gain favourable points of view. This article proposes a novel grammar-based distributed architecture, designed with reusability and scalability in mind, which enables robots not only to find and execute the perception-aware plans they need to achieve their goals, but also to verify that the world representation they build is valid according to a set of grammatical rules for the world model. Additionally, it describes a real-world example of use, providing qualitative results, in which a robot successfully models the room in which it is located and finds a coffee mug.
URI: http://hdl.handle.net/10662/5187
ISSN: 1729-8806
DOI: 10.5772/61742
Appears in Collections:DIAYF - Artículos
DTCYC - Artículos

Files in This Item:
File Description SizeFormat 
61742.pdf3,52 MBAdobe PDFView/Open


This item is licensed under a Creative Commons License Creative Commons