Please use this identifier to cite or link to this item:
http://hdl.handle.net/10662/5187
Title: | A perception-aware architecture for autonomous robots |
Authors: | Manso Fernández-Argüelles, Luis Jesús Bustos García de Castro, Pablo Bachiller Burgos, Pilar Núñez Trujillo, Pedro Miguel |
Keywords: | Percepción consciente de la planificación;Arquitecturas de robot;Percepción activa;Percepción semántica;Perception-aware planning;Robot architectures;Active perception;Semantic perception |
Issue Date: | 2015 |
Publisher: | SAGE |
Abstract: | Los robots de servicio están obligados a operar en ambientes interiores para ayudar a los seres humanos en su vida cotidiana. Para lograr las tareas que podrían ser asignadas, los robots deben ser capaces de modelar de forma autónoma e interactuar con los elementos en él. Incluso en los hogares, que son generalmente más predecibles que los escenarios al aire libre, la percepción del robot es una tarea sumamente difícil. El desorden, la distancia y las vistas parciales complican la modelación del entorno, por lo que es esencial. Para que los robots se aproximen a los objetos para percibir para ganar puntos de vista favorables. Este artículo propone una novedosa arquitectura distribuida basada en la gramática, diseñada teniendo en cuenta la reutilización y la escalabilidad, que permite a los robots no sólo encontrar y ejecutar los planes perceptivos necesarios para alcanzar sus objetivos, sino también verificar que la representación mundial que construyen Es válida según un conjunto de reglas gramaticales para el modelo mundial. Además, describe un ejemplo real de uso, proporcionando resultados cualitativos, en el que un robot con éxito modela la habitación en la que se encuentra y encuentra una taza de café. Service robots are required to operate in indoor environments to help humans in their daily lives. To achieve the tasks that they might be assigned, the robots must be able to autonomously model and interact with the elements in it. Even in homes, which are usually more predictable than outdoor scenarios, robot perception is an extremely challenging task. Clutter, distance and partial views complicate modelling the environment, making it essential for robots to approach the objects to perceive in order to gain favourable points of view. This article proposes a novel grammar-based distributed architecture, designed with reusability and scalability in mind, which enables robots not only to find and execute the perception-aware plans they need to achieve their goals, but also to verify that the world representation they build is valid according to a set of grammatical rules for the world model. Additionally, it describes a real-world example of use, providing qualitative results, in which a robot successfully models the room in which it is located and finds a coffee mug. |
URI: | http://hdl.handle.net/10662/5187 |
ISSN: | 1729-8806 |
DOI: | 10.5772/61742 |
Appears in Collections: | DIAYF - Artículos DTCYC - Artículos |
This item is licensed under a Creative Commons License