On computational intelligence tools for vision based navigation of mobile robots

  1. Villaverde De la Nava, Iván
Dirigée par:
  1. Manuel Graña Romay Directeur/trice

Université de défendre: Universidad del País Vasco - Euskal Herriko Unibertsitatea

Fecha de defensa: 09 décembre 2009

Jury:
  1. Darío Maravall Gómez-Allende President
  2. Bogdan Raducanu Secrétaire
  3. Vassilis Kaburlasos Rapporteur
  4. Javier de Lope Asiaín Rapporteur
  5. Gerhard Ritter Rapporteur
Département:
  1. Ciencia de la Computación e Inteligencia Artificial

Type: Thèses

Teseo: 285162 DIALNET

Résumé

En el trabajo de esta tesis se han tratado dos tipos de sensores básicos para el desarrollo de sistemas de navegación: cámaras ópticas y cámaras 3D de detección de rango, Con ambas los problemas tratados son el de autolocalización, detección de movimiento propio del robot y construcción de mapas. Se han obtenido buenos resultados utilizando técnicas de computación reticular, técnicas evolutivas y de redes neuronales. La computación reticular se ha aplicado a la autolocalización en mapas cualitativos y a la detección de balizas visuales con cámaras ópticas. Para la realización de procesos de localización métrica con cámaras 3D de detección de rango, se han aplicado redes neuronales competitivas y algoritmos evolutivos para la estimación de las transformaciones entre vistas 3D que nos proporcionan la estimación del movimiento del robot. Finalmente, se ha realizado una prueba de concepto experimental sobre una plataforma robótica real de un Sistema Robótico Multi-Componente Enlazado con retroalimentación visual. Abstract: This PhD Thesis has dealt with two types of sensors, studying their usefulness for the development of navigation systems: optical cameras and 3D range finder cameras. Both were used to attack the problems of selflocalization, egomotion and topological and metric map building. Good results have been obtained using Lattice Computing, Evolution Strategies and Artificial Neural Network techniques. Lattice Computing has been applied to self-localization in qualitative maps and to visual landmark detection using optical cameras. For metric localization tasks with 3D range finder cameras, Competitive Neural Networks and Evolution Strategies have been used to estimate the transformations between 3D views, which will provide the estimation of the robot's movement. Finally, we have performed a proof-of-concept physical experiment on the control of Linked Multi-Component Robotic Systems with visual feedback.