Lokalizace mobilních robotů pomocí vizuálního vnímání
Vision based localization of mobile robots
diploma thesis (DEFENDED)
View/ Open
Permanent link
http://hdl.handle.net/20.500.11956/14833Identifiers
Study Information System: 47336
Collections
- Kvalifikační práce [11234]
Author
Advisor
Referee
Holan, Tomáš
Faculty / Institute
Faculty of Mathematics and Physics
Discipline
Theoretical computer science
Department
Department of Software and Computer Science Education
Date of defense
26. 5. 2008
Publisher
Univerzita Karlova, Matematicko-fyzikální fakultaLanguage
Czech
Grade
Excellent
Klíčovou vlastností mobilních robotických systémů je schopnost určení vlastní pozice vzhledem k okolí. Jako vhodná a v poslední době intenzivně studovaná technologie se jeví využití digitálních kamer. Cílem této diplomové práce je proto analyzovat možnosti lokalizace na základě vizuálního vstupu, z dostupných nástrojů sestavit ukázkové řešení a jeho vlastnosti prověřit v praxi. Jako nosná technologie byl zvolen částicový filtr se simulovaným žíháním provádějící lokalizaci na základě sledování objektů, jejichž hranové modely jsou známy. Ohodnocení částic založené na kontrolních bodech využívá jen nutnou část obrazových dat a umožňuje tak efektivní implementaci. Výsledkem práce je systém schopný v reálném čase sledovat pohyb ve známém prostředí i za prudkých pohybů, částečného překrytí nebo pohybového rozostření sledovaných hran. Jako vhodné rozšíření byla navíc diskutována možnost za běhu mapovat nové hrany, implementována pomocí kombinace částicového fi ltru s následnou robustní optimalizací.
A key feature of a mobile robotic system is the ability to determine its exact position. Solutions using digital cameras to accomplish this task play a major role in the current research. This thesis studies the topic of vision-based localization, proposes a solution and veriffi es its characteristics in series of experiments. An annealed particle filter is used to track line segments of known 3D models. The selected method of evaluation based on control points uses just the necessary part of image data and allows e cient implementation. Real-time performance, resilience to erratic motion and partial occlusion has been achieved, allowing the system to perform motion tracking over large viewpoint changes. A mapping feature is proposed as a possible extension and implemented by combining a particle fi lter with robust optimization.