Lokalizace mobilních robotů pomocí vizuálního vnímání
Vision based localization of mobile robots
diplomová práce (OBHÁJENO)
Zobrazit/ otevřít
Trvalý odkaz
http://hdl.handle.net/20.500.11956/14833Identifikátory
SIS: 47336
Kolekce
- Kvalifikační práce [11234]
Autor
Vedoucí práce
Oponent práce
Holan, Tomáš
Fakulta / součást
Matematicko-fyzikální fakulta
Obor
Teoretická informatika
Katedra / ústav / klinika
Katedra softwaru a výuky informatiky
Datum obhajoby
26. 5. 2008
Nakladatel
Univerzita Karlova, Matematicko-fyzikální fakultaJazyk
Čeština
Známka
Výborně
Klíčovou vlastností mobilních robotických systémů je schopnost určení vlastní pozice vzhledem k okolí. Jako vhodná a v poslední době intenzivně studovaná technologie se jeví využití digitálních kamer. Cílem této diplomové práce je proto analyzovat možnosti lokalizace na základě vizuálního vstupu, z dostupných nástrojů sestavit ukázkové řešení a jeho vlastnosti prověřit v praxi. Jako nosná technologie byl zvolen částicový filtr se simulovaným žíháním provádějící lokalizaci na základě sledování objektů, jejichž hranové modely jsou známy. Ohodnocení částic založené na kontrolních bodech využívá jen nutnou část obrazových dat a umožňuje tak efektivní implementaci. Výsledkem práce je systém schopný v reálném čase sledovat pohyb ve známém prostředí i za prudkých pohybů, částečného překrytí nebo pohybového rozostření sledovaných hran. Jako vhodné rozšíření byla navíc diskutována možnost za běhu mapovat nové hrany, implementována pomocí kombinace částicového fi ltru s následnou robustní optimalizací.
A key feature of a mobile robotic system is the ability to determine its exact position. Solutions using digital cameras to accomplish this task play a major role in the current research. This thesis studies the topic of vision-based localization, proposes a solution and veriffi es its characteristics in series of experiments. An annealed particle filter is used to track line segments of known 3D models. The selected method of evaluation based on control points uses just the necessary part of image data and allows e cient implementation. Real-time performance, resilience to erratic motion and partial occlusion has been achieved, allowing the system to perform motion tracking over large viewpoint changes. A mapping feature is proposed as a possible extension and implemented by combining a particle fi lter with robust optimization.