Visual SLAM basato su omni-camera per Rover Marziani
Mostra/ Apri
Autore
Lapolla, Marco <1996>
Data
2020-10-27Disponibile dal
2020-11-05Abstract
Il rover per l'esplorazione planetaria dovrebbe essere in grado di operare con un livello di autonomia molto elevato, soprattutto in situazioni in cui deve viaggiare per lunghi percorsi con la minima supervisione umana.
I sistemi di visione hanno dimostrato di essere metodi di misurazione del rilevamento del movimento affidabili e precisi. Un metodo che al giorno d'oggi non è stato ampiamente studiato è l'odometria visiva con telecamera omnidirezionale. Questo metodo mitiga problemi come le occlusioni e ha anche la possibilità di ricostruire l'ambiente circostante del rover a 360 °.
Grazie alle tecniche vSLAM (visual Simultaneous Localization and Mapping), un rover è in grado di ricostruire una mappa coerente dell'ambiente e di localizzarsi con riferimento a questa mappa.
Questa tesi tratta principalmente il problema della localizzazione di un rover rispetto alle coordinate di un frame locale, ignorando completamente il compito di localizzazione assoluto, che può essere altrettanto importante e impegnativo.
Tra tutti gli algoritmi vSLAM, ORB-SLAM2 è stato scelto e adattato per questa applicazione, che si basa sulle feature ORB (Oriented FAST e rotated BRIEF). La struttura complessiva del framework è stata modificata per funzionare con la particolare geometria della telecamera ed è stata aggiunta la ricostruzione 3D densa per costruire un pointcloud.
Inoltre, è stato implementato un algoritmo di sensor fusion per fondere l'odometria visiva con altre fonti di informazione, come l'odometria inerziale (basata su giroscopio) e l'odometria meccanica (basata su encoder sulle ruote).
La tesi è stata sviluppata in collaborazione con Thales Alenia Space Italia al fine di integrare l'algoritmo sviluppato all'interno del loro framework e testarlo con un rover Adept MobileRobots Seekur Jr. e una omnicamera PointGrey Ladybug 3 all'interno della struttura del banco di prova che emula il terreno marziano, a Torino. Rover for planetary exploration should be capable of operating with a very high level of autonomy, especially in situations where it has to travel for long paths with minimal human supervision.
Vision systems have demonstrated to be reliable and accurate motion tracking measurement methods. One method that nowadays has not been investigated widely, is Visual Odometry with omnidirectional camera. This method mitigates problems such as occlusions and also have the opportunity to reconstruct the surroundings of the rover at 360°.
Thanks to vSLAM (visual Simultaneous Localization and Mapping) techniques, a rover is able to reconstruct a consistent map of the environment and to localize itself with reference to this map.
This thesis mainly treats the problem of localizing a rover with respect to a local frame coordinates, ignoring completely the absolute localisation task, which can be equally important and challenging.
Among all the vSLAM algorithms, ORB-SLAM2 has been chosen and adapted for this application, which is based on ORB (Oriented FAST and rotated BRIEF) features. The overall structure of the framework has been changed in order to work with the particular camera's geometry, and the 3D dense reconstruction has been added to construct a point-cloud, which will be used to construct the traversability map and apply path planning algorithms.
Moreover, a sensor fusion algorithm has been implemented to merge the Visual Odometry with other sources of information, such as Inertial Odometry (based on gyroscope) and Mechanical Odometry (based on wheel encoders).
The thesis has been developed in collaboration with Thales Alenia Space Italia in order to integrate the algorithm developed inside their framework and test it with an Adept MobileRobots Seekur Jr. rover and a PointGrey Ladybug 3 omnicamera inside the test-bed facility which emulates Martian terrain, in Turin.
Tipo
info:eu-repo/semantics/masterThesisCollezioni
- Laurea Magistrale [4954]