Show simple item record

dc.contributor.advisorSolari, Fabio <1967>
dc.contributor.authorLapolla, Marco <1996>
dc.contributor.otherAndrea Merlo
dc.date.accessioned2020-11-05T15:05:25Z
dc.date.available2020-11-05T15:05:25Z
dc.date.issued2020-10-27
dc.identifier.urihttps://unire.unige.it/handle/123456789/3253
dc.description.abstractIl rover per l'esplorazione planetaria dovrebbe essere in grado di operare con un livello di autonomia molto elevato, soprattutto in situazioni in cui deve viaggiare per lunghi percorsi con la minima supervisione umana. I sistemi di visione hanno dimostrato di essere metodi di misurazione del rilevamento del movimento affidabili e precisi. Un metodo che al giorno d'oggi non è stato ampiamente studiato è l'odometria visiva con telecamera omnidirezionale. Questo metodo mitiga problemi come le occlusioni e ha anche la possibilità di ricostruire l'ambiente circostante del rover a 360 °. Grazie alle tecniche vSLAM (visual Simultaneous Localization and Mapping), un rover è in grado di ricostruire una mappa coerente dell'ambiente e di localizzarsi con riferimento a questa mappa. Questa tesi tratta principalmente il problema della localizzazione di un rover rispetto alle coordinate di un frame locale, ignorando completamente il compito di localizzazione assoluto, che può essere altrettanto importante e impegnativo. Tra tutti gli algoritmi vSLAM, ORB-SLAM2 è stato scelto e adattato per questa applicazione, che si basa sulle feature ORB (Oriented FAST e rotated BRIEF). La struttura complessiva del framework è stata modificata per funzionare con la particolare geometria della telecamera ed è stata aggiunta la ricostruzione 3D densa per costruire un pointcloud. Inoltre, è stato implementato un algoritmo di sensor fusion per fondere l'odometria visiva con altre fonti di informazione, come l'odometria inerziale (basata su giroscopio) e l'odometria meccanica (basata su encoder sulle ruote). La tesi è stata sviluppata in collaborazione con Thales Alenia Space Italia al fine di integrare l'algoritmo sviluppato all'interno del loro framework e testarlo con un rover Adept MobileRobots Seekur Jr. e una omnicamera PointGrey Ladybug 3 all'interno della struttura del banco di prova che emula il terreno marziano, a Torino.it_IT
dc.description.abstractRover for planetary exploration should be capable of operating with a very high level of autonomy, especially in situations where it has to travel for long paths with minimal human supervision. Vision systems have demonstrated to be reliable and accurate motion tracking measurement methods. One method that nowadays has not been investigated widely, is Visual Odometry with omnidirectional camera. This method mitigates problems such as occlusions and also have the opportunity to reconstruct the surroundings of the rover at 360°. Thanks to vSLAM (visual Simultaneous Localization and Mapping) techniques, a rover is able to reconstruct a consistent map of the environment and to localize itself with reference to this map. This thesis mainly treats the problem of localizing a rover with respect to a local frame coordinates, ignoring completely the absolute localisation task, which can be equally important and challenging. Among all the vSLAM algorithms, ORB-SLAM2 has been chosen and adapted for this application, which is based on ORB (Oriented FAST and rotated BRIEF) features. The overall structure of the framework has been changed in order to work with the particular camera's geometry, and the 3D dense reconstruction has been added to construct a point-cloud, which will be used to construct the traversability map and apply path planning algorithms. Moreover, a sensor fusion algorithm has been implemented to merge the Visual Odometry with other sources of information, such as Inertial Odometry (based on gyroscope) and Mechanical Odometry (based on wheel encoders). The thesis has been developed in collaboration with Thales Alenia Space Italia in order to integrate the algorithm developed inside their framework and test it with an Adept MobileRobots Seekur Jr. rover and a PointGrey Ladybug 3 omnicamera inside the test-bed facility which emulates Martian terrain, in Turin.en_UK
dc.language.isoen
dc.rightsinfo:eu-repo/semantics/openAccess
dc.titleVisual SLAM basato su omni-camera per Rover Marzianiit_IT
dc.title.alternativeOmni-camera based visual SLAM for Martian Roveren_UK
dc.typeinfo:eu-repo/semantics/masterThesis
dc.subject.miurINF/01 - INFORMATICA
dc.subject.miurING-INF/04 - AUTOMATICA
dc.publisher.nameUniversità degli studi di Genova
dc.date.academicyear2019/2020
dc.description.corsolaurea10635 - ROBOTICS ENGINEERING
dc.description.area9 - INGEGNERIA
dc.description.department100023 - DIPARTIMENTO DI INFORMATICA, BIOINGEGNERIA, ROBOTICA E INGEGNERIA DEI SISTEMI


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record