Mostra i principali dati dell'item

dc.contributor.advisorBellotti, Francesco <1972>
dc.contributor.advisorBerta, Riccardo <1974>
dc.contributor.advisorLazzaroni, Luca <1995>
dc.contributor.authorTaverna, Bruno Marco <1995>
dc.date.accessioned2021-12-30T15:07:43Z
dc.date.available2021-12-30T15:07:43Z
dc.date.issued2021-12-21
dc.identifier.urihttps://unire.unige.it/handle/123456789/4103
dc.description.abstractLo sviluppo di sistemi di guida automatica richiede il funzionamento e la verifica della loro operatività in vari scenari di guida. Uno scenario di guida è caratterizzato dalle diverse manovre di molteplici entità di traffico e viene descritto per mezzo di formati che si stanno standardizzando a livello industriale, quale per esempio Open Scenario. Per effettuare il riconoscimento degli scenari (in real-time o off-line), è necessario l’utilizzo di modelli di Machine Learning addestrati con dataset adeguati, ma ad oggi non sono disponibili pubblicamente dataset etichettati con scenari di guida automobilistica.La presente tesi rientra nello sviluppo di un sistema di generazione di dataset sintetici, basato sul simulatore Carla per la guida autonoma, contenenti videoclip etichettati con gli scenari di guida. In particolare, la tesi ha sviluppato due nuove classi di scenari (Traffic e Overtake) e ha realizzato un nuovo modello di generazione del traffico, che è stato applicato anche ai cinque scenari pre-esistenti. Il modello si basa su un algoritmo che permette di generare i veicoli nell’ambiente 3D su tutto il reticolo stradale (e non nei pochi pochi spawn-point predefiniti nelle mappe di Carla) e sfruttando l’informazione del contesto (ad esempio, il numero e la direzione delle corsie, la presenza di altri oggetti). Questa generazione a grana fine ha reso possibile la definizione di vari parametri i cui valori (o, più frequentemente, range di valori) possono essere specificati dall’utente nello script di configurazione del generatore di dataset.Questo ha permesso sia di generare molti più campioni nel dataset, sia di diminuire del 70% le situazioni di conflitto, che portavano a dover scartare manualmente il 50% dei video-clip prodotti dal sistema.Una verifica sperimentale ha dimostrato che il sistema complessivo è in grado di generare circa 800 videoclip (della durata di 4 secondi) al giorno, con una varianza che dipende dalla complessità degli stessi...it_IT
dc.description.abstractThe development of automatic driving systems requires operation and verification in various driving scenarios. A driving scenario is characterized by the different maneuvers of multiple traffic entities and is described by means of formats that are being standardized at an industrial level, such as for example Open Scenario. To carry out the recognition of scenarios (in real-time or off-line), it is necessary to use Machine Learning models trained with adequate datasets, but to date there is no public availability of datasets labeled with automotive driving scenarios.This thesis is part of the development of a synthetic dataset generation system, based on the Carla simulator for autonomous driving, containing video clips labeled with driving scenarios. In particular, the thesis developed two new classes of scenarios (Traffic and Overtake) and created a new traffic generation model, which was also applied to the five pre-existing scenario types. The model is based on an algorithm that allows to generate the vehicles in the 3D environment on the whole road network (and not in the few predefined spawn-points in Carla's maps) and exploiting the context information (for example, the number and the direction of the lanes, the presence of other objects). This fine-grained generation technique has made it possible to define various parameters whose values (or, more frequently, ranges of values) can be specified by the user in the generation script of the dataset generator. This allowed both to generate many more samples in the dataset, and to reduce conflict situations by 70%, which previously led to having to manually discard 50% of the video clips produced by the system.An experimental test has shown that the overall system is capable of generating about 800 video clips (lasting 4 seconds) per day, with a variance that depends on the complexity of the specified scenario...en_UK
dc.language.isoit
dc.rightsinfo:eu-repo/semantics/restrictedAccess
dc.titleProgettazione e realizzazione di uno strumento per la generazione di dataset sintetici per la guida autonomait_IT
dc.title.alternativeDesign and implementation of a tool for the generation of synthetic datasets for autonomous drivingen_UK
dc.typeinfo:eu-repo/semantics/masterThesis
dc.subject.miurING-INF/01 - ELETTRONICA
dc.publisher.nameUniversità degli studi di Genova
dc.date.academicyear2020/2021
dc.description.corsolaurea8732 - INGEGNERIA ELETTRONICA
dc.description.area9 - INGEGNERIA
dc.description.department100026 - DIPARTIMENTO DI INGEGNERIA NAVALE, ELETTRICA, ELETTRONICA E DELLE TELECOMUNICAZIONI


Files in questo item

Questo item appare nelle seguenti collezioni

Mostra i principali dati dell'item