Mostra i principali dati dell'item

dc.contributor.advisorBruzzone, Agostino <1965>
dc.contributor.advisorMongelli, Maurizio <1975>
dc.contributor.authorCappelli, Andrea <1998>
dc.contributor.otherSara Narteni
dc.contributor.otherGiacomo De Bernardi
dc.date.accessioned2023-11-02T15:18:44Z
dc.date.available2023-11-02T15:18:44Z
dc.date.issued2023-10-25
dc.identifier.urihttps://unire.unige.it/handle/123456789/6802
dc.description.abstractNel contesto dell'implementazione di reti neurali profonde in pipeline di percezione per sistemi decisionali in tempo reale, la garanzia di un loro utilizzo sicuro diventa una preoccupazione fondamentale. La sfida principale consiste nel rilevare in modo efficiente e accurato gli input che non rientrano nei confini della distribuzione di addestramento, noti come input fuori distribuzione. Questo problema si applica anche al rilevamento dei dati di input fuori distribuzione (OOD) quando si utilizzano le reti neurali profonde. Per affrontare questo problema, proponiamo una tecnica semplice ma efficace per migliorare la resilienza di vari metodi di rilevamento OOD, in particolare in scenari di cambio di etichetta. Questo miglioramento aumenta la robustezza e l'affidabilità di questi metodi, rendendoli applicabili in diverse situazioni del mondo reale. L'OoD Detection (ODD) è senza dubbio una delle sfide più cruciali che si presentano durante l'implementazione dei modelli di apprendimento automatico. Gli analisti dei dati hanno la responsabilità di garantire che i dati operativi corrispondano alla fase di addestramento e di rimanere vigili su qualsiasi cambiamento ambientale che possa compromettere i processi decisionali autonomi. L'approccio utilizzato in questa tesi affonda le sue radici nell'Intelligenza Artificiale Esplicabile (XAI), che utilizza diverse metriche per identificare le somiglianze tra i dati In-Distribution (ID) e OOD, come percepito dal modello XAI. Questo nuovo approccio non si basa su ipotesi relative alla distribuzione. Attraverso test, anche in situazioni complesse come la manutenzione preventiva, il coordinamento dei veicoli e la comunicazione digitale segreta, è stato convalidato come preciso nello scoprire e valutare la vicinanza tra formazione e condizioni operative. L'intento finale di questa strategia inclusiva è quello di superare i vari ostacoli complessi che si incontrano durante l'implementazione pratica dell'apprendimento autit_IT
dc.description.abstractIn the context of implementing Deep Neural Networks (DNNs) in perception pipelines for real-time decision-making systems, ensuring their safe usage becomes a paramount concern. The main challenge lies in detecting efficiently and accurately inputs that belong outside the boundaries of the training distribution, known as Out-of-Training-Distribution inputs. This concern also applies to the detection of Out-of-Distribution (OOD) input data when using Deep Neural Networks. To deal with this problem, we suggest a simple yet effective technique to enhance the resilience of various OOD detection methods, specifically in label change scenarios. This enhancement boosts the robustness and reliability of these methods, making them applicable in diverse real-world situations. OoD Detection (ODD) is undoubtedly one of the most crucial challenges that arise while deploying machine learning models. Data analysts are responsible for ensuring that operational data correspond to the training phase and remain vigilant to any environmental changes that may compromise autonomous decision-making processes. The approach used in this thesis is rooted in eXplainable Artificial Intelligence (XAI), which uses different metrics to identify similarities between In-Distribution (ID) and OOD data, as perceived by the XAI model. This novel approach is not reliant from assumptions relating to distribution. Through testing, including in intricate situations like preventive maintenance, vehicle coordination, and covert digital communication, it has been validated as precise in discovering and assessing the proximity between training and operational conditions. The ultimate intention of this inclusive strategy is to overcome the various complex obstacles encountered during practical implementation of machine learning.en_UK
dc.language.isoen
dc.rightsinfo:eu-repo/semantics/openAccess
dc.titleRilevamento di out-of-distribution basato su regole per la classificazione delle immaginiit_IT
dc.title.alternativeRule-based out-of-distribution detection for image classificationen_UK
dc.typeinfo:eu-repo/semantics/masterThesis
dc.subject.miurING-INF/03 - TELECOMUNICAZIONI
dc.publisher.nameUniversità degli studi di Genova
dc.date.academicyear2022/2023
dc.description.corsolaurea10728 - ENGINEERING TECHNOLOGY FOR STRATEGY (AND SECURITY)
dc.description.area9 - INGEGNERIA
dc.description.department100026 - DIPARTIMENTO DI INGEGNERIA NAVALE, ELETTRICA, ELETTRONICA E DELLE TELECOMUNICAZIONI


Files in questo item

Thumbnail

Questo item appare nelle seguenti collezioni

Mostra i principali dati dell'item