Mostra i principali dati dell'item
Tecniche di Explainable AI per classificazione di immagini
dc.contributor.advisor | Estatico, Claudio <1970> | |
dc.contributor.advisor | Benvenuto, Federico <1978> | |
dc.contributor.author | Sciacca, Enrico <1999> | |
dc.contributor.other | Enrico Ferrari | |
dc.date.accessioned | 2023-10-26T14:33:31Z | |
dc.date.available | 2023-10-26T14:33:31Z | |
dc.date.issued | 2023-10-18 | |
dc.identifier.uri | https://unire.unige.it/handle/123456789/6771 | |
dc.description.abstract | Nell'ultimo decennio, il deep learning ha trasformato il mondo del machine learning, offrendo soluzioni potenti per compiti complessi. Tuttavia, i modelli di deep learning, con i loro milioni di parametri, operano come black-box, rendendo difficile per gli esseri umani comprendere le loro decisioni. Poiché questi modelli black-box trovano applicazioni in settori ad alto rischio, c'è una crescente necessità di metodi di Explainable AI (XAI) per fornire approfondimenti sul ragionamento del modello. Questa tesi inizia esplorando la storia di XAI, classificando i metodi ed esaminando spiegazioni visive per la classificazione delle immagini. Introduce SHAP, un metodo basato sulla teoria dei giochi per spiegare le decisioni del modello, e LIME, un approccio di approssimazione del modello locale. La tesi applica questi metodi alla classificazione di immagini mediche, in particolare il dataset "ChestX-ray14", e valuta le loro prestazioni. I risultati rivelano che il modello black-box eccelle in determinate classificazioni mediche, ma richiede ulteriori miglioramenti per allinearsi alla conoscenza medica umana. Gli sforzi collaborativi tra esperti di apprendimento automatico e specialisti del settore, supportati da XAI, possono portare a modelli di intelligenza artificiale più affidabili. | it_IT |
dc.description.abstract | Over the past decade, deep learning has transformed machine learning, offering powerful solutions for complex tasks. However, deep learning models, with their millions of parameters, operate as black boxes, making it challenging for humans to understand their decisions. As these black-box models find applications in high-risk domains, there's a growing need for Explainable AI (XAI) methods to provide insights into model reasoning. This thesis begins by exploring the history of XAI, classifying methods, and examining visual explanations for image classification. It introduces SHAP, a game theory-based method for explaining model decisions, and LIME, a local model approximation approach. The thesis applies these methods to medical image classification, specifically the "ChestX-ray14" dataset, and evaluates their performance. The results reveal that the black-box model excels in certain medical classifications but requires further refinement to align with human medical knowledge. Collaborative efforts between machine learning experts and domain specialists, aided by XAI, can lead to more trustworthy AI models. | en_UK |
dc.language.iso | en | |
dc.rights | info:eu-repo/semantics/restrictedAccess | |
dc.title | Tecniche di Explainable AI per classificazione di immagini | it_IT |
dc.title.alternative | Explainable AI techniques for image classification | en_UK |
dc.type | info:eu-repo/semantics/masterThesis | |
dc.subject.miur | MAT/06 - PROBABILITÀ E STATISTICA MATEMATICA | |
dc.subject.miur | INF/01 - INFORMATICA | |
dc.publisher.name | Università degli studi di Genova | |
dc.date.academicyear | 2022/2023 | |
dc.description.corsolaurea | 9011 - MATEMATICA | |
dc.description.area | 7 - SCIENZE MAT.FIS.NAT. | |
dc.description.department | 100021 - DIPARTIMENTO DI MATEMATICA |
Files in questo item
Questo item appare nelle seguenti collezioni
-
Laurea Magistrale [5082]