Tecniche di Explainable AI per classificazione di immagini
Mostra/ Apri
Autore
Sciacca, Enrico <1999>
Data
2023-10-18Disponibile dal
2023-10-26Abstract
Nell'ultimo decennio, il deep learning ha trasformato il mondo del machine learning, offrendo soluzioni potenti per compiti complessi. Tuttavia, i modelli di deep learning, con i loro milioni di parametri, operano come black-box, rendendo difficile per gli esseri umani comprendere le loro decisioni. Poiché questi modelli black-box trovano applicazioni in settori ad alto rischio, c'è una crescente necessità di metodi di Explainable AI (XAI) per fornire approfondimenti sul ragionamento del modello.
Questa tesi inizia esplorando la storia di XAI, classificando i metodi ed esaminando spiegazioni visive per la classificazione delle immagini. Introduce SHAP, un metodo basato sulla teoria dei giochi per spiegare le decisioni del modello, e LIME, un approccio di approssimazione del modello locale. La tesi applica questi metodi alla classificazione di immagini mediche, in particolare il dataset "ChestX-ray14", e valuta le loro prestazioni.
I risultati rivelano che il modello black-box eccelle in determinate classificazioni mediche, ma richiede ulteriori miglioramenti per allinearsi alla conoscenza medica umana. Gli sforzi collaborativi tra esperti di apprendimento automatico e specialisti del settore, supportati da XAI, possono portare a modelli di intelligenza artificiale più affidabili. Over the past decade, deep learning has transformed machine learning, offering powerful solutions for complex tasks. However, deep learning models, with their millions of parameters, operate as black boxes, making it challenging for humans to understand their decisions. As these black-box models find applications in high-risk domains, there's a growing need for Explainable AI (XAI) methods to provide insights into model reasoning.
This thesis begins by exploring the history of XAI, classifying methods, and examining visual explanations for image classification. It introduces SHAP, a game theory-based method for explaining model decisions, and LIME, a local model approximation approach. The thesis applies these methods to medical image classification, specifically the "ChestX-ray14" dataset, and evaluates their performance.
The results reveal that the black-box model excels in certain medical classifications but requires further refinement to align with human medical knowledge. Collaborative efforts between machine learning experts and domain specialists, aided by XAI, can lead to more trustworthy AI models.
Tipo
info:eu-repo/semantics/masterThesisCollezioni
- Laurea Magistrale [5076]