Show simple item record

dc.contributor.advisorEstatico, Claudio <1970>
dc.contributor.advisorBenvenuto, Federico <1978>
dc.contributor.authorSciacca, Enrico <1999>
dc.contributor.otherEnrico Ferrari
dc.date.accessioned2023-10-26T14:33:31Z
dc.date.available2023-10-26T14:33:31Z
dc.date.issued2023-10-18
dc.identifier.urihttps://unire.unige.it/handle/123456789/6771
dc.description.abstractNell'ultimo decennio, il deep learning ha trasformato il mondo del machine learning, offrendo soluzioni potenti per compiti complessi. Tuttavia, i modelli di deep learning, con i loro milioni di parametri, operano come black-box, rendendo difficile per gli esseri umani comprendere le loro decisioni. Poiché questi modelli black-box trovano applicazioni in settori ad alto rischio, c'è una crescente necessità di metodi di Explainable AI (XAI) per fornire approfondimenti sul ragionamento del modello. Questa tesi inizia esplorando la storia di XAI, classificando i metodi ed esaminando spiegazioni visive per la classificazione delle immagini. Introduce SHAP, un metodo basato sulla teoria dei giochi per spiegare le decisioni del modello, e LIME, un approccio di approssimazione del modello locale. La tesi applica questi metodi alla classificazione di immagini mediche, in particolare il dataset "ChestX-ray14", e valuta le loro prestazioni. I risultati rivelano che il modello black-box eccelle in determinate classificazioni mediche, ma richiede ulteriori miglioramenti per allinearsi alla conoscenza medica umana. Gli sforzi collaborativi tra esperti di apprendimento automatico e specialisti del settore, supportati da XAI, possono portare a modelli di intelligenza artificiale più affidabili.it_IT
dc.description.abstractOver the past decade, deep learning has transformed machine learning, offering powerful solutions for complex tasks. However, deep learning models, with their millions of parameters, operate as black boxes, making it challenging for humans to understand their decisions. As these black-box models find applications in high-risk domains, there's a growing need for Explainable AI (XAI) methods to provide insights into model reasoning. This thesis begins by exploring the history of XAI, classifying methods, and examining visual explanations for image classification. It introduces SHAP, a game theory-based method for explaining model decisions, and LIME, a local model approximation approach. The thesis applies these methods to medical image classification, specifically the "ChestX-ray14" dataset, and evaluates their performance. The results reveal that the black-box model excels in certain medical classifications but requires further refinement to align with human medical knowledge. Collaborative efforts between machine learning experts and domain specialists, aided by XAI, can lead to more trustworthy AI models.en_UK
dc.language.isoen
dc.rightsinfo:eu-repo/semantics/restrictedAccess
dc.titleTecniche di Explainable AI per classificazione di immaginiit_IT
dc.title.alternativeExplainable AI techniques for image classificationen_UK
dc.typeinfo:eu-repo/semantics/masterThesis
dc.subject.miurMAT/06 - PROBABILITÀ E STATISTICA MATEMATICA
dc.subject.miurINF/01 - INFORMATICA
dc.publisher.nameUniversità degli studi di Genova
dc.date.academicyear2022/2023
dc.description.corsolaurea9011 - MATEMATICA
dc.description.area7 - SCIENZE MAT.FIS.NAT.
dc.description.department100021 - DIPARTIMENTO DI MATEMATICA


Files in this item

This item appears in the following Collection(s)

Show simple item record