dc.contributor.advisor | Pastore, Vito Paolo <1989> | |
dc.contributor.advisor | Noceti, Nicoletta <1979> | |
dc.contributor.author | Shcharbitski, Aliaksandr <2000> | |
dc.contributor.other | Vittorio Murino | |
dc.date.accessioned | 2024-12-19T15:13:18Z | |
dc.date.available | 2024-12-19T15:13:18Z | |
dc.date.issued | 2024-12-17 | |
dc.identifier.uri | https://unire.unige.it/handle/123456789/10622 | |
dc.description.abstract | I modelli di machine learning sono diventati sempre più importanti in applicazioni in diversi domini, ma la ricorrente memorizzazione dei bias insiti nei dataset di addestramento pone sfide significative. Questi bias, spesso derivanti da dati squilibrati o non rappresentativi, possono portare a modelli che generalizzano male o che rafforzano disuguaglianze sociali. Identificare e mitigare tali bias è quindi fondamentale per costruire sistemi di intelligenza artificiale equi e affidabili.
Questa tesi indaga l'identificazione dei bias nei modelli di machine learning attraverso due metodologie innovative: le Reti Neurali Bayesiane (BNN) e il Confidence Learning. Il primo metodo utilizza le capacità di quantificazione dell'incertezza delle BNN per identificare i campioni in conflitto di bias nei dataset. Il secondo metodo, il Confidence Learning, sfrutta le dinamiche della perdita per campione per isolare i campioni in conflitto di bias durante l'addestramento. Propagando selettivamente i gradienti dai campioni a bassa perdita e allineati al bias, questo metodo previene l'overfitting e facilita la costruzione di modelli robusti utilizzando l'ottimizzazione robusta basata sulla distribuzione di gruppo. I risultati sperimentali su dataset con bias dimostrano la superiore stabilità e prestazioni del Confidence Learning rispetto ai metodi basati sull'incertezza. | it_IT |
dc.description.abstract | Machine learning models have become increasingly important in applications across diverse domains, but recurring memorization of biases inherent in training datasets poses significant challenges. These biases, often coming out of imbalanced or unrepresentative data, can lead to models that generalize poorly or reinforce societal inequalities. Identifying and mitigating such biases is therefore critical to building fair and reliable AI systems.
This thesis investigates bias identification in machine learning models through two novel methodologies: Bayesian Neural Networks (BNNs) and Confidence Learning. The first method utilizes BNNs’ uncertainty quantification capabilities to identify bias-conflicting samples in datasets. The second, Confidence Learning, is leveraging per-sample loss dynamics to isolate bias-conflicting samples during training. By selectively propagating gradients from low-loss, bias-aligned samples, this method prevents overfitting and facilitates following construction of robust models using Group Distributionally Robust Optimization. Experimental results on biased datasets demonstrate the superior stability and performance of Confidence Learning compared to uncertainty-based methods. | en_UK |
dc.language.iso | en | |
dc.rights | info:eu-repo/semantics/restrictedAccess | |
dc.title | Sfruttare la confidenza per campione di un modello per mitigare il bias nella classificazione di immagini | it_IT |
dc.title.alternative | Exploiting per-sample model confidence for bias mitigation in image classification | en_UK |
dc.type | info:eu-repo/semantics/masterThesis | |
dc.subject.miur | INF/01 - INFORMATICA | |
dc.subject.miur | INF/01 - INFORMATICA | |
dc.publisher.name | Università degli studi di Genova | |
dc.date.academicyear | 2023/2024 | |
dc.description.corsolaurea | 10852 - COMPUTER SCIENCE | |
dc.description.area | 7 - SCIENZE MAT.FIS.NAT. | |
dc.description.department | 100023 - DIPARTIMENTO DI INFORMATICA, BIOINGEGNERIA, ROBOTICA E INGEGNERIA DEI SISTEMI | |