Show simple item record

dc.contributor.advisorPastore, Vito Paolo <1989>
dc.contributor.advisorNoceti, Nicoletta <1979>
dc.contributor.authorShcharbitski, Aliaksandr <2000>
dc.contributor.otherVittorio Murino
dc.date.accessioned2024-12-19T15:13:18Z
dc.date.available2024-12-19T15:13:18Z
dc.date.issued2024-12-17
dc.identifier.urihttps://unire.unige.it/handle/123456789/10622
dc.description.abstractI modelli di machine learning sono diventati sempre più importanti in applicazioni in diversi domini, ma la ricorrente memorizzazione dei bias insiti nei dataset di addestramento pone sfide significative. Questi bias, spesso derivanti da dati squilibrati o non rappresentativi, possono portare a modelli che generalizzano male o che rafforzano disuguaglianze sociali. Identificare e mitigare tali bias è quindi fondamentale per costruire sistemi di intelligenza artificiale equi e affidabili. Questa tesi indaga l'identificazione dei bias nei modelli di machine learning attraverso due metodologie innovative: le Reti Neurali Bayesiane (BNN) e il Confidence Learning. Il primo metodo utilizza le capacità di quantificazione dell'incertezza delle BNN per identificare i campioni in conflitto di bias nei dataset. Il secondo metodo, il Confidence Learning, sfrutta le dinamiche della perdita per campione per isolare i campioni in conflitto di bias durante l'addestramento. Propagando selettivamente i gradienti dai campioni a bassa perdita e allineati al bias, questo metodo previene l'overfitting e facilita la costruzione di modelli robusti utilizzando l'ottimizzazione robusta basata sulla distribuzione di gruppo. I risultati sperimentali su dataset con bias dimostrano la superiore stabilità e prestazioni del Confidence Learning rispetto ai metodi basati sull'incertezza.it_IT
dc.description.abstractMachine learning models have become increasingly important in applications across diverse domains, but recurring memorization of biases inherent in training datasets poses significant challenges. These biases, often coming out of imbalanced or unrepresentative data, can lead to models that generalize poorly or reinforce societal inequalities. Identifying and mitigating such biases is therefore critical to building fair and reliable AI systems. This thesis investigates bias identification in machine learning models through two novel methodologies: Bayesian Neural Networks (BNNs) and Confidence Learning. The first method utilizes BNNs’ uncertainty quantification capabilities to identify bias-conflicting samples in datasets. The second, Confidence Learning, is leveraging per-sample loss dynamics to isolate bias-conflicting samples during training. By selectively propagating gradients from low-loss, bias-aligned samples, this method prevents overfitting and facilitates following construction of robust models using Group Distributionally Robust Optimization. Experimental results on biased datasets demonstrate the superior stability and performance of Confidence Learning compared to uncertainty-based methods.en_UK
dc.language.isoen
dc.rightsinfo:eu-repo/semantics/restrictedAccess
dc.titleSfruttare la confidenza per campione di un modello per mitigare il bias nella classificazione di immaginiit_IT
dc.title.alternativeExploiting per-sample model confidence for bias mitigation in image classificationen_UK
dc.typeinfo:eu-repo/semantics/masterThesis
dc.subject.miurINF/01 - INFORMATICA
dc.subject.miurINF/01 - INFORMATICA
dc.publisher.nameUniversità degli studi di Genova
dc.date.academicyear2023/2024
dc.description.corsolaurea10852 - COMPUTER SCIENCE
dc.description.area7 - SCIENZE MAT.FIS.NAT.
dc.description.department100023 - DIPARTIMENTO DI INFORMATICA, BIOINGEGNERIA, ROBOTICA E INGEGNERIA DEI SISTEMI


Files in this item

This item appears in the following Collection(s)

Show simple item record