Università di Genova logo, link al sitoUniRe logo, link alla pagina iniziale
    • English
    • italiano
  • English 
    • English
    • italiano
  • Login
View Item 
  •   DSpace Home
  • Tesi
  • Tesi di Laurea
  • Laurea Magistrale
  • View Item
  •   DSpace Home
  • Tesi
  • Tesi di Laurea
  • Laurea Magistrale
  • View Item
JavaScript is disabled for your browser. Some features of this site may not work without it.

Sfruttare la confidenza per campione di un modello per mitigare il bias nella classificazione di immagini

View/Open
tesi31529635.pdf (10.20Mb)
Author
Shcharbitski, Aliaksandr <2000>
Date
2024-12-17
Data available
2024-12-19
Abstract
I modelli di machine learning sono diventati sempre più importanti in applicazioni in diversi domini, ma la ricorrente memorizzazione dei bias insiti nei dataset di addestramento pone sfide significative. Questi bias, spesso derivanti da dati squilibrati o non rappresentativi, possono portare a modelli che generalizzano male o che rafforzano disuguaglianze sociali. Identificare e mitigare tali bias è quindi fondamentale per costruire sistemi di intelligenza artificiale equi e affidabili. Questa tesi indaga l'identificazione dei bias nei modelli di machine learning attraverso due metodologie innovative: le Reti Neurali Bayesiane (BNN) e il Confidence Learning. Il primo metodo utilizza le capacità di quantificazione dell'incertezza delle BNN per identificare i campioni in conflitto di bias nei dataset. Il secondo metodo, il Confidence Learning, sfrutta le dinamiche della perdita per campione per isolare i campioni in conflitto di bias durante l'addestramento. Propagando selettivamente i gradienti dai campioni a bassa perdita e allineati al bias, questo metodo previene l'overfitting e facilita la costruzione di modelli robusti utilizzando l'ottimizzazione robusta basata sulla distribuzione di gruppo. I risultati sperimentali su dataset con bias dimostrano la superiore stabilità e prestazioni del Confidence Learning rispetto ai metodi basati sull'incertezza.
 
Machine learning models have become increasingly important in applications across diverse domains, but recurring memorization of biases inherent in training datasets poses significant challenges. These biases, often coming out of imbalanced or unrepresentative data, can lead to models that generalize poorly or reinforce societal inequalities. Identifying and mitigating such biases is therefore critical to building fair and reliable AI systems. This thesis investigates bias identification in machine learning models through two novel methodologies: Bayesian Neural Networks (BNNs) and Confidence Learning. The first method utilizes BNNs’ uncertainty quantification capabilities to identify bias-conflicting samples in datasets. The second, Confidence Learning, is leveraging per-sample loss dynamics to isolate bias-conflicting samples during training. By selectively propagating gradients from low-loss, bias-aligned samples, this method prevents overfitting and facilitates following construction of robust models using Group Distributionally Robust Optimization. Experimental results on biased datasets demonstrate the superior stability and performance of Confidence Learning compared to uncertainty-based methods.
 
Type
info:eu-repo/semantics/masterThesis
Collections
  • Laurea Magistrale [5683]
URI
https://unire.unige.it/handle/123456789/10622
Metadata
Show full item record

UniRe - Università degli studi di Genova | Contact Us
 

 

All of DSpaceCommunities & Collections

My Account

Login

UniRe - Università degli studi di Genova | Contact Us