Università di Genova logo, link al sitoUniRe logo, link alla pagina iniziale
    • English
    • italiano
  • italiano 
    • English
    • italiano
  • Login
Mostra Item 
  •   Home
  • Tesi
  • Tesi di Laurea
  • Laurea Magistrale
  • Mostra Item
  •   Home
  • Tesi
  • Tesi di Laurea
  • Laurea Magistrale
  • Mostra Item
JavaScript is disabled for your browser. Some features of this site may not work without it.

Apprendimento Federato Attento all’Equità: uno Studio Comparativo sugli Algoritmi di Mitigazione del Bias

Thumbnail
Mostra/Apri
tesi37234903.pdf (11.92Mb)
Autore
Gonfiantini, Leonardo <2000>
Data
2026-03-25
Disponibile dal
2026-04-02
Abstract
Il Federated Learning (FL) è un paradigma di apprendimento automatico distribuito che consente a più client di addestrare collaborativamente un modello condiviso mantenendo i dati memorizzati localmente, preservando così la privacy. Nonostante i suoi vantaggi, i sistemi di FL possono ereditare e amplificare i bias presenti nei dataset locali, portando potenzialmente a trattamenti ingiusti nei confronti di gruppi protetti definiti da attributi sensibili come genere, etnia o età. Tali bias possono derivare dal processo di apprendimento stesso (bias algoritmico) oppure da distribuzioni sbilanciate dei dati (bias di rappresentazione), quando alcuni gruppi sono sottorappresentati. Questa tesi analizza entrambe le forme di bias nel FL attraverso uno studio comparativo di approcci esistenti e l’introduzione di una nuova strategia di aggregazione. Consideriamo tre metodi: FedAvg, il baseline federato standard; FairFed, un metodo di aggregazione sensibile alla fairness che mira a ridurre il bias algoritmico; e FedCvg, che affronta il bias di rappresentazione dando priorità ai client i cui dataset locali soddisfano vincoli di copertura predefiniti per i gruppi protetti. Poiché le soglie di copertura sono spesso dipendenti dal dominio e difficili da calibrare, proponiamo FedCvg-Ratio, una variante che assegna pesi di aggregazione in modo adattivo sulla base della deviazione tra le proporzioni dei gruppi protetti nei dati locali e quelle globali. Tutti i metodi sono implementati utilizzando Flower, un framework open-source per il federated learning, e valutati sui dataset Adult e COMPAS. I risultati mostrano che il compromesso tra fairness e accuratezza non è universale: in diversi scenari, FedCvg-Ratio combinato con tecniche di debiasing locale migliora sia la fairness sia le prestazioni predittive. Complessivamente, l’integrazione di strategie di selezione dei client, come il parity sampling, e tecniche di debiasing locale con metodi di aggregazione sensibili alla fairness
 
Federated Learning (FL) is a distributed machine learning paradigm that enables multiple clients to collaboratively train a shared model while keeping data locally stored, thus pre- serving privacy. Despite its advantages, FL systems can inherit and amplify biases present in local datasets, potentially leading to unfair treatment of protected groups defined by sensitive attributes such as gender, race, or age. Such bias may arise from the learning pro- cess itself (algorithmic bias) or from imbalanced data distributions (representation bias), when certain groups are underrepresented. This thesis investigates both forms of bias in FL through a comparative study of existing approaches and the introduction of a novel aggregation strategy. We consider three meth- ods: FedAvg, the standard federated baseline; FairFed, a fairness-aware aggregation method targeting algorithmic bias; and FedCvg, which addresses representation bias by prioritizing clients whose local datasets satisfy predefined coverage constraints for protected groups. Since coverage thresholds are often domain-dependent and difficult to calibrate, we propose FedCvg-Ratio, a variant that adaptively assigns aggregation weights based on the deviation between local and global protected-group ratios. All methods are implemented using Flower, an open-source federated learning framework, and evaluated on the Adult and COMPAS datasets. Results show that the fairness– accuracy trade-off is not universal: in several scenarios, FedCvg-Ratio combined with local debiasing improves both fairness and predictive performance. Overall, integrating client selection strategies such as parity sampling and local debiasing with fairness-aware aggregation yields the most consistent and robust fairness improvements in federated learn- ing.
 
Tipo
info:eu-repo/semantics/masterThesis
Collezioni
  • Laurea Magistrale [7402]
URI
https://unire.unige.it/handle/123456789/15516
Metadati
Mostra tutti i dati dell'item

UniRe - Università degli studi di Genova | Informazioni e Supporto
 

 

UniReArchivi & Collezioni

Area personale

Login

UniRe - Università degli studi di Genova | Informazioni e Supporto