Università di Genova logo, link al sitoUniRe logo, link alla pagina iniziale
    • English
    • italiano
  • English 
    • English
    • italiano
  • Login
View Item 
  •   DSpace Home
  • Tesi
  • Tesi di Laurea
  • Laurea Magistrale
  • View Item
  •   DSpace Home
  • Tesi
  • Tesi di Laurea
  • Laurea Magistrale
  • View Item
JavaScript is disabled for your browser. Some features of this site may not work without it.

Apprendimento Federato Attento all’Equità: uno Studio Comparativo sugli Algoritmi di Mitigazione del Bias

Thumbnail
View/Open
tesi37234903.pdf (11.92Mb)
Author
Gonfiantini, Leonardo <2000>
Date
2026-03-25
Data available
2026-04-02
Abstract
Il Federated Learning (FL) è un paradigma di apprendimento automatico distribuito che consente a più client di addestrare collaborativamente un modello condiviso mantenendo i dati memorizzati localmente, preservando così la privacy. Nonostante i suoi vantaggi, i sistemi di FL possono ereditare e amplificare i bias presenti nei dataset locali, portando potenzialmente a trattamenti ingiusti nei confronti di gruppi protetti definiti da attributi sensibili come genere, etnia o età. Tali bias possono derivare dal processo di apprendimento stesso (bias algoritmico) oppure da distribuzioni sbilanciate dei dati (bias di rappresentazione), quando alcuni gruppi sono sottorappresentati. Questa tesi analizza entrambe le forme di bias nel FL attraverso uno studio comparativo di approcci esistenti e l’introduzione di una nuova strategia di aggregazione. Consideriamo tre metodi: FedAvg, il baseline federato standard; FairFed, un metodo di aggregazione sensibile alla fairness che mira a ridurre il bias algoritmico; e FedCvg, che affronta il bias di rappresentazione dando priorità ai client i cui dataset locali soddisfano vincoli di copertura predefiniti per i gruppi protetti. Poiché le soglie di copertura sono spesso dipendenti dal dominio e difficili da calibrare, proponiamo FedCvg-Ratio, una variante che assegna pesi di aggregazione in modo adattivo sulla base della deviazione tra le proporzioni dei gruppi protetti nei dati locali e quelle globali. Tutti i metodi sono implementati utilizzando Flower, un framework open-source per il federated learning, e valutati sui dataset Adult e COMPAS. I risultati mostrano che il compromesso tra fairness e accuratezza non è universale: in diversi scenari, FedCvg-Ratio combinato con tecniche di debiasing locale migliora sia la fairness sia le prestazioni predittive. Complessivamente, l’integrazione di strategie di selezione dei client, come il parity sampling, e tecniche di debiasing locale con metodi di aggregazione sensibili alla fairness
 
Federated Learning (FL) is a distributed machine learning paradigm that enables multiple clients to collaboratively train a shared model while keeping data locally stored, thus pre- serving privacy. Despite its advantages, FL systems can inherit and amplify biases present in local datasets, potentially leading to unfair treatment of protected groups defined by sensitive attributes such as gender, race, or age. Such bias may arise from the learning pro- cess itself (algorithmic bias) or from imbalanced data distributions (representation bias), when certain groups are underrepresented. This thesis investigates both forms of bias in FL through a comparative study of existing approaches and the introduction of a novel aggregation strategy. We consider three meth- ods: FedAvg, the standard federated baseline; FairFed, a fairness-aware aggregation method targeting algorithmic bias; and FedCvg, which addresses representation bias by prioritizing clients whose local datasets satisfy predefined coverage constraints for protected groups. Since coverage thresholds are often domain-dependent and difficult to calibrate, we propose FedCvg-Ratio, a variant that adaptively assigns aggregation weights based on the deviation between local and global protected-group ratios. All methods are implemented using Flower, an open-source federated learning framework, and evaluated on the Adult and COMPAS datasets. Results show that the fairness– accuracy trade-off is not universal: in several scenarios, FedCvg-Ratio combined with local debiasing improves both fairness and predictive performance. Overall, integrating client selection strategies such as parity sampling and local debiasing with fairness-aware aggregation yields the most consistent and robust fairness improvements in federated learn- ing.
 
Type
info:eu-repo/semantics/masterThesis
Collections
  • Laurea Magistrale [7402]
URI
https://unire.unige.it/handle/123456789/15516
Metadata
Show full item record

UniRe - Università degli studi di Genova | Information and Contacts
 

 

All of DSpaceCommunities & Collections

My Account

Login

UniRe - Università degli studi di Genova | Information and Contacts