Apprendimento Federato Attento all’Equità: uno Studio Comparativo sugli Algoritmi di Mitigazione del Bias

View/ Open
Author
Gonfiantini, Leonardo <2000>
Date
2026-03-25Data available
2026-04-02Abstract
Il Federated Learning (FL) è un paradigma di apprendimento automatico distribuito che consente a più client di addestrare collaborativamente un modello condiviso mantenendo i dati memorizzati localmente, preservando così la privacy. Nonostante i suoi vantaggi, i sistemi di FL possono ereditare e amplificare i bias presenti nei dataset locali, portando potenzialmente a trattamenti ingiusti nei confronti di gruppi protetti definiti da attributi sensibili come genere, etnia o età. Tali bias possono derivare dal processo di apprendimento stesso (bias algoritmico) oppure da distribuzioni sbilanciate dei dati (bias di rappresentazione), quando alcuni gruppi sono sottorappresentati.
Questa tesi analizza entrambe le forme di bias nel FL attraverso uno studio comparativo di approcci esistenti e l’introduzione di una nuova strategia di aggregazione. Consideriamo tre metodi: FedAvg, il baseline federato standard; FairFed, un metodo di aggregazione sensibile alla fairness che mira a ridurre il bias algoritmico; e FedCvg, che affronta il bias di rappresentazione dando priorità ai client i cui dataset locali soddisfano vincoli di copertura predefiniti per i gruppi protetti. Poiché le soglie di copertura sono spesso dipendenti dal dominio e difficili da calibrare, proponiamo FedCvg-Ratio, una variante che assegna pesi di aggregazione in modo adattivo sulla base della deviazione tra le proporzioni dei gruppi protetti nei dati locali e quelle globali.
Tutti i metodi sono implementati utilizzando Flower, un framework open-source per il federated learning, e valutati sui dataset Adult e COMPAS. I risultati mostrano che il compromesso tra fairness e accuratezza non è universale: in diversi scenari, FedCvg-Ratio combinato con tecniche di debiasing locale migliora sia la fairness sia le prestazioni predittive. Complessivamente, l’integrazione di strategie di selezione dei client, come il parity sampling, e tecniche di debiasing locale con metodi di aggregazione sensibili alla fairness Federated Learning (FL) is a distributed machine learning paradigm that enables multiple
clients to collaboratively train a shared model while keeping data locally stored, thus pre-
serving privacy. Despite its advantages, FL systems can inherit and amplify biases present
in local datasets, potentially leading to unfair treatment of protected groups defined by
sensitive attributes such as gender, race, or age. Such bias may arise from the learning pro-
cess itself (algorithmic bias) or from imbalanced data distributions (representation bias),
when certain groups are underrepresented.
This thesis investigates both forms of bias in FL through a comparative study of existing
approaches and the introduction of a novel aggregation strategy. We consider three meth-
ods: FedAvg, the standard federated baseline; FairFed, a fairness-aware aggregation
method targeting algorithmic bias; and FedCvg, which addresses representation bias by
prioritizing clients whose local datasets satisfy predefined coverage constraints for protected
groups. Since coverage thresholds are often domain-dependent and difficult to calibrate,
we propose FedCvg-Ratio, a variant that adaptively assigns aggregation weights based
on the deviation between local and global protected-group ratios.
All methods are implemented using Flower, an open-source federated learning framework,
and evaluated on the Adult and COMPAS datasets. Results show that the fairness–
accuracy trade-off is not universal: in several scenarios, FedCvg-Ratio combined with
local debiasing improves both fairness and predictive performance. Overall, integrating
client selection strategies such as parity sampling and local debiasing with fairness-aware
aggregation yields the most consistent and robust fairness improvements in federated learn-
ing.
Type
info:eu-repo/semantics/masterThesisCollections
- Laurea Magistrale [7402]

