Mitigare le regressioni in accuratezza e equità dell'apprendimento automatico
View/ Open
Author
Pallares Lopez, Anna <2000>
Date
2024-10-15Data available
2024-10-17Abstract
Lo sviluppo rapido dell'Intelligenza Artificiale (AI) e del Machine Learning (ML) ha rivoluzionato molte industrie, sollevando però preoccupazioni su fiducia ed etica. Un problema chiave è la regressività, dove aggiornamenti dei modelli correggono errori passati ma peggiorano previsioni già corrette, causando una diminuzione delle prestazioni. Quando questo degrado colpisce in modo sproporzionato gruppi basati su attributi sensibili (es. genere, etnia), si genera un modello discriminatorio. Questo studio esamina l'intersezione tra regressività e ingiustizia, proponendo nuovi metodi per mitigare il problema.
Introduciamo due strategie basate su una nuova metrica di equità, "unfair regression", che misura la disparità nelle previsioni interrotte (negative flips) tra gruppi sensibili e non sensibili. La prima strategia migliora la selezione del modello usando un algoritmo di doppia validazione incrociata che considera sia l'accuratezza sia la minimizzazione dell'unfair regression. Il secondo approccio integra la metrica di unfair regression nel framework Support Vector Machine (SVM), creando l'"Unfair-Regression-Free SVM" (URFSVM), che riduce il bias durante l'addestramento. Entrambe le strategie favoriscono l'equità, assicurando che gli aggiornamenti non colpiscano in modo sproporzionato nessun gruppo.
Questo lavoro contribuisce integrando tecniche di mitigazione del bias nei sistemi ML esistenti senza compromettere le prestazioni, promuovendo lo sviluppo di tecnologie AI allineate a principi etici e diritti umani, per evitare discriminazioni basate su genere, etnia, disabilità o status sociale. The rapid development of Artificial Intelligence (AI) and Machine Learning (ML) has revolutionized industries, yet raised concerns about trustworthiness and ethics. A key issue is regressiveness, where new model updates correct past errors but disrupt already-correct predictions, leading to a drop in performance. When this performance degradation disproportionately affects certain groups based on sensitive attributes (e.g., gender, ethnicity), it leads to unfairness. This study focuses on the intersection of regressiveness and unfairness, proposing novel methods to mitigate this issue.
We introduce two mitigation strategies based on our new fairness metric, "unfair regression," which measures the disparity in disrupted predictions (negative flips) between sensitive and non-sensitive groups. The first strategy improves the model selection process by employing a double-step cross-validation algorithm that accounts for both accuracy and unfair regression. The second approach embeds the unfair regression metric into the Support Vector Machine (SVM) framework, creating an "Unfair-Regression-Free SVM" (URFSVM) that minimizes bias during training. Both strategies reduce bias and promote fairness, ensuring that updates do not disproportionately impact any group.
This research contributes by integrating bias mitigation techniques into existing ML systems without sacrificing performance. It promotes the development of AI technologies that align with ethical principles and human rights, aiming to prevent discrimination based on gender, ethnicity, disabilities, or social status.
Type
info:eu-repo/semantics/masterThesisCollections
- Laurea Magistrale [5096]