Show simple item record

dc.contributor.advisorOneto, Luca <1986>
dc.contributor.authorPallares Lopez, Anna <2000>
dc.date.accessioned2024-10-17T14:24:29Z
dc.date.available2024-10-17T14:24:29Z
dc.date.issued2024-10-15
dc.identifier.urihttps://unire.unige.it/handle/123456789/9538
dc.description.abstractLo sviluppo rapido dell'Intelligenza Artificiale (AI) e del Machine Learning (ML) ha rivoluzionato molte industrie, sollevando però preoccupazioni su fiducia ed etica. Un problema chiave è la regressività, dove aggiornamenti dei modelli correggono errori passati ma peggiorano previsioni già corrette, causando una diminuzione delle prestazioni. Quando questo degrado colpisce in modo sproporzionato gruppi basati su attributi sensibili (es. genere, etnia), si genera un modello discriminatorio. Questo studio esamina l'intersezione tra regressività e ingiustizia, proponendo nuovi metodi per mitigare il problema. Introduciamo due strategie basate su una nuova metrica di equità, "unfair regression", che misura la disparità nelle previsioni interrotte (negative flips) tra gruppi sensibili e non sensibili. La prima strategia migliora la selezione del modello usando un algoritmo di doppia validazione incrociata che considera sia l'accuratezza sia la minimizzazione dell'unfair regression. Il secondo approccio integra la metrica di unfair regression nel framework Support Vector Machine (SVM), creando l'"Unfair-Regression-Free SVM" (URFSVM), che riduce il bias durante l'addestramento. Entrambe le strategie favoriscono l'equità, assicurando che gli aggiornamenti non colpiscano in modo sproporzionato nessun gruppo. Questo lavoro contribuisce integrando tecniche di mitigazione del bias nei sistemi ML esistenti senza compromettere le prestazioni, promuovendo lo sviluppo di tecnologie AI allineate a principi etici e diritti umani, per evitare discriminazioni basate su genere, etnia, disabilità o status sociale.it_IT
dc.description.abstractThe rapid development of Artificial Intelligence (AI) and Machine Learning (ML) has revolutionized industries, yet raised concerns about trustworthiness and ethics. A key issue is regressiveness, where new model updates correct past errors but disrupt already-correct predictions, leading to a drop in performance. When this performance degradation disproportionately affects certain groups based on sensitive attributes (e.g., gender, ethnicity), it leads to unfairness. This study focuses on the intersection of regressiveness and unfairness, proposing novel methods to mitigate this issue. We introduce two mitigation strategies based on our new fairness metric, "unfair regression," which measures the disparity in disrupted predictions (negative flips) between sensitive and non-sensitive groups. The first strategy improves the model selection process by employing a double-step cross-validation algorithm that accounts for both accuracy and unfair regression. The second approach embeds the unfair regression metric into the Support Vector Machine (SVM) framework, creating an "Unfair-Regression-Free SVM" (URFSVM) that minimizes bias during training. Both strategies reduce bias and promote fairness, ensuring that updates do not disproportionately impact any group. This research contributes by integrating bias mitigation techniques into existing ML systems without sacrificing performance. It promotes the development of AI technologies that align with ethical principles and human rights, aiming to prevent discrimination based on gender, ethnicity, disabilities, or social status.en_UK
dc.language.isoen
dc.rightsinfo:eu-repo/semantics/openAccess
dc.titleMitigare le regressioni in accuratezza e equità dell'apprendimento automaticoit_IT
dc.title.alternativeMitigating Regressiveness in Accuracy and Fairness in Machine Learningen_UK
dc.typeinfo:eu-repo/semantics/masterThesis
dc.subject.miurING-INF/05 - SISTEMI DI ELABORAZIONE DELLE INFORMAZIONI
dc.publisher.nameUniversità degli studi di Genova
dc.date.academicyear2023/2024
dc.description.corsolaurea11160 - COMPUTER ENGINEERING
dc.description.area9 - INGEGNERIA
dc.description.department100023 - DIPARTIMENTO DI INFORMATICA, BIOINGEGNERIA, ROBOTICA E INGEGNERIA DEI SISTEMI


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record