Mostra i principali dati dell'item
IA in medicina: un'analisi della trasparenza degli algoritmi predittivi clinici
dc.contributor.advisor | Porello, Daniele <1977> | |
dc.contributor.advisor | Amoretti, Maria Cristina <1978> | |
dc.contributor.author | D'Alessandro, Carolina <2000> | |
dc.date.accessioned | 2024-11-14T15:16:53Z | |
dc.date.available | 2024-11-14T15:16:53Z | |
dc.date.issued | 2024-11-12 | |
dc.identifier.uri | https://unire.unige.it/handle/123456789/10235 | |
dc.description.abstract | L'Intelligenza Artificiale ha trasformato se stessa e le nostre vite, diventando parte integrante di settori come la medicina, dove ha un impatto diretto sulla salute delle persone. Per questo motivo, è essenziale comprendere come funziona, affinché i sistemi siano non solo accurati ma anche spiegabili, supportando i medici nel promuovere la salute umana e permettendo ai pazienti di esercitare il loro diritto alla spiegazione. Il Machine Learning, essendo creato dall’uomo e basato su dati umani, non è neutrale e può essere soggetto a errori. Potrebbe, infatti, perpetuare pregiudizi e bias, aumentando potenzialmente la discriminazione e limitando l'accesso alle cure per le minoranze. Questo lavoro affronta tali questioni, concentrandosi sul concetto di IA affidabile attraverso l'analisi del ruolo della trasparenza in questo campo, dove la vera innovazione può avvenire solo se nessuno viene lasciato indietro. | it_IT |
dc.description.abstract | Artificial Intelligence has transformed itself and our lives, becoming integral to sectors like medicine, where it directly impacts people’s health. For this reason, it is essential to understand how it operates to ensure systems are not only accurate but also explainable, supporting clinicians in promoting human health and enabling patients to exercise their right to explanation. Machine Learning, being human-created and based on human data, is not neutral and is prone to errors. It may inadvertently perpetuate biases and prejudices, potentially increasing discrimination and limiting healthcare access for minorities. This work addresses these concerns, focusing on the concept of trustworthy AI by examining the role of transparency in this field, where true innovation can happen just if nobody is left behind. | en_UK |
dc.language.iso | it | |
dc.rights | info:eu-repo/semantics/openAccess | |
dc.title | IA in medicina: un'analisi della trasparenza degli algoritmi predittivi clinici | it_IT |
dc.title.alternative | AI in medicine: an analysis of clinical predictive algorithms' transparency | en_UK |
dc.type | info:eu-repo/semantics/masterThesis | |
dc.subject.miur | M-FIL/02 - LOGICA E FILOSOFIA DELLA SCIENZA | |
dc.publisher.name | Università degli studi di Genova | |
dc.date.academicyear | 2023/2024 | |
dc.description.corsolaurea | 8465 - METODOLOGIE FILOSOFICHE | |
dc.description.area | 4 - LETTERE E FILOSOFIA | |
dc.description.department | 100016 - DIPARTIMENTO DI ANTICHITÀ, FILOSOFIA E STORIA |
Files in questo item
Questo item appare nelle seguenti collezioni
-
Laurea Magistrale [4794]