| dc.contributor.advisor | Madeo, Antonella <1966> | |
| dc.contributor.author | Angeloni, Sara <2001> | |
| dc.date.accessioned | 2026-02-05T14:13:36Z | |
| dc.date.available | 2026-02-05T14:13:36Z | |
| dc.date.issued | 2026-02-02 | |
| dc.identifier.uri | https://unire.unige.it/handle/123456789/14557 | |
| dc.description.abstract | La tesi affronta il tema dell’intelligenza artificiale come una delle principali sfide giuridiche contemporanee, analizzando il modo in cui l’automazione decisionale incide sui concetti di responsabilità, tutela dei diritti fondamentali il ruolo del diritto. L’uso crescente di sistemi di IA in ambiti sensibili, come sanità, trasporti, giustizia e pubblica amministrazione, mette in crisi le categorie giuridiche tradizionali, soprattutto quando le decisioni sono il risultato di processi algoritmici opachi e difficili da spiegare.
Il lavoro si concentra in particolare sugli usi potenzialmente offensivi dell’intelligenza artificiale e sul problema dell’attribuzione della responsabilità nei casi di danno causato da sistemi autonomi. In questo contesto emerge una segmentazione della responsabilità tra sviluppatori, utilizzatori e istituzioni, che rende inadeguati gli strumenti giuridici tradizionali.
Attraverso l’analisi comparata tra Stati Uniti, Unione Europea e Italia, la ricerca mette in luce approcci regolatori profondamente diversi: frammentato orientato al mercato quello statunitense, antropocentrico e basato sul rischio quello europeo, ancora incerto e incompleto quello italiano. La tesi conclude evidenziando la necessità di un diritto capace di governare l’IA, mettendo al centro la persona, riaffermando la funzione del diritto come strumento di garanzia e non di mero adattamento tecnologico. | it_IT |
| dc.description.abstract | This thesis examines artificial intelligence has one of the most significante legal challenges of the contemporary era, focusing on how automated decision-making reshapes traditional concepts of responsibility, fundamental rights, and the role of law. The increasing use of AI systems in sensitive field such as healthcare, transportation, justice and public administration exposes the limits of existing legal frameworks, particularly when decisions are produced through opaque and difficult-to-explain algorithmic processes.
The research focuses on potentially harmful uses of AI and on the problem of assigning responsibility when autonomous systems cause damage. In these cases, responsibility if often fragmented among developers, users, and public institutions, making traditional liability models inadequate.
Through a comparative analysis of the United States, the European Union, and Italy, the study highlights different regulatory approaches: a fragmented, market-oriented model in the U.S.; a risk-based and human-centred framework in the EU; and a still uncertain and incomplete approach in Italy.
The thesis concludes by stressing the need for a legal framework capable of governing AI while keeping human dignity and fundamental rights at it core. | en_UK |
| dc.language.iso | it | |
| dc.language.iso | it | |
| dc.rights | info:eu-repo/semantics/restrictedAccess | |
| dc.title | Uso offensivo dell’intelligenza artificiale: profili di responsabilità penale negli Stati Uniti e in Italia con uno sguardo all’Unione Europea | it_IT |
| dc.title.alternative | Offensive use of artificial intelligence: criminal liability profiles in the United States and Italy with a focus on the European Union | en_UK |
| dc.type | info:eu-repo/semantics/masterThesis | |
| dc.subject.miur | IUS/17 - DIRITTO PENALE | |
| dc.publisher.name | Università degli studi di Genova | |
| dc.date.academicyear | 2024/2025 | |
| dc.description.corsolaurea | 7995 - GIURISPRUDENZA | |
| dc.description.area | 1 - GIURISPRUDENZA | |
| dc.description.department | 100013 - DIPARTIMENTO DI GIURISPRUDENZA | |