Università di Genova logo, link al sitoUniRe logo, link alla pagina iniziale
    • English
    • italiano
  • English 
    • English
    • italiano
  • Login
View Item 
  •   DSpace Home
  • Tesi
  • Tesi di Laurea
  • Laurea Magistrale
  • View Item
  •   DSpace Home
  • Tesi
  • Tesi di Laurea
  • Laurea Magistrale
  • View Item
JavaScript is disabled for your browser. Some features of this site may not work without it.

Uso offensivo dell’intelligenza artificiale: profili di responsabilità penale negli Stati Uniti e in Italia con uno sguardo all’Unione Europea

View/Open
tesi36537906.pdf (4.231Mb)
Author
Angeloni, Sara <2001>
Date
2026-02-02
Data available
2026-02-05
Abstract
La tesi affronta il tema dell’intelligenza artificiale come una delle principali sfide giuridiche contemporanee, analizzando il modo in cui l’automazione decisionale incide sui concetti di responsabilità, tutela dei diritti fondamentali il ruolo del diritto. L’uso crescente di sistemi di IA in ambiti sensibili, come sanità, trasporti, giustizia e pubblica amministrazione, mette in crisi le categorie giuridiche tradizionali, soprattutto quando le decisioni sono il risultato di processi algoritmici opachi e difficili da spiegare. Il lavoro si concentra in particolare sugli usi potenzialmente offensivi dell’intelligenza artificiale e sul problema dell’attribuzione della responsabilità nei casi di danno causato da sistemi autonomi. In questo contesto emerge una segmentazione della responsabilità tra sviluppatori, utilizzatori e istituzioni, che rende inadeguati gli strumenti giuridici tradizionali. Attraverso l’analisi comparata tra Stati Uniti, Unione Europea e Italia, la ricerca mette in luce approcci regolatori profondamente diversi: frammentato orientato al mercato quello statunitense, antropocentrico e basato sul rischio quello europeo, ancora incerto e incompleto quello italiano. La tesi conclude evidenziando la necessità di un diritto capace di governare l’IA, mettendo al centro la persona, riaffermando la funzione del diritto come strumento di garanzia e non di mero adattamento tecnologico.
 
This thesis examines artificial intelligence has one of the most significante legal challenges of the contemporary era, focusing on how automated decision-making reshapes traditional concepts of responsibility, fundamental rights, and the role of law. The increasing use of AI systems in sensitive field such as healthcare, transportation, justice and public administration exposes the limits of existing legal frameworks, particularly when decisions are produced through opaque and difficult-to-explain algorithmic processes. The research focuses on potentially harmful uses of AI and on the problem of assigning responsibility when autonomous systems cause damage. In these cases, responsibility if often fragmented among developers, users, and public institutions, making traditional liability models inadequate. Through a comparative analysis of the United States, the European Union, and Italy, the study highlights different regulatory approaches: a fragmented, market-oriented model in the U.S.; a risk-based and human-centred framework in the EU; and a still uncertain and incomplete approach in Italy. The thesis concludes by stressing the need for a legal framework capable of governing AI while keeping human dignity and fundamental rights at it core.
 
Type
info:eu-repo/semantics/masterThesis
Collections
  • Laurea Magistrale [6805]
URI
https://unire.unige.it/handle/123456789/14557
Metadata
Show full item record

UniRe - Università degli studi di Genova | Information and Contacts
 

 

All of DSpaceCommunities & Collections

My Account

Login

UniRe - Università degli studi di Genova | Information and Contacts