Mostra i principali dati dell'item

dc.contributor.advisorMadeo, Antonella <1966>
dc.contributor.authorAngeloni, Sara <2001>
dc.date.accessioned2026-02-05T14:13:36Z
dc.date.available2026-02-05T14:13:36Z
dc.date.issued2026-02-02
dc.identifier.urihttps://unire.unige.it/handle/123456789/14557
dc.description.abstractLa tesi affronta il tema dell’intelligenza artificiale come una delle principali sfide giuridiche contemporanee, analizzando il modo in cui l’automazione decisionale incide sui concetti di responsabilità, tutela dei diritti fondamentali il ruolo del diritto. L’uso crescente di sistemi di IA in ambiti sensibili, come sanità, trasporti, giustizia e pubblica amministrazione, mette in crisi le categorie giuridiche tradizionali, soprattutto quando le decisioni sono il risultato di processi algoritmici opachi e difficili da spiegare. Il lavoro si concentra in particolare sugli usi potenzialmente offensivi dell’intelligenza artificiale e sul problema dell’attribuzione della responsabilità nei casi di danno causato da sistemi autonomi. In questo contesto emerge una segmentazione della responsabilità tra sviluppatori, utilizzatori e istituzioni, che rende inadeguati gli strumenti giuridici tradizionali. Attraverso l’analisi comparata tra Stati Uniti, Unione Europea e Italia, la ricerca mette in luce approcci regolatori profondamente diversi: frammentato orientato al mercato quello statunitense, antropocentrico e basato sul rischio quello europeo, ancora incerto e incompleto quello italiano. La tesi conclude evidenziando la necessità di un diritto capace di governare l’IA, mettendo al centro la persona, riaffermando la funzione del diritto come strumento di garanzia e non di mero adattamento tecnologico.it_IT
dc.description.abstractThis thesis examines artificial intelligence has one of the most significante legal challenges of the contemporary era, focusing on how automated decision-making reshapes traditional concepts of responsibility, fundamental rights, and the role of law. The increasing use of AI systems in sensitive field such as healthcare, transportation, justice and public administration exposes the limits of existing legal frameworks, particularly when decisions are produced through opaque and difficult-to-explain algorithmic processes. The research focuses on potentially harmful uses of AI and on the problem of assigning responsibility when autonomous systems cause damage. In these cases, responsibility if often fragmented among developers, users, and public institutions, making traditional liability models inadequate. Through a comparative analysis of the United States, the European Union, and Italy, the study highlights different regulatory approaches: a fragmented, market-oriented model in the U.S.; a risk-based and human-centred framework in the EU; and a still uncertain and incomplete approach in Italy. The thesis concludes by stressing the need for a legal framework capable of governing AI while keeping human dignity and fundamental rights at it core.en_UK
dc.language.isoit
dc.language.isoit
dc.rightsinfo:eu-repo/semantics/restrictedAccess
dc.titleUso offensivo dell’intelligenza artificiale: profili di responsabilità penale negli Stati Uniti e in Italia con uno sguardo all’Unione Europeait_IT
dc.title.alternativeOffensive use of artificial intelligence: criminal liability profiles in the United States and Italy with a focus on the European Unionen_UK
dc.typeinfo:eu-repo/semantics/masterThesis
dc.subject.miurIUS/17 - DIRITTO PENALE
dc.publisher.nameUniversità degli studi di Genova
dc.date.academicyear2024/2025
dc.description.corsolaurea7995 - GIURISPRUDENZA
dc.description.area1 - GIURISPRUDENZA
dc.description.department100013 - DIPARTIMENTO DI GIURISPRUDENZA


Files in questo item

Questo item appare nelle seguenti collezioni

Mostra i principali dati dell'item