L'intelligenza artificiale nell'Unione europea: il quadro normativo dell'AI Act tra gestione del rischio e sostegno all'innovazione
View/ Open
Author
Colombo, Giulio <2002>
Date
2025-10-15Data available
2025-10-23Abstract
Il presente elaborato analizza il Regolamento (UE) 2024/1689, noto come AI Act, che segna il primo tentativo a livello globale di introdurre una disciplina organica e vincolante sull’intelligenza artificiale. L’Unione europea, confrontandosi con una tecnologia in costante evoluzione e dalle profonde implicazioni etiche e sociali, ha perseguito l’obiettivo di delineare un quadro normativo unitario, capace di coniugare tutela dei diritti fondamentali e promozione dell’innovazione. L’analisi espone il funzionamento e gli elementi principali della disciplina contenuta nell’AI Act. Elemento cardine è l’approccio basato sul rischio, che impone requisiti e misure differenziati in funzione del livello di pericolosità dei sistemi di IA per la salute, la sicurezza e i diritti delle persone. Accanto agli obblighi, il regolamento introduce strumenti di sostegno all’innovazione, tra cui le regulatory sandboxes, ambienti sperimentali che consentono di testare nuove soluzioni in un contesto controllato, favorendo al tempo stesso lo sviluppo tecnologico e l’adattamento della normativa. L’attuazione è affidata a un sistema di governance multilivello che combina autorità nazionali di vigilanza e notifica con organi europei, come l’Ufficio per l’IA e il Consiglio europeo per l’IA, con l’obiettivo di garantire uniformità e coerenza applicativa, pur con alcune criticità di coordinamento. L’elaborato evidenzia come l’AI Act, nonostante le incertezze interpretative e le sfide applicative, rappresenti un solido punto di partenza per la regolamentazione dell’intelligenza artificiale, ponendo l’Unione europea in una posizione di avanguardia normativa e contribuendo a definire un equilibrio tra progresso tecnologico e tutela dei diritti fondamentali. This paper analyzes Regulation (EU) 2024/1689, known as the AI Act, which represents the first global attempt to introduce a comprehensive and binding framework for artificial intelligence. The European Union, confronted with a rapidly evolving technology with profound ethical and social implications, has aimed to establish a unified regulatory framework capable of balancing the protection of fundamental rights with the promotion of innovation. The analysis presents the functioning and key elements of the AI Act. A central feature is the risk-based approach, which imposes requirements and measures differentiated according to the level of risk posed by AI systems to health, safety, and individual rights. Alongside these obligations, the regulation introduces tools to support innovation, including regulatory sandboxes—experimental environments that allow new solutions to be tested in a controlled setting, thereby promoting technological development while enabling regulatory adaptation. Implementation is entrusted to a multi-level governance system that combines national supervisory and notification authorities with European bodies, such as the European AI Office and the European AI Board, with the goal of ensuring uniformity and consistency in application, albeit with some coordination challenges. The paper highlights how, despite interpretative uncertainties and implementation challenges, the AI Act represents a solid starting point for AI regulation, placing the European Union at the forefront of normative development and contributing to the definition of a balance between technological progress and the protection of fundamental rights.
Type
info:eu-repo/semantics/masterThesisCollections
- Laurea Magistrale [6441]