Sviluppo e gestione sicura di modelli di intelligenza artificiale
Mostra/ Apri
Autore
Simonelli, Federico <2001>
Data
2023-09-15Disponibile dal
2023-09-21Abstract
L'Intelligenza Artificiale sta emergendo velocemente, inserendosi nei contesti aziendali in ormai ogni settore, interfacciandosi anche con quelli più critici. Risulta perciò necessario un cambiamento di paradigma, passando da DevOps, utilizzato per il software tradizionale, a MLOps, un insieme di pratiche necessarie per mettere in produzione i modelli di AI. E' inoltre fondamentale che ci si possa fidare, a livello di output, di tali sistemi. Sono perciò necessarie delle garanzie in termini di sicurezza, che si traduce in resistenza alle manipolazioni da parte di un attaccante. Questo non è solamente un problema tecnico, ma anche normativo; nasce in questo contesto una proposta di legge, l’ European Union Artificial Intelligence Act, che classifica i sistemi di ML sulla base del rischio e prevede determinati standard di sviluppo per garantire un’applicazione sicura all’utente finale. Per raggiungere questo scopo, l’elaborato di tesi si conclude con la creazione di un blocco MLOps, che si inserisce all’interno della pipeline di sviluppo di un modello ML, il cui scopo è valutare la robustezza del modello alle perturbazioni. Tale componente è una dashboard che, scelta una configurazione di attacco, presenta un’analisi della sicurezza. Artificial Intelligence as digital technology is rapidly burgeoning, integrating itself into virtually every corporate context, including those of critical significance. Consequently, a paradigm shift is imperative, transitioning from DevOps, traditionally employed for conventional software, to MLOps, a collection of essential practices for deploying AI models. Equally important is the establishment of trustworthiness with respect to the system’s outputs. Hence, security assurances are necessary, manifesting as necessity to defend against malicious actors’ tampering. This predicament extends beyond technical considerations, venturing into the realm of regulatory concerns. In this context, the European Union Artificial Intelligence Act has been proposed, classifying ML systems based on risk and stipulating specific development standards to ensure safe end-user applications. To achieve this objective, this thesis culminates in the creation of an MLOps block integrated into a ML model development pipeline. Its primary purpose is to assess the model's resilience to perturbations. This component consists of a dashboard, which allows the user to select an attack configuration and provide a security analysis.
Tipo
info:eu-repo/semantics/bachelorThesisCollezioni
- Laurea Triennale [2447]