Show simple item record

dc.contributor.advisorRoli, Fabio <1962>
dc.contributor.advisorDemetrio, Luca <1993>
dc.contributor.authorSimonelli, Federico <2001>
dc.date.accessioned2023-09-21T14:19:15Z
dc.date.available2023-09-21T14:19:15Z
dc.date.issued2023-09-15
dc.identifier.urihttps://unire.unige.it/handle/123456789/6286
dc.description.abstractL'Intelligenza Artificiale sta emergendo velocemente, inserendosi nei contesti aziendali in ormai ogni settore, interfacciandosi anche con quelli più critici. Risulta perciò necessario un cambiamento di paradigma, passando da DevOps, utilizzato per il software tradizionale, a MLOps, un insieme di pratiche necessarie per mettere in produzione i modelli di AI. E' inoltre fondamentale che ci si possa fidare, a livello di output, di tali sistemi. Sono perciò necessarie delle garanzie in termini di sicurezza, che si traduce in resistenza alle manipolazioni da parte di un attaccante. Questo non è solamente un problema tecnico, ma anche normativo; nasce in questo contesto una proposta di legge, l’ European Union Artificial Intelligence Act, che classifica i sistemi di ML sulla base del rischio e prevede determinati standard di sviluppo per garantire un’applicazione sicura all’utente finale. Per raggiungere questo scopo, l’elaborato di tesi si conclude con la creazione di un blocco MLOps, che si inserisce all’interno della pipeline di sviluppo di un modello ML, il cui scopo è valutare la robustezza del modello alle perturbazioni. Tale componente è una dashboard che, scelta una configurazione di attacco, presenta un’analisi della sicurezza.it_IT
dc.description.abstractArtificial Intelligence as digital technology is rapidly burgeoning, integrating itself into virtually every corporate context, including those of critical significance. Consequently, a paradigm shift is imperative, transitioning from DevOps, traditionally employed for conventional software, to MLOps, a collection of essential practices for deploying AI models. Equally important is the establishment of trustworthiness with respect to the system’s outputs. Hence, security assurances are necessary, manifesting as necessity to defend against malicious actors’ tampering. This predicament extends beyond technical considerations, venturing into the realm of regulatory concerns. In this context, the European Union Artificial Intelligence Act has been proposed, classifying ML systems based on risk and stipulating specific development standards to ensure safe end-user applications. To achieve this objective, this thesis culminates in the creation of an MLOps block integrated into a ML model development pipeline. Its primary purpose is to assess the model's resilience to perturbations. This component consists of a dashboard, which allows the user to select an attack configuration and provide a security analysis.en_UK
dc.language.isoit
dc.rightsinfo:eu-repo/semantics/restrictedAccess
dc.titleSviluppo e gestione sicura di modelli di intelligenza artificialeit_IT
dc.title.alternativeSecure development and management of Artificial Intelligence modelsen_UK
dc.typeinfo:eu-repo/semantics/bachelorThesis
dc.subject.miurING-INF/05 - SISTEMI DI ELABORAZIONE DELLE INFORMAZIONI
dc.publisher.nameUniversità degli studi di Genova
dc.date.academicyear2022/2023
dc.description.corsolaurea10716 - INGEGNERIA GESTIONALE
dc.description.area9 - INGEGNERIA
dc.description.department100025 - DIPARTIMENTO DI INGEGNERIA MECCANICA, ENERGETICA, GESTIONALE E DEI TRASPORTI


Files in this item

This item appears in the following Collection(s)

Show simple item record