dc.contributor.advisor | Roli, Fabio <1962> | |
dc.contributor.advisor | Demetrio, Luca <1993> | |
dc.contributor.author | Schilhan, Ludovica <2003> | |
dc.date.accessioned | 2025-07-24T14:29:44Z | |
dc.date.available | 2025-07-24T14:29:44Z | |
dc.date.issued | 2025-07-17 | |
dc.identifier.uri | https://unire.unige.it/handle/123456789/12660 | |
dc.description.abstract | Il 1° agosto 2024 è entrato in vigore l’EU AI ACT, che richiede la certificazione di modelli
di Machine Learning utilizzati in ambienti ad alto rischio, accompagnata da una
documentazione condivisibile delle componenti interne del prodotto. In questo contesto si
inserisce l’AIBoM (Artificial Intelligence Bill of Materials), una documentazione
standardizzata e sempre più diffusa per le intelligenze artificiali, che include una lista di
sezioni dedicate alla descrizione delle caratteristiche fondamentali di un modello AI. La sua
funzione principale è rendere trasparente un sistema AI, consentendone così la perfetta
replicabilità, elemento cruciale per il loro sviluppo.
Tuttavia, le attuali proposte di AIBoM non contengono sufficienti informazioni relative alle
tecniche di analisi di robustezza dei modelli, in particolare riguardo alle correlazioni spurie
che vengono apprese dal modello durante il suo addestramento.
Proprio per questa ragione, all’interno dell’elaborato è stata affrontata questa mancanza,
proponendo l’integrazione di informazioni sulla robustezza alle correlazioni spurie
all’interno dell’AIBoM. Sono stati condotti esperimenti attraverso l’implementazione di
codici Python per valutare la robustezza del modello YOLO, uno dei principali algoritmi di
object detection, rispetto alle correlazioni spurie, utilizzando tecniche di eXplainable AI, in
particolare Grad-CAM. Le analisi di robustezza sono state effettuate sul dominio della classe
“persona”. | it_IT |
dc.description.abstract | On August 1, 2024, the EU AI Act came into force, mandating the certification of machine
learning models used in high-risk environments, along with shareable documentation
detailing the internal components of the product. In this context, the Artificial Intelligence
Bill of Materials (AIBoM) has emerged as a standardized and increasingly adopted
documentation framework for AI systems. It includes a series of sections describing the
fundamental characteristics of an AI model. Its primary function is to ensure transparency,
thereby enabling full replicability of the system—an essential element for the development
and deployment of AI solutions.
However, current AIBoM proposals lack sufficient information regarding model robustness
analysis techniques, particularly in relation to spurious correlations that may be learned
during training. For this reason, this thesis addresses this gap by proposing the integration of
information on robustness to spurious correlations within the AIBoM framework.
Experiments were conducted through the implementation of Python code to assess the
robustness of the YOLO model—one of the most widely used object detection algorithms—
against spurious correlations, using eXplainable AI (XAI) techniques, specifically GradCAM. The robustness analyses focused on the "person" class domain. | en_UK |
dc.language.iso | it | |
dc.language.iso | en | |
dc.rights | info:eu-repo/semantics/restrictedAccess | |
dc.title | Inclusione di fattori di sicurezza nella distinta di base di un'AI | it_IT |
dc.title.alternative | Inclusion of Security Indicators in the AI Bill of Materials | en_UK |
dc.type | info:eu-repo/semantics/bachelorThesis | |
dc.subject.miur | ING-INF/05 - SISTEMI DI ELABORAZIONE DELLE INFORMAZIONI | |
dc.publisher.name | Università degli studi di Genova | |
dc.date.academicyear | 2024/2025 | |
dc.description.corsolaurea | 10716 - INGEGNERIA GESTIONALE | |
dc.description.area | 9 - INGEGNERIA | |
dc.description.department | 100025 - DIPARTIMENTO DI INGEGNERIA MECCANICA, ENERGETICA, GESTIONALE E DEI TRASPORTI | |