Studio preliminare per la certificazione della sicurezza dei sistemi di videosorveglianza basati su machine learning
Mostra/ Apri
Autore
Scarra', Francesca <2003>
Data
2025-07-17Disponibile dal
2025-07-24Abstract
L’evoluzione dei sistemi di videosorveglianza basati su modelli di deep learning, come YOLO, ha rivoluzionato la sicurezza pubblica, consentendo l’analisi automatizzata di flussi video in tempo reale. Tuttavia, la crescente dipendenza da queste tecnologie, unite alle vulnerabilità dei modelli di intelligenza artificiale, rende cruciale valutarne la robustezza, specialmente alla luce dell’AI Act europeo. Questo regolamento classifica la videosorveglianza come dominio ad alto rischio, richiedendo elevati standard di sicurezza, trasparenza e affidabilità. La tesi si propone di analizzare la robustezza di YOLO nel rilevare la classe “persona” in scenari di videosorveglianza, motivata dalla necessità di garantire conformità normativa e protezione contro attacchi che possano comprometterne l’efficacia. È stata sviluppata una pipeline sperimentale per testare il modello sotto diverse condizioni di disturbo, applicate a immagini del dataset ImageNet. I risultati evidenziano limitazioni nella gestione di contesti perturbati, sottolineando la necessità di miglioramenti. Si propongono strategie come l’analisi su flussi video in tempo reale per allineare il modello ai requisiti dell’AI Act, rafforzando l’affidabilità dei sistemi di videosorveglianza in contesti critici e promuovendo una maggiore sicurezza pubblica. The evolution of video surveillance systems based on deep learning models, such as YOLO, has revolutionized public safety, enabling automated real-time analysis of video streams. However, the increasing reliance on these technologies, coupled with the vulnerabilities of artificial intelligence models, makes it critical to evaluate their robustness, particularly in light of the European AI Act. This regulation classifies video surveillance as a high-risk domain, requiring stringent standards of security, transparency, and reliability. This thesis aims to assess the robustness of YOLO in detecting the “person” class in video surveillance scenarios, driven by the need to ensure regulatory compliance and protection against attacks that could compromise its effectiveness. An experimental pipeline was developed to test the model under various disturbance conditions, applied to images from the ImageNet dataset. The results highlight limitations in handling perturbed contexts, underscoring the need for improvements. Strategies such as analysis of real-time video streams are proposed to align the model with the AI Act’s requirements, enhancing the reliability of video surveillance systems in critical contexts and promoting greater public safety.
Tipo
info:eu-repo/semantics/bachelorThesisCollezioni
- Laurea Triennale [3218]