Mostra i principali dati dell'item

dc.contributor.advisorDemetrio, Luca <1993>
dc.contributor.advisorRoli, Fabio <1962>
dc.contributor.authorScarra', Francesca <2003>
dc.date.accessioned2025-07-24T14:29:31Z
dc.date.available2025-07-24T14:29:31Z
dc.date.issued2025-07-17
dc.identifier.urihttps://unire.unige.it/handle/123456789/12658
dc.description.abstractL’evoluzione dei sistemi di videosorveglianza basati su modelli di deep learning, come YOLO, ha rivoluzionato la sicurezza pubblica, consentendo l’analisi automatizzata di flussi video in tempo reale. Tuttavia, la crescente dipendenza da queste tecnologie, unite alle vulnerabilità dei modelli di intelligenza artificiale, rende cruciale valutarne la robustezza, specialmente alla luce dell’AI Act europeo. Questo regolamento classifica la videosorveglianza come dominio ad alto rischio, richiedendo elevati standard di sicurezza, trasparenza e affidabilità. La tesi si propone di analizzare la robustezza di YOLO nel rilevare la classe “persona” in scenari di videosorveglianza, motivata dalla necessità di garantire conformità normativa e protezione contro attacchi che possano comprometterne l’efficacia. È stata sviluppata una pipeline sperimentale per testare il modello sotto diverse condizioni di disturbo, applicate a immagini del dataset ImageNet. I risultati evidenziano limitazioni nella gestione di contesti perturbati, sottolineando la necessità di miglioramenti. Si propongono strategie come l’analisi su flussi video in tempo reale per allineare il modello ai requisiti dell’AI Act, rafforzando l’affidabilità dei sistemi di videosorveglianza in contesti critici e promuovendo una maggiore sicurezza pubblica.it_IT
dc.description.abstractThe evolution of video surveillance systems based on deep learning models, such as YOLO, has revolutionized public safety, enabling automated real-time analysis of video streams. However, the increasing reliance on these technologies, coupled with the vulnerabilities of artificial intelligence models, makes it critical to evaluate their robustness, particularly in light of the European AI Act. This regulation classifies video surveillance as a high-risk domain, requiring stringent standards of security, transparency, and reliability. This thesis aims to assess the robustness of YOLO in detecting the “person” class in video surveillance scenarios, driven by the need to ensure regulatory compliance and protection against attacks that could compromise its effectiveness. An experimental pipeline was developed to test the model under various disturbance conditions, applied to images from the ImageNet dataset. The results highlight limitations in handling perturbed contexts, underscoring the need for improvements. Strategies such as analysis of real-time video streams are proposed to align the model with the AI Act’s requirements, enhancing the reliability of video surveillance systems in critical contexts and promoting greater public safety.en_UK
dc.language.isoit
dc.language.isoen
dc.rightsinfo:eu-repo/semantics/restrictedAccess
dc.titleStudio preliminare per la certificazione della sicurezza dei sistemi di videosorveglianza basati su machine learningit_IT
dc.title.alternativeTowards the Certification of Machine Learning Models for Video-Surveillance Systemsen_UK
dc.typeinfo:eu-repo/semantics/bachelorThesis
dc.subject.miurING-INF/05 - SISTEMI DI ELABORAZIONE DELLE INFORMAZIONI
dc.publisher.nameUniversità degli studi di Genova
dc.date.academicyear2024/2025
dc.description.corsolaurea10716 - INGEGNERIA GESTIONALE
dc.description.area9 - INGEGNERIA
dc.description.department100025 - DIPARTIMENTO DI INGEGNERIA MECCANICA, ENERGETICA, GESTIONALE E DEI TRASPORTI


Files in questo item

Questo item appare nelle seguenti collezioni

Mostra i principali dati dell'item