Uso di tecnologie basate sull’intelligenza artificiale per l’elaborazione delle immagini e l’automazione del riconoscimento ambientale in software navali embedded
Mostra/ Apri
Autore
Cademartori, Margherita <1997>
Data
2025-10-15Disponibile dal
2025-10-23Abstract
Questa tesi indaga l’applicazione di tecnologie basate sull’intelligenza artificiale (AI) per l’elaborazione di immagini nel contesto dei sistemi navali embedded, con l’obiettivo specifico di automatizzare i compiti di riconoscimento ambientale. L’aumento della domanda di capacità autonome di sorveglianza e monitoraggio nelle piattaforme navali motiva l’esplorazione di soluzioni di computer vision leggere ma efficaci, in grado di operare in modo affidabile in ambienti hardware con risorse limitate.
È stato sviluppato un dataset personalizzato, annotato manualmente per rappresentare i fenomeni di spruzzi d’acqua attraverso immagini proxy (ad esempio geyser), e sono state applicate tecniche di data augmentation convenzionale per aumentarne la variabilità, escludendo deliberatamente l’uso di immagini generate da AI generativa, in linea con recenti considerazioni critiche presenti in letteratura.
È stata progettata una pipeline completa che copre le fasi di preprocessing, addestramento e valutazione, basata su modelli di deep learning come YOLO, scelto per il suo equilibrio tra accuratezza ed efficienza computazionale.
La fase sperimentale dimostra la fattibilità del rilevamento e della classificazione di eventi di spruzzi d’acqua, con modelli addestrati e ottimizzati per l’implementazione su dispositivi embedded.
I risultati confermano il potenziale delle architetture di deep learning leggere nel supportare il riconoscimento ambientale in applicazioni navali, evidenziando al contempo alcune limitazioni chiave: la dimensione del dataset, la rappresentatività dei dati proxy e l’assenza di un’integrazione multisensoriale. La tesi si conclude delineando le direzioni future di sviluppo, tra cui l’espansione del dataset di training, l’ottimizzazione avanzata per l’inferenza embedded e l’integrazione di dati multisensoriali (RGB, infrarosso e radar), al fine di migliorare la robustezza e l’affidabilità in scenari marittimi reali. This thesis investigates the application of artificial intelligence (AI)-based technologies for image processing in the context of embedded naval systems, with the specific aim of automating environmental recognition tasks. The increasing demand for autonomous surveillance and monitoring capabilities in naval platforms motivates the exploration of lightweight yet effective computer vision solutions that can operate reliably in constrained hardware environments.
I developed a custom dataset, manually annotated to represent water splash phenomena through proxy images (e.g., geysers), and applies conventional data augmentation techniques to enhance variability while deliberately excluding generative AI imagery, following recent critical insights from the literature. A pipeline was designed to cover data preprocessing, training, and evaluation, relying on deep learning models such as YOLO, selected for its balance between accuracy and computational efficiency.
The experimental phase demonstrates the feasibility of detecting and classifying water splash events, with models trained and optimized for deployment on embedded devices.
Results confirm the potential of lightweight deep learning architectures to support environmental recognition in naval applications, while also highlighting key limitations: dataset size, representativeness of proxy data, and the absence of multimodal sensor integration. The thesis concludes by outlining future directions, including the expansion of training data, advanced optimization for embedded inference, and the incorporation of multisensor data fusion (RGB, infrared, and radar), to improve robustness and reliability in real-world maritime scenarios.
Tipo
info:eu-repo/semantics/masterThesisCollezioni
- Laurea Magistrale [6509]

