Architetture delle reti neurali

Mostra/ Apri
Autore
Cogorno, Andrea <2001>
Data
2025-12-10Disponibile dal
2025-12-18Abstract
Questa tesi presenta uno studio completo sulle architetture delle reti neurali, articolato in due parti complementari.
La prima parte fornisce i fondamenti matematici e teorici del deep learning, esplorando concetti chiave della teoria della probabilità, della teoria dell'informazione e
dell'ottimizzazione. Vengono analizzate le principali architetture neurali — reti feedforward, convoluzionali (CNN), ricorrenti (RNN, LSTM, GRU), autoencoder, autoencoder variazionali (VAE), reti generative avversarie (GAN), transformer e reti neurali a grafo (GNN) — insieme alle strategie di ottimizzazione, alle tecniche di regolarizzazione e ai meccanismi per contrastare problemi come overfitting e vanishing gradient.
La seconda parte applica questi fondamenti teorici a un caso studio industriale reale: il controllo di temperatura di un sistema di vulcanizzazione per pavimenti in gomma. Utilizzando un dataset di oltre 33.000 osservazioni, viene condotta un'analisi comparativa tra architetture ricorrenti (LSTM, GRU) e metodi statistici classici (ARIMA, regressione lineare) per la predizione della temperatura e il rilevamento anticipato di anomalie. I risultati dimostrano che le reti neurali ottengono ottimi risultati anche superiori a modelli come ARIMA. Ad ogni modo ci sono alcuni ostacoli che potrebbero capitare. This thesis presents a comprehensive study on neural network architectures, organized in two complementary parts.
The first part provides the mathematical and theoretical foundations of deep learning, exploring key concepts from probability theory, information theory, and optimization. The main neural architectures are analyzed — feedforward networks, convolutional neural networks (CNN), recurrent networks (RNN, LSTM, GRU), autoencoders, variational autoencoders (VAE), generative adversarial networks (GAN), transformers, and graph neural networks (GNN) — along with optimization strategies, regularization techniques, and mechanisms to address issues such as overfitting and vanishing gradient.
The second part applies these theoretical foundations to a real industrial case study: temperature control in a rubber flooring vulcanization system. Using a dataset of over 33,000 observations, a comparative analysis is conducted between recurrent architectures (LSTM, GRU) and classical statistical methods (ARIMA, linear regression) for temperature prediction and early anomaly detection. The results show that neural networks achieve excellent results, even better than models like ARIMA. However, there are some obstacles that could arise.
Tipo
info:eu-repo/semantics/masterThesisCollezioni
- Laurea Magistrale [6791]

