Università di Genova logo, link al sitoUniRe logo, link alla pagina iniziale
    • English
    • italiano
  • English 
    • English
    • italiano
  • Login
View Item 
  •   DSpace Home
  • Tesi
  • Tesi di Laurea
  • Laurea Magistrale
  • View Item
  •   DSpace Home
  • Tesi
  • Tesi di Laurea
  • Laurea Magistrale
  • View Item
JavaScript is disabled for your browser. Some features of this site may not work without it.

Architetture delle reti neurali

Thumbnail
View/Open
tesi36047902.pdf (1.550Mb)
Author
Cogorno, Andrea <2001>
Date
2025-12-10
Data available
2025-12-18
Abstract
Questa tesi presenta uno studio completo sulle architetture delle reti neurali, articolato in due parti complementari. La prima parte fornisce i fondamenti matematici e teorici del deep learning, esplorando concetti chiave della teoria della probabilità, della teoria dell'informazione e dell'ottimizzazione. Vengono analizzate le principali architetture neurali — reti feedforward, convoluzionali (CNN), ricorrenti (RNN, LSTM, GRU), autoencoder, autoencoder variazionali (VAE), reti generative avversarie (GAN), transformer e reti neurali a grafo (GNN) — insieme alle strategie di ottimizzazione, alle tecniche di regolarizzazione e ai meccanismi per contrastare problemi come overfitting e vanishing gradient. La seconda parte applica questi fondamenti teorici a un caso studio industriale reale: il controllo di temperatura di un sistema di vulcanizzazione per pavimenti in gomma. Utilizzando un dataset di oltre 33.000 osservazioni, viene condotta un'analisi comparativa tra architetture ricorrenti (LSTM, GRU) e metodi statistici classici (ARIMA, regressione lineare) per la predizione della temperatura e il rilevamento anticipato di anomalie. I risultati dimostrano che le reti neurali ottengono ottimi risultati anche superiori a modelli come ARIMA. Ad ogni modo ci sono alcuni ostacoli che potrebbero capitare.
 
This thesis presents a comprehensive study on neural network architectures, organized in two complementary parts. The first part provides the mathematical and theoretical foundations of deep learning, exploring key concepts from probability theory, information theory, and optimization. The main neural architectures are analyzed — feedforward networks, convolutional neural networks (CNN), recurrent networks (RNN, LSTM, GRU), autoencoders, variational autoencoders (VAE), generative adversarial networks (GAN), transformers, and graph neural networks (GNN) — along with optimization strategies, regularization techniques, and mechanisms to address issues such as overfitting and vanishing gradient. The second part applies these theoretical foundations to a real industrial case study: temperature control in a rubber flooring vulcanization system. Using a dataset of over 33,000 observations, a comparative analysis is conducted between recurrent architectures (LSTM, GRU) and classical statistical methods (ARIMA, linear regression) for temperature prediction and early anomaly detection. The results show that neural networks achieve excellent results, even better than models like ARIMA. However, there are some obstacles that could arise.
 
Type
info:eu-repo/semantics/masterThesis
Collections
  • Laurea Magistrale [6791]
URI
https://unire.unige.it/handle/123456789/14330
Metadata
Show full item record

UniRe - Università degli studi di Genova | Information and Contacts
 

 

All of DSpaceCommunities & Collections

My Account

Login

UniRe - Università degli studi di Genova | Information and Contacts