Show simple item record

dc.contributor.advisorSorrentino, Alberto <1979>
dc.contributor.advisorBenvenuto, Federico <1978>
dc.contributor.authorCogorno, Andrea <2001>
dc.date.accessioned2025-12-18T14:14:44Z
dc.date.available2025-12-18T14:14:44Z
dc.date.issued2025-12-10
dc.identifier.urihttps://unire.unige.it/handle/123456789/14330
dc.description.abstractQuesta tesi presenta uno studio completo sulle architetture delle reti neurali, articolato in due parti complementari. La prima parte fornisce i fondamenti matematici e teorici del deep learning, esplorando concetti chiave della teoria della probabilità, della teoria dell'informazione e dell'ottimizzazione. Vengono analizzate le principali architetture neurali — reti feedforward, convoluzionali (CNN), ricorrenti (RNN, LSTM, GRU), autoencoder, autoencoder variazionali (VAE), reti generative avversarie (GAN), transformer e reti neurali a grafo (GNN) — insieme alle strategie di ottimizzazione, alle tecniche di regolarizzazione e ai meccanismi per contrastare problemi come overfitting e vanishing gradient. La seconda parte applica questi fondamenti teorici a un caso studio industriale reale: il controllo di temperatura di un sistema di vulcanizzazione per pavimenti in gomma. Utilizzando un dataset di oltre 33.000 osservazioni, viene condotta un'analisi comparativa tra architetture ricorrenti (LSTM, GRU) e metodi statistici classici (ARIMA, regressione lineare) per la predizione della temperatura e il rilevamento anticipato di anomalie. I risultati dimostrano che le reti neurali ottengono ottimi risultati anche superiori a modelli come ARIMA. Ad ogni modo ci sono alcuni ostacoli che potrebbero capitare.it_IT
dc.description.abstractThis thesis presents a comprehensive study on neural network architectures, organized in two complementary parts. The first part provides the mathematical and theoretical foundations of deep learning, exploring key concepts from probability theory, information theory, and optimization. The main neural architectures are analyzed — feedforward networks, convolutional neural networks (CNN), recurrent networks (RNN, LSTM, GRU), autoencoders, variational autoencoders (VAE), generative adversarial networks (GAN), transformers, and graph neural networks (GNN) — along with optimization strategies, regularization techniques, and mechanisms to address issues such as overfitting and vanishing gradient. The second part applies these theoretical foundations to a real industrial case study: temperature control in a rubber flooring vulcanization system. Using a dataset of over 33,000 observations, a comparative analysis is conducted between recurrent architectures (LSTM, GRU) and classical statistical methods (ARIMA, linear regression) for temperature prediction and early anomaly detection. The results show that neural networks achieve excellent results, even better than models like ARIMA. However, there are some obstacles that could arise.en_UK
dc.language.isoit
dc.rightsinfo:eu-repo/semantics/openAccess
dc.titleArchitetture delle reti neuraliit_IT
dc.title.alternativeArchitectures of Deep Neural Networksen_UK
dc.typeinfo:eu-repo/semantics/masterThesis
dc.subject.miurMAT/06 - PROBABILITÀ E STATISTICA MATEMATICA
dc.publisher.nameUniversità degli studi di Genova
dc.date.academicyear2024/2025
dc.description.corsolaurea9011 - MATEMATICA
dc.description.area7 - SCIENZE MAT.FIS.NAT.
dc.description.department100021 - DIPARTIMENTO DI MATEMATICA


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record