Teoria dell'apprendimento per sistemi dinamici

Mostra/ Apri
Autore
De Scalzi, Leonardo <2001>
Data
2025-02-12Disponibile dal
2025-02-27Abstract
Questa tesi affronta la mancanza di garanzie teoriche rigorose nei modelli di machine learning applicati ai sistemi dinamici, stabilendo limiti di performance per un algoritmo di apprendimento supervisionato nel compito di forecasting. Integrando le metodologie del machine learning statististico con la teoria dei sistemi dinamici, sviluppiamo un algoritmo di apprendimento online in uno spazio di Hilbert a nucleo riproducente (RKHS) che elabora dati sequenziali tramite una regola di aggiornamento basata sulla discesa del gradiente stocastico.
Il sistema è modellato come una catena di Markov, in cui l’evoluzione degli stati è determinata da una funzione di probabilità di transizione, e un’ipotesi di ergodicità garantisce la convergenza verso una misura stazionaria unica. Tale impostazione supera l’assunzione classica di dati indipendenti e identicamente distribuiti (i.i.d.), accomodando sia la dipendenza che la non-stazionarietà intrinseche ai sistemi dinamici reali. Il nostro approccio si concentra sull’apprendimento della funzione di regressione che mappa lo stato corrente nel valore atteso dello stato successivo, fornendo così un metodo fondato per il forecasting in ambienti in cui i dati vengono acquisiti in modo incrementale.
Abbiamo derivato rate di convergenza non asintotici in termini di aspettazione per l'estimatore, quantificando la rapidità con cui l’algoritmo si avvicina al predittore ottimale sotto la dinamica stocastica considerata. I risultati teorici estendono i metodi di apprendimento basati sui kernel a una classe più ampia di problemi dipendenti dal tempo, inclusi quelli relativi al forecasting di serie temporali, al controllo ottimale e all’identificazione dei sistemi. Complessivamente, questo lavoro contribuisce a un quadro unificante che colma il divario tra successo empirico e robustezza teorica nel machine learning per sistemi dinamici, aprendo la strada a ulteriori ricerche al fine di generalizzare questo approccio. This thesis addresses the lack of rigorous theoretical guarantees in machine learning models applied to dynamical systems by establishing performance bounds for a supervised learning algorithm in forecasting tasks. By integrating statistical machine learning with dynamical systems theory, we develop an online learning algorithm in a Reproducing Kernel Hilbert Space (RKHS) framework that processes sequential data through an SGD-type update rule.
The system is modeled as a Markov chain, where the state evolution is governed by a transition probability function, and an ergodicity assumption guarantees convergence to a unique stationary measure. This setting overcomes the classical i.i.d. assumption, accommodating both the dependency and non-stationarity intrinsic to real-world dynamical systems. Our approach focuses on learning the regression function that maps the current state to the expected next state, thus providing a principled method for forecasting in environments where data arrives incrementally.
We derive non-asymptotic convergence rates in expectation for the estimator, thereby quantifying how rapidly the algorithm approximates the optimal predictor under the given stochastic dynamics. The theoretical results extend kernel-based learning methods to a broader class of time-dependent problems, including applications in time series forecasting, optimal control, and system identification. Overall, this work contributes a unifying framework that bridges the gap between empirical success and theoretical robustness in machine learning for dynamical systems, and it opens avenues for further research on more general state-spaces and relaxed independence assumptions.
Tipo
info:eu-repo/semantics/masterThesisCollezioni
- Laurea Magistrale [5212]