Università di Genova logo, link al sitoUniRe logo, link alla pagina iniziale
    • English
    • italiano
  • italiano 
    • English
    • italiano
  • Login
Mostra Item 
  •   Home
  • Tesi
  • Tesi di Laurea
  • Laurea Triennale
  • Mostra Item
  •   Home
  • Tesi
  • Tesi di Laurea
  • Laurea Triennale
  • Mostra Item
JavaScript is disabled for your browser. Some features of this site may not work without it.

Imparare a camminare da zero: Reinforcement Learning per la locomozione di Robot Esapodi

Mostra/Apri
tesi29108618.pdf (2.500Mb)
Autore
Sallali, Niklas <2001>
Data
2024-07-18
Disponibile dal
2024-07-25
Abstract
La locomozione dei robot basati su zampe è sempre stata uno dei problemi più complessi da risolvere nel campo dei sistemi di controllo, a causa della complessità delle interazioni tra il robot e l'ambiente e del gran numero di vincoli altamente non lineari che ne derivano, come i contatti fisici. Per molti anni, il problema è stato affrontato risolvendo il problema della cinematica inversa abbinato a pose chiave interpolate, controlli di equilibrio e, nei casi più sofisticati, controllori predittivi con modello (MPC). Era necessario un nuovo approccio al problema e il Reinforcement Learning si è dimostrato molto promettente. In questa tesi, partiamo dalla codebase piuttosto matura di (Rudin et al., 2022) per far imparare a un robot esapode a camminare partendo da zero utilizzando il Reinforcement Learning e fornendogli feedback attraverso una funzione di ricompensa personalizzata.
 
Legged robot locomotion has always been one of the most complex tasks to solve in the field of control systems due to the complexity of the interactions between the robot and the environment and the large number of the resulting highly non linear constraints like physical contacts. For many years the problem has been approached by solving the inverse kinematics problem paired with fixed interpolated keyframes, equilibrium tracking controllers and in more sophisticated cases, model predictive controllers (MPC). A new approach to the problem was necessary and Reinforcement Learning proved to be a very promising one. In this thesis we build on top of the quite mature codebase of (Rudin et al., 2022) to make an hexapod robot learn to walk from scratch using Reinforcement Learning starting from a randomly initialized policy and giving it feedback through a custom reward function.
 
Tipo
info:eu-repo/semantics/bachelorThesis
Collezioni
  • Laurea Triennale [2887]
URI
https://unire.unige.it/handle/123456789/9087
Metadati
Mostra tutti i dati dell'item

UniRe - Università degli studi di Genova | Supporto tecnico
 

 

UniReArchivi & Collezioni

Area personale

Login

UniRe - Università degli studi di Genova | Supporto tecnico