Show simple item record

dc.contributor.advisorD'Agostino, Daniele <1976>
dc.contributor.advisorDell'Amico, Matteo <1979>
dc.contributor.advisorRosasco, Lorenzo <1976>
dc.contributor.authorCaletti, Gabriele <1999>
dc.date.accessioned2023-12-21T15:18:22Z
dc.date.available2023-12-21T15:18:22Z
dc.date.issued2023-12-13
dc.identifier.urihttps://unire.unige.it/handle/123456789/7205
dc.description.abstractNegli ultimi anni, l'ascesa dei metodi kernel è stata notevole nell'ambito dell'apprendimento automatico, in quanto hanno rappresentato un paradigma trasformativo fondamentale per affrontare problemi complessi caratterizzati da relazioni non lineari tra i dati. Tuttavia, quando ci si confronta con insiemi di dati consistenti, spesso dell'ordine di 10^6 campioni, la richiesta di risorse e tempi di esecuzione può porre sfide formidabili. Per mitigare queste limitazioni intrinseche, una soluzione imperativa consiste nello sfruttare le capacità delle architetture distribuite ad alte prestazioni. Questa tesi si addentra in questo terreno computazionale, prendendo come punto di partenza la libreria Falkon, una robusta piattaforma per i metodi kernel realizzati da MALGA. Ho meticolosamente adattato ed esteso questa implementazione per sfruttare la potenza del calcolo distribuito ad alte prestazioni. Gli esperimenti condotti rivelano miglioramenti sostanziali, in termini di tempo di esecuzione e di mantenimento della precisione. Questi risultati sottolineano la potenziale efficacia delle tecniche impiegate, dimostrando un significativo passo avanti verso il superamento degli ostacoli computazionali associati ai metodi kernel su grandi insiemi di dati.it_IT
dc.description.abstractIn recent years, the ascendancy of kernel methods has been remarkable within the realm of machine learning, serving as a transformative paradigm crucial for addressing complex problems characterized by non-linear data relationships. However, when confronted with substantial datasets, often in the order of 10^6 samples, the demand for resources and execution time can pose formidable challenges. To mitigate these inherent limitations, an imperative solution lies in harnessing the capabilities of high-performance distributed architectures. This thesis delves into this computational terrain, taking the Falkon library as its starting point—a robust platform for kernel methods crafted by MALGA. I have meticulously adapted and extended this implementation to exploit the power of High Performance Distributed Computing. The conducted experiments unveil substantial enhancements, in terms of execution time and keeping accuracy stable. These results underscore the potential efficacy of the techniques employed, demonstrating a significant stride towards overcoming the computational hurdles associated with kernel methods on large datasets.en_UK
dc.language.isoen
dc.rightsinfo:eu-repo/semantics/openAccess
dc.titleKernels per High Performance Distributed Computingit_IT
dc.title.alternativeKernels for High Performance Distributed Computingen_UK
dc.typeinfo:eu-repo/semantics/masterThesis
dc.subject.miurINF/01 - INFORMATICA
dc.subject.miurINF/01 - INFORMATICA
dc.publisher.nameUniversità degli studi di Genova
dc.date.academicyear2022/2023
dc.description.corsolaurea10852 - COMPUTER SCIENCE
dc.description.area7 - SCIENZE MAT.FIS.NAT.
dc.description.department100023 - DIPARTIMENTO DI INFORMATICA, BIOINGEGNERIA, ROBOTICA E INGEGNERIA DEI SISTEMI


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record