Studio ed analisi dati di monitoring per strutture di supercalcolo
View/ Open
Author
Ferri, Lorenzo <2001>
Date
2023-07-25Data available
2023-08-03Abstract
A livello industriale, infrastrutture di supercalcolo risultano oramai indispensabili
per poter efficacemente progettare i vari prodotti abbattendo i costi di produzione,
da un lato tramite simulazioni digitali del comportamento fisico dei vari
componenti da assemblare (in un’ottica Digital Twin), dall’altro utilizzando i
dati sperimentali raccolti per poter automatizzare e/o velocizzare le simulazioni
tramite algoritmi di Intelligenza Artificiale (in un’ottica data-driven).
Per via del grande numero di utilizzatori di tali infrastrutture, risulta necessaria
una appropriata ed oculata pianificazione delle risorse di calcolo. A questo
scopo `e importante monitorare costantemente l’utilizzo delle risorse hardware e
dei consumi; analizzando tali dati sar`a quindi possibile individuare e correggere
situazioni di utilizzo non ottimale.
Il principale strumento statistico di indagine sar`a quello della serie storica
(o serie temporale): lo studio di un fenomeno che varia nel tempo attraverso la
separazione degli elementi deterministici da quelli casuali e la descrizione della
struttura di questi ultimi entro un certo grado di affidabilit`a apre alla possibilit`a
di modellare il fenomeno stesso al fine di descriverlo, conoscerlo, approfondirlo e,
se possibile, predirne gli sviluppi futuri. In industry, supercomputing clusters are now indispensable
in order to be able to effectively design the various products by reducing production costs,
by making digital simulations of the physical behavior of the various
components to be assembled (in a Digital Twin perspective),and by using
experimental data collected in order to automate and/or speed up the simulations
through Artificial Intelligence algorithms (from a data-driven perspective).
Due to the large number of users of such infrastructures, it is necessary
an appropriate and careful planning of computing resources. To this
purpose it is important to constantly monitor the use of hardware and consumption resources;
by analyzing this data it will then be possible to identify and correct
non-optimal usage situations.
The main statistical tool of investigation will be that of the time series:
the study of a phenomenon that varies over time by separating of the deterministic elements
from the random ones and by describing the
structure of the latter within a certain degree of reliability unlocks the possibility
to model the phenomenon itself in order to describe it and,
if possible, predict future developments.
Type
info:eu-repo/semantics/bachelorThesisCollections
- Laurea Triennale [2447]