Cyber Range di Nuova Generazione per la Valutazione di Algoritmi di Intelligenza Artificiale: il Caso d'Uso della Rilevazione di Malware
Author
Battaglia, Martina <1999>
Date
2023-10-18Data available
2023-10-26Abstract
La vulnerabilità degli algoritmi di apprendimento automatico è stata ampiamente dimostrata nella letteratura, in particolare da attaccanti che creano "esempi avversari", campioni ad hoc che costringono il modello vittima a comportarsi secondo la loro volontà. Gli esempi avversari diventano particolarmente critici in termini di sicurezza quando si affrontano sfide di cybersecurity, come il rilevamento di malware. In questi casi, gli attaccanti sono in grado di alterare pochi byte di software malevolo per eludere facilmente il rilevamento. Sebbene la letteratura offra strumenti e strategie per testare proattivamente la sicurezza dei rilevatori di malware basati sull'apprendimento automatico, c'è una notevole carenza di ricerche che considerano ambienti più realistici in cui il rilevatore opera all'interno di una vera infrastruttura di rete. Nessuno studio esistente ha esplorato un vero Cyber Range per valutare la sicurezza dei rilevatori di malware basati sull'IA. In scenari reali, l'efficacia degli attacchi avversari potrebbe essere limitata a causa della presenza di sistemi di rilevamento delle intrusioni o dei colli di bottiglia della larghezza di banda della rete derivanti da un alto volume di traffico. Data questa complessità, questa tesi mira a esplorare questi ambienti realistici, comprenderne i vincoli e il potenziale, progettando un ambiente di rete sandbox. Questo ambiente avrà un punto finale progettato per interagire con un servizio anti-malware basato sull'apprendimento automatico. The insecurity of machine learning algorithms has been extensively proven in the literature, particularly by attackers that craft "adversarial examples", ad-hoc samples that force the victim model to behave at will. Adversarial examples become especially safety-critical when dealing with cyber-security challenges, such as malware detection. In these instances, attackers can perturb a few bytes of malicious software to bypass detection easily. While the literature offers tools and strategies for testing the security of deployed machine learning malware detectors proactively, there's a notable lack of research considering more realistic environments where the detector operates within a genuine network infrastructure. No existing studies have explored a real Cyber Range for evaluating the security of AI-based malware detectors. In actual settings, the effectiveness of adversarial attacks might be constrained due to the presence of intrusion detection systems, or network bandwidth bottlenecks arising from high traffic volume. Given these complexities, this Master's Thesis aims to explore these realistic environments, understanding their constraints and potential, by crafting a sandbox network environment. This environment will feature an endpoint designed to interact with a machine-learning-based anti-malware service.
Type
info:eu-repo/semantics/masterThesisCollections
- Laurea Magistrale [4337]