Show simple item record

dc.contributor.advisorLagorio, Giovanni <1973>
dc.contributor.advisorValenza, Andrea <1989>
dc.contributor.advisorRibaudo, Marina <1964>
dc.contributor.authorMercuri, Andrea <1995>
dc.date.accessioned2026-04-02T14:24:32Z
dc.date.available2026-04-02T14:24:32Z
dc.date.issued2026-03-26
dc.identifier.urihttps://unire.unige.it/handle/123456789/15540
dc.description.abstractLa rapida adozione dell’Intelligenza Artificiale agentica ha introdotto un nuovo paradigma di sicurezza in cui i Large Language Models (LLM) non sono più componenti passivi, ma entità autonome capaci di interagire con ambienti esterni. Mentre gli sforzi recenti si sono concentrati principalmente sull’individuazione delle vulnerabilità dei sistemi, è stata dedicata minore attenzione al rilevamento di comportamenti malevoli all’interno di servizi di Intelligenza Artificiale considerati affidabili. Questa tesi di laurea magistrale analizza come comportamenti malevoli possano essere nascosti all’interno di un sistema di Intelligenza Artificiale agentica eludendo gli strumenti di sicurezza. Concentrandosi sull’ecosistema del Model Context Protocol, il lavoro dimostra come attività malevole possano aggirare gli scanner sfruttando la semantica degli strumenti e tecniche di offuscamento. La tesi sviluppa diversi proof-of-concept di Model Context Protocol server, mostrando scenari realistici come tool poisoning e indirect prompt injection, oltre ad una tecnica di evasione. L’efficacia ed i limiti degli attuali scanner di sicurezza per Model Context Protocol vengono valutati empiricamente, evidenziando come i meccanismi di rilevamento falliscano spesso quando il comportamento malevolo è offuscato. I risultati mostrano che la sola scansione di sicurezza non è sufficiente a garantire la sicurezza dei sistemi di Intelligenza Artificiale agentica, poiché comportamenti malevoli possono essere nascosti pur apparendo benigni. Questo lavoro contribuisce a una comprensione più approfondita dell’Intelligenza Artificiale agentica malevola e sottolinea la necessità di modelli di sicurezza sensibili al comportamento e di strategie difensive più robuste.it_IT
dc.description.abstractThe rapid adoption of agentic Artificial Intelligence has introduced a new security paradigm in which Large Language Models (LLMs) are no longer passive components but autonomous entities capable of interacting with external environments. While recent efforts have focused on identifying system vulnerabilities, less attention has been paid to detecting malicious behaviors within trusted Artificial Intelligence services. This Master's thesis investigates how malicious behavior can be hidden within an agentic Artificial Intelligence system while evading security tools. Focusing on the Model Context Protocol ecosystem, the work demonstrates how malicious activity can bypass scanners by exploiting tool semantics and obfuscation techniques. The research develops multiple proof-of-concept Model Context Protocol servers, demonstrating real-world scenarios such as tool poisoning and indirect prompt injection alongside an evasion technique. The effectiveness and limitations of current Model Context Protocol security scanners are empirically evaluated, highlighting how detection mechanisms often fail when malicious behavior is obfuscated. The results show that security scanning alone is insufficient to guarantee the safety of agentic Artificial Intelligence systems, as adversarial behaviors can be hidden while appearing benign. This work contributes to a deeper understanding of adversarial agentic Artificial Intelligence and emphasizes the need for behavior-aware security models and more robust defensive strategies.en_UK
dc.language.isoen
dc.rightsinfo:eu-repo/semantics/closedAccess
dc.titleQuando gli Agenti AI Diventano Avversari: Elusione di Scanner di Sicurezzait_IT
dc.title.alternativeWhen AI Agents Turn Adversarial: Evading Security Scannersen_UK
dc.typeinfo:eu-repo/semantics/masterThesis
dc.subject.miurINF/01 - INFORMATICA
dc.publisher.nameUniversità degli studi di Genova
dc.date.academicyear2024/2025
dc.description.corsolaurea10852 - COMPUTER SCIENCE
dc.description.area7 - SCIENZE MAT.FIS.NAT.
dc.description.department100023 - DIPARTIMENTO DI INFORMATICA, BIOINGEGNERIA, ROBOTICA E INGEGNERIA DEI SISTEMI


Files in this item

This item appears in the following Collection(s)

Show simple item record