Generazione di esercizi personalizzati per l'apprendimento di SQL utilizzando modelli linguistici di grandi dimensioni

View/ Open
Author
Calza, Elisa <1999>
Date
2026-03-27Data available
2026-04-02Abstract
Questa tesi esplora l'uso combinato di Large Language Model (LLM) e meccanismi di convalida basati su vincoli per migliorare il processo di generazione e verifica di esercizi SQL. In particolare, il lavoro analizza come un LLM possa essere utilizzato per generare automaticamente assegnazioni SQL e soluzioni candidate, mentre un livello di convalida progettato esplicitamente garantisce che gli output generati soddisfino precisi requisiti strutturali e didattici. Un contributo centrale di questo lavoro è la progettazione e l'implementazione di un framework modulare che integra la generazione di SQL basata sull'intelligenza artificiale con il controllo basato su vincoli. Mentre l'LLM è responsabile della produzione di schemi e query basati su specifiche di alto livello, il sistema di vincoli applica regole esplicite sia a livello di schema relazionale che a livello di query. Questo approccio a doppio livello consente la produzione automatica di esercizi mantenendo uno stretto controllo sulle proprietà strutturali ammissibili. Attraverso un'architettura di convalida uniforme, una gestione strutturata delle eccezioni e procedure di test automatizzate, il framework garantisce che ogni soluzione generata dall'LLM venga sistematicamente verificata. Invece di valutare gli esercizi basandosi esclusivamente sulla correttezza dell'output, ovvero se una query restituisce il set di risultati previsto, il sistema esegue un'analisi strutturale sia dello schema relazionale che della query stessa. Spostando l'attenzione dall'equivalenza dei risultati all'integrità strutturale, il framework consente un controllo più preciso sulle proprietà didattiche degli esercizi generati. In questa prospettiva, il lavoro contribuisce al più ampio campo della didattica SQL supportata dall'intelligenza artificiale, introducendo un solido livello di convalida che integra gli strumenti di generazione automatizzata di esercizi esistenti. This thesis explores the combined use of Large Language Models (LLMs) and constraint-based validation mechanisms to improve the generation and verification process of SQL exercises. In particular, the work investigates how an LLM can be used to automatically generate SQL assignments and candidate solutions, while an explicitly designed validation layer ensures that the generated outputs satisfy precise structural and educational requirements. A central contribution of this work is the design and implementation of a modular framework that integrates AI-driven SQL generation with constraint-based control. While the LLM is responsible for producing schemas and queries based on high-level specifications, the constraint system enforces explicit rules at both the relational schema level and the query level. This dual-layer approach enables the automatic production of exercises while maintaining strict control over admissible structural properties. Through a uniform validation architecture, structured exception handling, and automated testing procedures, the framework ensures that each LLM-generated solution is systematically verified. Rather than evaluating exercises solely based on output correctness, that is, whether a query returns the expected result set, the system performs a structural analysis of both the relational schema and the query itself. By shifting the focus from result equivalence to structural integrity, the framework enables more precise control over the pedagogical properties of generated exercises. Within this perspective, the work contributes to the broader field of AI-supported SQL education by introducing a well-founded validation layer that complements existing automated exercise generation tools.
Type
info:eu-repo/semantics/masterThesisCollections
- Laurea Magistrale [7402]

