dc.contributor.advisor | Reggio, Gianna <1957> | |
dc.contributor.advisor | Ricca, Filippo <1969> | |
dc.contributor.advisor | Leotta, Maurizio <1983> | |
dc.contributor.author | Yousaf, Hafiz Zeeshan <1996> | |
dc.date.accessioned | 2024-08-01T14:20:18Z | |
dc.date.available | 2024-08-01T14:20:18Z | |
dc.date.issued | 2024-07-30 | |
dc.identifier.uri | https://unire.unige.it/handle/123456789/9174 | |
dc.description.abstract | I test automatizzati sono fondamentali per garantire l'affidabilità delle applicazioni web. Questa ricerca
approfondisce l'analisi comparativa delle metodologie di test automation per applicazioni web,
concentrandosi sullo scripting manuale rispetto a tecniche assistite dall'intelligenza artificiale come GitHub Copilot e
ChatGPT. Attraverso la sperimentazione, abbiamo valutato la fattibilità e l’efficacia dell’intelligenza artificiale
modelli linguistici nella generazione di script di test basati sulle descrizioni del linguaggio naturale dell'utente
interazioni con applicazioni web.
I nostri risultati preliminari mostrano che la generazione basata sull’intelligenza artificiale offre generalmente un vantaggio
sullo sviluppo di script di test completamente manuale. Partendo da casi di test chiaramente definiti in
Gherkin, una riduzione dei tempi di sviluppo è sempre osservabile. In alcuni casi, questo ri-
la produzione è statisticamente significativa (ad esempio, Manuale rispetto a un uso particolare di ChatGPT). Questi
i risultati sono validi a condizione che il tester abbia alcune competenze nello sviluppo manuale di script di test
ed è quindi in grado di modificare il codice prodotto dagli strumenti di generazione dell'intelligenza artificiale. Questo studio
contribuisce all'esplorazione di soluzioni basate sull'intelligenza artificiale nella generazione e nei layout di script di test web
la base per la ricerca futura in questo campo. | it_IT |
dc.description.abstract | Automated testing is vital for ensuring the reliability of web applications. This research
delves into the comparative analysis of test automation methodologies for web applications,
focusing on manual scripting versus AI-assisted techniques such as GitHub Copilot and
ChatGPT. Through experimentation, we evaluated the feasibility and effectiveness of AI
language models in generating test scripts based on natural language descriptions of user
interactions with web applications.
Our preliminary results show that AI-based generation generally provides an advantage
over fully manual test script development. Starting from test cases clearly defined in
Gherkin, a reduction in development time is always observable. In some cases, this re-
duction is statistically significant (e.g., Manual vs. a particular use of ChatGPT). These
results are valid provided that the tester has some skills in manual test script development
and is therefore able to modify the code produced by the AI-generation tools. This study
contributes to the exploration of AI-driven solutions in web test script generation and lays
the foundation for future research in this domain | en_UK |
dc.language.iso | en | |
dc.rights | info:eu-repo/semantics/restrictedAccess | |
dc.title | Studi empirici sull'automazione dei test per applicazioni Web | it_IT |
dc.title.alternative | Empirical Studies About Test Automation For Web Applications | en_UK |
dc.type | info:eu-repo/semantics/masterThesis | |
dc.subject.miur | INF/01 - INFORMATICA | |
dc.publisher.name | Università degli studi di Genova | |
dc.date.academicyear | 2023/2024 | |
dc.description.corsolaurea | 10852 - COMPUTER SCIENCE | |
dc.description.area | 7 - SCIENZE MAT.FIS.NAT. | |
dc.description.department | 100023 - DIPARTIMENTO DI INFORMATICA, BIOINGEGNERIA, ROBOTICA E INGEGNERIA DEI SISTEMI | |