Mostra i principali dati dell'item
Studi empirici sull'automazione dei test per applicazioni Web
dc.contributor.advisor | Reggio, Gianna <1957> | |
dc.contributor.advisor | Ricca, Filippo <1969> | |
dc.contributor.advisor | Leotta, Maurizio <1983> | |
dc.contributor.author | Yousaf, Hafiz Zeeshan <1996> | |
dc.date.accessioned | 2024-08-01T14:20:18Z | |
dc.date.available | 2024-08-01T14:20:18Z | |
dc.date.issued | 2024-07-30 | |
dc.identifier.uri | https://unire.unige.it/handle/123456789/9174 | |
dc.description.abstract | I test automatizzati sono fondamentali per garantire l'affidabilità delle applicazioni web. Questa ricerca approfondisce l'analisi comparativa delle metodologie di test automation per applicazioni web, concentrandosi sullo scripting manuale rispetto a tecniche assistite dall'intelligenza artificiale come GitHub Copilot e ChatGPT. Attraverso la sperimentazione, abbiamo valutato la fattibilità e l’efficacia dell’intelligenza artificiale modelli linguistici nella generazione di script di test basati sulle descrizioni del linguaggio naturale dell'utente interazioni con applicazioni web. I nostri risultati preliminari mostrano che la generazione basata sull’intelligenza artificiale offre generalmente un vantaggio sullo sviluppo di script di test completamente manuale. Partendo da casi di test chiaramente definiti in Gherkin, una riduzione dei tempi di sviluppo è sempre osservabile. In alcuni casi, questo ri- la produzione è statisticamente significativa (ad esempio, Manuale rispetto a un uso particolare di ChatGPT). Questi i risultati sono validi a condizione che il tester abbia alcune competenze nello sviluppo manuale di script di test ed è quindi in grado di modificare il codice prodotto dagli strumenti di generazione dell'intelligenza artificiale. Questo studio contribuisce all'esplorazione di soluzioni basate sull'intelligenza artificiale nella generazione e nei layout di script di test web la base per la ricerca futura in questo campo. | it_IT |
dc.description.abstract | Automated testing is vital for ensuring the reliability of web applications. This research delves into the comparative analysis of test automation methodologies for web applications, focusing on manual scripting versus AI-assisted techniques such as GitHub Copilot and ChatGPT. Through experimentation, we evaluated the feasibility and effectiveness of AI language models in generating test scripts based on natural language descriptions of user interactions with web applications. Our preliminary results show that AI-based generation generally provides an advantage over fully manual test script development. Starting from test cases clearly defined in Gherkin, a reduction in development time is always observable. In some cases, this re- duction is statistically significant (e.g., Manual vs. a particular use of ChatGPT). These results are valid provided that the tester has some skills in manual test script development and is therefore able to modify the code produced by the AI-generation tools. This study contributes to the exploration of AI-driven solutions in web test script generation and lays the foundation for future research in this domain | en_UK |
dc.language.iso | en | |
dc.rights | info:eu-repo/semantics/restrictedAccess | |
dc.title | Studi empirici sull'automazione dei test per applicazioni Web | it_IT |
dc.title.alternative | Empirical Studies About Test Automation For Web Applications | en_UK |
dc.type | info:eu-repo/semantics/masterThesis | |
dc.subject.miur | INF/01 - INFORMATICA | |
dc.publisher.name | Università degli studi di Genova | |
dc.date.academicyear | 2023/2024 | |
dc.description.corsolaurea | 10852 - COMPUTER SCIENCE | |
dc.description.area | 7 - SCIENZE MAT.FIS.NAT. | |
dc.description.department | 100023 - DIPARTIMENTO DI INFORMATICA, BIOINGEGNERIA, ROBOTICA E INGEGNERIA DEI SISTEMI |
Files in questo item
Questo item appare nelle seguenti collezioni
-
Laurea Magistrale [4954]