Show simple item record

dc.contributor.advisorReggio, Gianna <1957>
dc.contributor.advisorRicca, Filippo <1969>
dc.contributor.advisorLeotta, Maurizio <1983>
dc.contributor.authorYousaf, Hafiz Zeeshan <1996>
dc.date.accessioned2024-08-01T14:20:18Z
dc.date.available2024-08-01T14:20:18Z
dc.date.issued2024-07-30
dc.identifier.urihttps://unire.unige.it/handle/123456789/9174
dc.description.abstractI test automatizzati sono fondamentali per garantire l'affidabilità delle applicazioni web. Questa ricerca approfondisce l'analisi comparativa delle metodologie di test automation per applicazioni web, concentrandosi sullo scripting manuale rispetto a tecniche assistite dall'intelligenza artificiale come GitHub Copilot e ChatGPT. Attraverso la sperimentazione, abbiamo valutato la fattibilità e l’efficacia dell’intelligenza artificiale modelli linguistici nella generazione di script di test basati sulle descrizioni del linguaggio naturale dell'utente interazioni con applicazioni web. I nostri risultati preliminari mostrano che la generazione basata sull’intelligenza artificiale offre generalmente un vantaggio sullo sviluppo di script di test completamente manuale. Partendo da casi di test chiaramente definiti in Gherkin, una riduzione dei tempi di sviluppo è sempre osservabile. In alcuni casi, questo ri- la produzione è statisticamente significativa (ad esempio, Manuale rispetto a un uso particolare di ChatGPT). Questi i risultati sono validi a condizione che il tester abbia alcune competenze nello sviluppo manuale di script di test ed è quindi in grado di modificare il codice prodotto dagli strumenti di generazione dell'intelligenza artificiale. Questo studio contribuisce all'esplorazione di soluzioni basate sull'intelligenza artificiale nella generazione e nei layout di script di test web la base per la ricerca futura in questo campo.it_IT
dc.description.abstractAutomated testing is vital for ensuring the reliability of web applications. This research delves into the comparative analysis of test automation methodologies for web applications, focusing on manual scripting versus AI-assisted techniques such as GitHub Copilot and ChatGPT. Through experimentation, we evaluated the feasibility and effectiveness of AI language models in generating test scripts based on natural language descriptions of user interactions with web applications. Our preliminary results show that AI-based generation generally provides an advantage over fully manual test script development. Starting from test cases clearly defined in Gherkin, a reduction in development time is always observable. In some cases, this re- duction is statistically significant (e.g., Manual vs. a particular use of ChatGPT). These results are valid provided that the tester has some skills in manual test script development and is therefore able to modify the code produced by the AI-generation tools. This study contributes to the exploration of AI-driven solutions in web test script generation and lays the foundation for future research in this domainen_UK
dc.language.isoen
dc.rightsinfo:eu-repo/semantics/restrictedAccess
dc.titleStudi empirici sull'automazione dei test per applicazioni Webit_IT
dc.title.alternativeEmpirical Studies About Test Automation For Web Applicationsen_UK
dc.typeinfo:eu-repo/semantics/masterThesis
dc.subject.miurINF/01 - INFORMATICA
dc.publisher.nameUniversità degli studi di Genova
dc.date.academicyear2023/2024
dc.description.corsolaurea10852 - COMPUTER SCIENCE
dc.description.area7 - SCIENZE MAT.FIS.NAT.
dc.description.department100023 - DIPARTIMENTO DI INFORMATICA, BIOINGEGNERIA, ROBOTICA E INGEGNERIA DEI SISTEMI


Files in this item

This item appears in the following Collection(s)

Show simple item record