Mostra i principali dati dell'item

dc.contributor.advisorCama, Giampiero <1957>
dc.contributor.authorSartori, Sofia <2003>
dc.date.accessioned2024-07-11T14:35:08Z
dc.date.available2024-07-11T14:35:08Z
dc.date.issued2024-07-09
dc.identifier.urihttps://unire.unige.it/handle/123456789/8690
dc.description.abstractGli argomenti trattati in questa tesi sono l’intelligenza artificiale e la manipolazione psicologica. L’intelligenza artificiale viene delineata nel primo capitolo, il quale si focalizza sulle teorie antiche, sulle blackbox, sui meccanismi di machine e deep learning, sull’utilizzo vero e proprio di questa intelligenza artificiale, ed infine sulle intelligenze artificiali generative e predittive. Il secondo capitolo tratta della manipolazione psicologica, partendo dalle sue origini e quindi dal concetto di manipolazione in generale, mettendo la manipolazione psicologica a confronto con la manipolazione dell’informazione e quella situazionale. Infine, viene estratto il concetto di potere aperto, potere nascosto, condizionamento, persuasione e gaslighting. Il terzo capitolo tratta di tre casi in cui intelligenza artificiale e manipolazione psicologica sono andati a coincidere, spesso portando disinformazione. Il primo caso riguarda ChatGPT, il quale è uno strumento rivoluzionario, ma anche dannoso, poiché, dopo essere stato sottoposto a fake news, ha creato argomentazioni altrettanto false, nonostante esso abbia integrato un programma per la sicurezza e il controllo delle informazioni. Il secondo caso analizzato è quello della Corea del Sud, dove, durante il periodo delle elezioni, è stato creato, tramite l’intelligenza artificiale, un avatar del leader democratico Yoon Suk-yeol. Si tratta quindi sia di un lavoro manuale poiché l’avatar è stato trasmesso su tutti gli apparecchi elettronici, sia un lavoro più profondo a livello mentale. L’ultimo caso analizza come le informazioni, prima delle elezioni presidenziali, possano essere manipolate. Un caso noto è quello delle elezioni del 2020 dove un’agenzia russa chiamata “Internet Research Agency”, ha assunto dei giornalisti ignari di ciò che stava accadendo, per poter scrivere articoli contenenti informazioni false su Joe Biden.it_IT
dc.description.abstractThe topics covered in this thesis are artificial intelligence and psychological manipulation. Artificial intelligence is outlined in the first chapter, which focuses on ancient theories, blackboxes, machine and deep learning mechanisms, the actual use of this artificial intelligence, and finally on generative and predictive artificial intelligence. The second chapter deals with psychological manipulation, starting from its origins and therefore from the concept of manipulation in general, comparing psychological manipulation with information manipulation and situational manipulation. Finally, the concept of open power, hidden power, conditioning, persuasion and gaslighting is extracted. The third chapter deals with three cases in which artificial intelligence and psychological manipulation coincided, often leading to misinformation. The first case concerns ChatGPT, which is a revolutionary tool, but also harmful, since, after being subjected to fake news, it created equally false arguments, despite having integrated a program for information security and control. The second case analyzed is that of South Korea, where, during the election period, an avatar of the democratic leader Yoon Suk-yeol was created using artificial intelligence. It is therefore both a manual work since the avatar has been transmitted on all electronic devices, and a deeper work on a mental level. The latest case analyzes how information, before the presidential elections, can be manipulated. A well-known case is that of the 2020 elections where a Russian agency called the "Internet Research Agency" hired journalists who were unaware of what was happening, in order to write articles containing false information about Joe Biden.en_UK
dc.language.isoit
dc.language.isoit
dc.rightsinfo:eu-repo/semantics/restrictedAccess
dc.titleL'Intelligenza Artificiale come strumento di manipolazione psicologica: studi di caso e prospettive futureit_IT
dc.title.alternativeArtificial Intelligence as a tool for psychological manipulation: case studies and future perspectivesen_UK
dc.typeinfo:eu-repo/semantics/bachelorThesis
dc.subject.miurSPS/04 - SCIENZA POLITICA
dc.publisher.nameUniversità degli studi di Genova
dc.date.academicyear2023/2024
dc.description.corsolaurea8768 - SCIENZE INTERNAZIONALI E DIPLOMATICHE
dc.description.area2 - SCIENZE POLITICHE
dc.description.department100015 - DIPARTIMENTO DI SCIENZE POLITICHE E INTERNAZIONALI - DiSPI


Files in questo item

Questo item appare nelle seguenti collezioni

Mostra i principali dati dell'item