L'Intelligenza Artificiale come strumento di manipolazione psicologica: studi di caso e prospettive future
View/ Open
Author
Sartori, Sofia <2003>
Date
2024-07-09Data available
2024-07-11Abstract
Gli argomenti trattati in questa tesi sono l’intelligenza artificiale e la manipolazione psicologica. L’intelligenza artificiale viene delineata nel primo capitolo, il quale si focalizza sulle teorie antiche, sulle blackbox, sui meccanismi di machine e deep learning, sull’utilizzo vero e proprio di questa intelligenza artificiale, ed infine sulle intelligenze artificiali generative e predittive.
Il secondo capitolo tratta della manipolazione psicologica, partendo dalle sue origini e quindi dal concetto di manipolazione in generale, mettendo la manipolazione psicologica a confronto con la manipolazione dell’informazione e quella situazionale. Infine, viene estratto il concetto di potere aperto, potere nascosto, condizionamento, persuasione e gaslighting.
Il terzo capitolo tratta di tre casi in cui intelligenza artificiale e manipolazione psicologica sono andati a coincidere, spesso portando disinformazione. Il primo caso riguarda ChatGPT, il quale è uno strumento rivoluzionario, ma anche dannoso, poiché, dopo essere stato sottoposto a fake news, ha creato argomentazioni altrettanto false, nonostante esso abbia integrato un programma per la sicurezza e il controllo delle informazioni.
Il secondo caso analizzato è quello della Corea del Sud, dove, durante il periodo delle elezioni, è stato creato, tramite l’intelligenza artificiale, un avatar del leader democratico Yoon Suk-yeol. Si tratta quindi sia di un lavoro manuale poiché l’avatar è stato trasmesso su tutti gli apparecchi elettronici, sia un lavoro più profondo a livello mentale.
L’ultimo caso analizza come le informazioni, prima delle elezioni presidenziali, possano essere manipolate. Un caso noto è quello delle elezioni del 2020 dove un’agenzia russa chiamata “Internet Research Agency”, ha assunto dei giornalisti ignari di ciò che stava accadendo, per poter scrivere articoli contenenti informazioni false su Joe Biden. The topics covered in this thesis are artificial intelligence and psychological manipulation. Artificial intelligence is outlined in the first chapter, which focuses on ancient theories, blackboxes, machine and deep learning mechanisms, the actual use of this artificial intelligence, and finally on generative and predictive artificial intelligence.
The second chapter deals with psychological manipulation, starting from its origins and therefore from the concept of manipulation in general, comparing psychological manipulation with information manipulation and situational manipulation. Finally, the concept of open power, hidden power, conditioning, persuasion and gaslighting is extracted.
The third chapter deals with three cases in which artificial intelligence and psychological manipulation coincided, often leading to misinformation. The first case concerns ChatGPT, which is a revolutionary tool, but also harmful, since, after being subjected to fake news, it created equally false arguments, despite having integrated a program for information security and control.
The second case analyzed is that of South Korea, where, during the election period, an avatar of the democratic leader Yoon Suk-yeol was created using artificial intelligence. It is therefore both a manual work since the avatar has been transmitted on all electronic devices, and a deeper work on a mental level.
The latest case analyzes how information, before the presidential elections, can be manipulated. A well-known case is that of the 2020 elections where a Russian agency called the "Internet Research Agency" hired journalists who were unaware of what was happening, in order to write articles containing false information about Joe Biden.
Type
info:eu-repo/semantics/bachelorThesisCollections
- Laurea Triennale [1925]