Le Ia possono essere utilizzate per manipolare l’opinione pubblica attraverso campagne di disinformazione mirate
In questi giorni ricorre l’anniversario di uno degli eventi più drammatici dello scorso secolo. Il 6 agosto 1945, la città di Hiroshima fu la prima a subire l’attacco nucleare che cambiò per sempre la storia dell’umanità. Quel giorno, oltre 140mila persone persero la vita e la città fu ridotta in cenere. Da allora, Hiroshima è diventata un simbolo della sofferenza causata dalla guerra e della necessità di costruire una pace duratura.
Perché citare queste pagine buie e tristi della storia? Perché ricordare questi eventi che ancora ci fanno soffrire o ci scandalizzano? Potremmo pensare che il motivo sia nel fatto che il computer, che oggi rende possibile le Ia, e la realizzazione della bomba atomica sono strettamente legate: il computer ha svolto un ruolo fondamentale nel Progetto Manhattan durante la Seconda guerra mondiale. In realtà, quello che qui ci interessa è mostrare la natura metaforica di questi tristi eventi per lo sviluppo tecnologico di oggi delle intelligenze artificiali: possiamo estrapolare una ulteriorità di senso in una continuità di significato.
Le Ia generative sono di fatto macchine culturali
Le intelligenze artificiali generative, l’ultima frontiera dell’uso del computer, producendo artefatti linguistici e immagini, sono di fatto macchine culturali, macchine cioè in grado di alterare il funzionamento basilare con cui la nostra specie collabora, fa scoperte ed evolve culturalmente. Se con il linguaggio abbiamo costruito un noi culturale, purtroppo a volte abbiamo anche costruito un tu/voi che abbiamo caratterizzato come nemico. La “costruzione del nemico” è un concetto esplorato da Umberto Eco in un suo libro omonimo, in cui si analizza il bisogno umano e sociale di identificare e creare nemici. Secondo Eco quando un nemico reale non esiste, la società tende a costruirlo artificialmente: la diversità crea diffidenza e paura, portando alla creazione di categorie di nemici che cambiano a seconda dei tempi e delle culture ma sono stati sempre espressi come offese e condanne, indicando razza, religione o scelte di vita individuali. Questo a volte è diventato un modo per creare un nemico che abbiamo iniziato a considerare come meno che umano. Nei regimi totalitari, la costruzione del nemico è spesso una strategia deliberata per consolidare il potere e persuadere la popolazione a riconoscere e combattere questi nemici. Nel contesto contemporaneo, in un mondo globale come il nostro, in cui la disuguaglianza e le diverse prospettive geopolitiche tendono, con il potere dell’uso strumentale delle reti sociali digitali, a polarizzarci assistiamo al canalizzare le nostre paure in una forma nuova e inusitata.
L“infodemia” rende difficile distinguere tra informazioni vere e false
Se “costruire il nemico” è il processo attraverso il quale le società creano figure antagoniste per rafforzare la propria identità e coesione interna, spesso sfruttando la paura e la diffidenza verso il diverso, oggi le intelligenze artificiali generative potrebbero essere un motore instancabile e una fonte inesauribile di materiale per chi vuole costruire nuovi nemici. Le Ia generative, come i modelli di linguaggio avanzati, possono creare contenuti falsi molto realistici, inclusi testi, immagini e video. Questo fenomeno, noto come “infodemia”, rende difficile distinguere tra informazioni vere e false, minando la fiducia pubblica nelle fonti di informazione e destabilizzando le società. La diffusione di fake news può alimentare tensioni sociali e politiche, portando a conflitti e disordini.
Le Ia possono essere utilizzate per manipolare l’opinione pubblica attraverso campagne di disinformazione mirate. Ad esempio, i deepfake possono creare video falsi di leader politici, influenzando elezioni e decisioni politiche. Questo tipo di manipolazione può erodere la democrazia e favorire regimi autoritari che utilizzano l’Ia per censurare e controllare le informazioni.
La capacità delle Ia di generare contenuti falsi può erodere la fiducia nelle istituzioni e nei media. Questo clima di sospetto può portare a una polarizzazione sociale, dove le persone non sanno più a chi credere, aumentando il rischio di conflitti interni.
A rischio il collante del nostro convivere
Tecnologie di questo tipo hanno il potere non di fondere e distruggere le strutture in cemento e mattoni in cui abitiamo, come l’atomica, ma, in maniera non meno distruttiva, lo stesso collante del nostro convivere. Le intelligenze artificiali generative possono fondere la nostra stessa capacità di convivenza, erodendo la fiducia nell’altro e trasformandoci in nemici. Se immaginiamo la cultura come un metaforico software che ci consente di collaborare tra individui, dobbiamo riconoscere che fuori da ogni controllo etico, le Ia generative hanno il potere di hackerare il nostro sistema operativo. L’approssimarsi dell’anniversario dei fatti di Hiroshima ci ricorda quindi che ci troviamo sempre di fronte al rischio di trasformare in arma i nostri utensili e che per poter rilasciare nei contesti sociali questi strumenti abbiamo bisogno di dotarli di guardrail etici o, nella prospettiva di chi scrive, dobbiamo riconoscere che abbiamo bisogno di algoretica.