Il fenomeno dilagante della disinformazione viene sfruttato dai grandi Paesi della Terra per sfidarsi a colpi di fake news al fine di influenzare l’opinione pubblica, ad esempio depistandola in caso di elezioni presidenziali o in caso di conflitto, e destabilizzare gli equilibri geopolitici, già precari da tempo.
Un esempio di campagne di disinformazione che hanno agito e ancora oggi agiscono sull’opinione sul conflitto russo-ucraino e sulle elezioni statunitensi 2024 è quello legato alle troll farm legate a Yevgeny Prigozhin, leader del gruppo paramilitare della Federazione Russa Wagner, ex galeotto diventato miliardario ed eroe della Russia per le battaglie in Ucraina e poi ribellatosi al potere del Cremlino, tra l’altro ancora attive nonostante Prigozhin sia morto da qualche tempo.
Indice degli argomenti
AI a sostegno della disinformazione
Ad acuire il fenomeno sicuramente lo sviluppo della tecnologia AI, che può essere sfruttata per alimentare contenuti falsi e la loro conseguente diffusione.
È il caso dei video intitolati “La storia segreta di Tsai Ing-wen” apparsi a gennaio scorso su YouTube, Instagram, X e altre piattaforme social: parliamo di centinaia di video, in vista delle elezioni di Taiwan. In questi video i conduttori dei tg, in lingua inglese e cinese, hanno rilasciato una serie di affermazioni non veritiere sulla presidente uscente Tsai e sul suo partito e il giorno delle elezioni, il 13 gennaio, è stato condiviso un audio del candidato ritiratosi in corsa a novembre, Terry Gou, in cui quest’ultimo sembrava sostenere il candidato del partito KMT favorevole alla Cina, ma in realtà Gou non aveva fatto alcun endorsement del genere.
Dietro alla creazione di questi contenuti sicuramente il gruppo di propaganda sostenuto dallo Stato cinese Spamouflage, Dragonbridge e Storm-1376 e l’uso dell’intelligenza artificiale. Come riportato dagli studiosi di Threat Intelligence di Microsoft, questa è stata la prima volta in cui uno Stato nazionale ha influenzato l’elezione straniera attraverso materiale generato da intelligenza artificiale.
L’applicazione per la realizzazione dei contenuti, tra l’altro, è stata CapCut, di produzione di ByteDance, casa madre di TikTok. Il caso delle elezioni di Taiwan è eloquente sulla situazione attuale dominata da disinformazione e social media intrisi di informazioni con lo scopo di ingannare gli utenti provenienti da governi stranieri.
L’evoluzione della disinformazione
Mentre alcuni governi, da Taiwan a Svezia e Brasile, si sono attivati con politiche specifiche mirate alla lotta alla disinformazione, i ricercatori di tutto il mondo stanno studiando a fondo il fenomeno e come opera attraverso le reti di disinformazione, per facilitarne l’identificazione e il controllo.
Come ogni fenomeno, anche quello della disinformazione si sta evolvendo. L’ex giornalista Amil Khan, attraverso il progetto Valent Projects, di cui è CEO, ha notato che per diversi anni la disinformazione si è sviluppata attraverso il controllo da parte di un unico software di centinaia o anche migliaia di account sui social media per diffondere lo stesso messaggio o link oppure per mettere like o condividere determinati post.
Il cosiddetto CIB, che sta per comportamento inautentico coordinato, riesce ad ingannare gli algoritmi di curatela di un social network facendogli credere che quel punto di vista sia di interesse massivo e promuovendo, quindi, quei post specifici agli utenti reali, i quali, a loro volta, sono indotti a diffonderli tra i propri follower.
Le operazioni CIB sono facilmente individuabili, infatti, la stessa Meta riesce a chiuderle rapidamente, come dimostrato dall’ultimo suo rapporto di chiusure di CIB, da cui emerge anche che le prime reti CIB con obiettivo l’Ucraina erano semplici e potevano essere ricondotte ai servizi segreti russi.
Dal 2022 si è assistito ad un’evoluzione delle campagne di disinformazione, che, controllate ora da società di marketing o troll farm senza legami diretti con lo Stato, pubblicano su social network e piattaforme di blogging e creano interi siti web falsi.
L’organizzazione americana che monitora la disinformazione, la NewsGuard, ha individuato da maggio 2023 un aumento di siti di notizie generati dall’intelligenza artificiale che condividono informazioni fuorvianti, solitamente contenenti articoli innocui generati dall’AI con all’interno disinformazione, da 49 a 802.
Quelli che Khan chiama “seeder”, siti e account con tanti follower deputati a diffondere la notizia falsa, normalmente si creano il proprio seguito condividendo contenuti popolari su calcio o donne poco vestite e poi iniziano a mescolare la disinformazione.
Nei paesi meno agiati in cui gli esperti di tecnologia scarseggiano, esiste un’industria artigianale che crea account di diffusione da vendere ai malintenzionati una volta raggiunti i 100.000 follower.
Questi account di diffusione, che Khan chiama “spreader”, sono difficili da individuare in quanto non sono loro a creare disinformazione, ma si occupano solo di diffonderla, e in più mescolano i contenuti falsi con quelli veri.
Questo approccio è stato utilizzato dalla Russia, ad esempio, per distribuire disinformazione in Europa e per promuovere materiale di estrema destra in Gran Bretagna, in questo caso sfruttando inizialmente gossip sulla famiglia reale inglese per attirare follower.
La lotta alla disinformazione
È bene sottolineare che l’intelligenza artificiale, così come viene utilizzata per creare disinformazione, rappresenta anche uno strumento di difesa da essa.
Valent Projects, infatti, ha un sistema chiamato Ariadne, che raccoglie i feed dalle piattaforme social e cerca narrazioni e sentimenti comuni per individuare azioni insolite e coordinate. In questo modo, rispetto ai modelli passati che si basavano sulle keyword, si riesce a lavorare sul sentiment. Darpa, Defense Advanced Research Projects Agency, l’agenzia governativa che si occupa di progetti speciali del Dipartimento della Difesa americana, porta avanti ricerche nell’ambito del suo programma di Semantic Forensics per sviluppare strumenti di difesa sempre più all’avanguardia.
Altro modo per l’identificazione degli spreader, come descritto da un lavoro del think-tank americano Brookings, consiste nell’iniziare lavorando a mano, poi addestrando un algoritmo classificatore, che individua le caratteriste simili dei vari account, ad esempio l’attività di pubblicazione, lo schema dei follower, l’uso di particolari hashtag, la data di creazione dell’account eccetera.
In seguito, questa identificazione viene replicata attraverso la sola analisi della rete, esaminando solo la loro relazione con altri account o il contenuto dei post. I ricercatori, così, riescono anche a prevedere quali account sono potenziali distributori di disinformazione.
Anche questo metodo potrebbe sfruttare forme avanzate di AI, come l’elaborazione del linguaggio naturale o il deep learning, per migliorare l’algoritmo.
Se da una parte le aziende tecnologiche stanno adottando questo tipo di analisi già da un po’, la stessa Meta sostiene di utilizzare l’AI da diverso tempo per proteggere gli utenti, dall’altra parte gli accademici rispondono che un unico metodo per rilevare automaticamente la disinformazione non è sufficiente, dato che ogni campagna ha sue caratteristiche specifiche che la distinguono dalle altre.
La combinazione di più strumenti e metodi è sicuramente una scelta vincente. Per riconoscere se il video di un politico è autentico o meno, è possibile addestrare un modello di intelligenza artificiale che sappia individuare un deepfake sospetto, imparando le sue caratteristiche, come l’inclinazione della testa e i movimenti facciali, e insieme ad altre tecniche specifiche si può arrivare anche a rilevare il battito cardiaco da un video, aspetto molto difficile da falsificare.
Un nuovo rischio
Accanto alla disinformazione la misinformazione, ossia la diffusione di informazioni errate in maniera inconsapevole, entrambe tra i maggiori rischi globali dei prossimi due anni, anche più pericolosi di conflitti militari, condizioni metereologiche estreme e inflazione, come dichiarato dagli esperti di sicurezza al World Economic Forum.
Saadia Zahidi, Managing Director del WEF, ha affermato, infatti, che “Un ordine globale instabile, caratterizzato da narrazioni polarizzanti e da insicurezza, l’aggravarsi degli impatti degli eventi climatici estremi e l’incertezza economica stanno accelerando lo sviluppo di alcuni rischi, come quelli legati alla misinformazione e alla disinformazione […] I leader mondiali devono unirsi per affrontare le crisi a breve termine e allo stesso tempo gettare le basi per un futuro più resiliente, sostenibile e inclusivo”.