OpenAI, la principale società di sviluppo di intelligenza artificiale, ha rivelato in un dettagliato rapporto di 39 pagine pubblicato il 30 maggio scorso che negli ultimi tre mesi il suo laboratorio di ricerca ha individuato e interrotto cinque campagne online di disinformazione volte a manipolare l’opinione pubblica e influenzare i delicati equilibri geopolitici.
In particolare, nelle cinque operazioni di influenza segreta, sono stati utilizzati i modelli generativi di intelligenza artificiale per produrre brevi commenti o articoli in diverse lingue, con la creazione di diversi account sui social media per diffondere notizie false su argomenti quali l’invasione russa dell’Ucraina, il conflitto a Gaza, le elezioni in corso in India, la politica in Europa e negli Stati Uniti d’America e contro le critiche al governo cinese da parte di dissidenti politici.
Indice degli argomenti
Le campagne di disinformazione individuate da OpenAI
Due delle cinque campagne individuate da OpenAI sono da attribuirsi alla Russia.
La prima campagna, chiamata “Bad Grammar”, ha operato principalmente su Telegram avendo come target l’Ucraina, la Moldavia, i paesi baltici e gli Stati Uniti e utilizzando i modelli di OpenAI per eseguire il codice di esecuzione di un bot Telegram, creando commenti politici in russo e in inglese, diffusi poi in vari canali.
L’appellativo “Bad Grammar” le è stato attribuito a causa dell’inglese scadente con il quale venivano scritti e pubblicati gli stessi post e poiché in uno di essi era presente anche la dicitura “come modello linguistico A.I., sono qui per assistere e fornire il commento desiderato”.
Nella seconda campagna, invece, denominata “Doppelganger”, l’intelligenza artificiale è stata impiegata per tradurre e modificare articoli in inglese e francese, generare titoli e convertire notizie in post di Facebook per raggiungere un’interazione con un’audience più ampia.
Disinformazione online: il ruolo di Cina, Iran e Israele
Tuttavia, come dichiarato nel rapporto di OpenAI, gli sforzi profusi non sono stati condotti soltanto dalla Russia, bensì anche da attori statali e aziende private in Cina, Iran e Israele.
Lo stesso modello è stato seguito da una rete cinese nota come “Spamouflage”, la quale ha utilizzato la tecnologia di OpenAI per debuggare il codice, cercare consigli su come analizzare i social media e cercare eventi attuali.
Inoltre, gli strumenti della società di sviluppo di IA sono stati anche utilizzati per generare post sui social media che denigravano le persone che erano state critiche nei confronti del governo cinese.
Allo stesso modo, anche la campagna iraniana, associata ad un gruppo chiamato “International Union of Virtual Media”, ha utilizzato gli strumenti di OpenAI per produrre e tradurre articoli di lunghezza media e titoli che miravano a diffondere sentimenti pro-iraniani, antiisraeliani e antiamericani sui siti web.
L’indagine di OpenAI ha anche scoperto l’attività illecita di una società commerciale israeliana chiamata STOIC, che ha utilizzato modelli di intelligenza artificiale per generare articoli e commenti che sono stati poi pubblicati su varie piattaforme, in particolare Instagram, Facebook, X e siti web associati a questa operazione.
Secondo il rapporto di OpenAI, la campagna israeliana sarebbe stata gestita da una società di marketing politico di Tel Aviv, avvalendosi della tecnologia di IA per generare personaggi e biografie fittizie destinate a sostituire persone reali sui servizi di social media utilizzati in Israele, Canada e negli Stati Uniti e per pubblicare messaggi antislamici.
Sulla campagna israeliana anche Meta ha dichiarato di aver riscontrato e cancellato da Facebook falsi account che si presentavano come studenti di origine ebraica, preoccupati per la guerra a Gaza, che lodavano l’esercito israeliano e criticavano l’antisemitismo nelle università e l’agenzia di soccorso dell’ONU per i rifugiati palestinesi nella Striscia di Gaza.
Fake news: limiti e punti di forza nell’uso dell’IA generativa
Nonostante l’attuale intelligenza artificiale generativa possa contribuire a rendere le campagne più efficienti, gli obiettivi prefissati dagli attori coinvolti non sono riusciti a creare una disinformazione “convincente”, secondo molti esperti di IA e secondo la stessa OpenAI, la quale ha chiarito che “queste massicce operazioni di disinformazione sembra che non hanno beneficiato di un aumento significativo del coinvolgimento del pubblico o della portata come risultato dei nostri servizi finora”.
Tuttavia, è chiaro che l’intelligenza artificiale generativa è uno strumento in grado di aumentare notevolmente la qualità della disinformazione online.
Ben Nimmo, ricercatore principale del team di intelligence e investigativo di OpenAI, ha dichiarato che dopo tutte le speculazioni sull’uso dell’IA generativa in tali campagne, l’azienda mirava a mostrare la realtà di come la tecnologia stesse cambiando l’inganno online. “I nostri casi di studio forniscono esempi da alcune delle campagne di influenza più ampiamente riportate e di più lunga durata attualmente attive”, ha dichiarato.
Le campagne hanno spesso utilizzato la tecnologia di OpenAI per pubblicare contenuti politici, ma l’azienda stessa ha avuto difficoltà a determinare se stessero puntando a elezioni politiche specifiche o se fosse un tentativo soltanto di animare l’opinione pubblica su alcuni temi.
Allo stesso tempo, Graham Brookie, direttore senior dei Digital Forensic Research Labs dell’Atlantic Council, ha avvertito che il panorama della disinformazione online potrebbe cambiare con l’incremento della potenza della tecnologia dell’IA generativa.
Proprio nel mese di maggio, OpenAI, che produce il chatbot ChatGPT, ha dichiarato di aver iniziato ad addestrare un nuovo modello di artificial intelligence che porterà ad un livello di capacità ed efficienza maggiore.
Le attività di Meta nel contrasto alla disinformazione online
Il rapporto di OpenAI, che si caratterizza per essere il primo a rivelare che suoi strumenti sono stati impiegati in campagne di disinformazione, fa eco al rapporto trimestrale pubblicato mercoledì 29 maggio di Meta sulla minaccia.
Il rapporto di Meta ha affermato che molte delle operazioni segrete che ha recentemente subito hanno utilizzato l’intelligenza artificiale per generare immagini, video e testo, ma l’uso della tecnologia all’avanguardia non ha influenzato la capacità dell’azienda di interrompere gli sforzi per manipolare le persone.
Lo stesso rapporto sottolinea che, in tutti questi casi, l’intelligenza artificiale è incorporata nelle campagne di disinformazione per migliorare alcuni aspetti della generazione di contenuti, come la creazione di post in lingua straniera più convincenti, anche se non è l’unico strumento di propaganda.
“Tutte queste operazioni hanno utilizzato in una certa misura l’intelligenza artificiale, ma nessuna l’ha utilizzata esclusivamente”, afferma OpenAI, questo poiché il materiale generato dall’intelligenza artificiale è andato di pari passo con “formati più tradizionali, come testi scritti manualmente o meme copiati da Internet”.
Le tendenze nelle operazioni di influenza occulta
Sulla base delle indagini effettuate sulle operazioni di influenza dettagliate nel rapporto di OpenAI e del lavoro della comunità open-source, sono state identificate delle tendenze su come le operazioni di influenza occulta hanno recentemente utilizzato modelli di intelligenza artificiale:
- Content generation: tutti questi attori delle minacce hanno utilizzato i servizi per generare testi (e occasionalmente immagini) in volumi maggiori e con meno errori linguistici rispetto a quanto sarebbe stato possibile per gli operatori umani.
- Mixing old and new: tutte queste operazioni hanno utilizzato l’IA in una certa misura, ma nessuna l’ha utilizzata esclusivamente. Invece, il materiale generato dall’IA era solo uno dei molti tipi di contenuti che venivano pubblicati, accanto a formati più tradizionali, come testi scritti manualmente o, appunto, meme copiati da internet.
- Faking engagement: alcune delle reti che sono state interrotte hanno utilizzato i servizi di OpenAI per aiutare a creare l’apparenza di partecipazione sui social media, ad esempio, generando risposte ai post. Questo è diverso dall’attrarre partecipazione autentica, che nessuna delle reti in realtà è riuscita a fare in modo significativo.
- Productivity gains: molti degli attori delle minacce identificati hanno utilizzato i servizi nel tentativo di aumentare la produttività, come riassumere post sui social media o fare il debug del codice.
Conclusioni
A pochi giorni dalle elezioni europee, l’indagine condotta da OpenAI è un altro campanello d’allarme per un’UE che sembra essere preoccupata considerato che da gennaio l’Osservatorio dei media digitali (EDMO) dell’Unione europea ha rilevato una tendenza crescente nella disinformazione relativa alle politiche o alle istituzioni dell’UEE.
Fino ad aprile, tale tendenza, secondo l’Osservatorio, ammontava all’11% della disinformazione totale rilevata.