Gli attori della minaccia collegati al governo cinese stanno sempre più impiegando l’intelligenza artificiale per mirare agli elettori negli Stati Uniti, a Taiwan e in altri Paesi del mondo che si stanno avvicinando sempre più a nuove elezioni, attraverso la disinformazione.
Mentre la disinformazione online, insieme ad altri tipi di ingerenza digitale, è da tempo una preoccupazione per la politica globale, il recente avvento di strumenti di intelligenza artificiale generativa facilmente accessibili rende il 2024 un vero banco di prova per questa tecnologia nella sfera politica.
Le campagne di disinformazione si svolgono principalmente sulle piattaforme dei più popolari social media, facendo leva sulle divisive questioni politiche interne e influenzando l’opinione pubblica.
Indice degli argomenti
L’ingerenza digitale della Cina: l’allarme Microsoft
Lo scorso 4 aprile, il colosso Microsoft ha pubblicato un nuovo rapporto relativo alle minacce informatiche in cui si identificano le tattiche combinate tra uso di strumenti e sistemi di intelligenza artificiale su piattaforme social.
In particolare, la multinazionale statunitense ha avvertito che la Cina – insieme alla Corea del Nord – potrebbe interferire nelle prossime elezioni negli Stati Uniti, in Corea del Sud, in India e a Taiwan, impiegando attori della “cyber-influenza” per promuovere i loro interessi geopolitici.
Per perseguire il suo scopo, la Cina utilizzerebbe account falsi, immagini falsificate e gruppi specializzati nella diffusione di informazioni e voci fuorvianti su funzionari e politici dei Paesi.
Microsoft ha aggiunto che gli account su X – alcuni dei quali creati più di un decennio fa – hanno iniziato a pubblicare nel 2023 contenuti inerenti all’uso di droghe americane, politiche sull’immigrazione e tensioni razziali, interagendo con l’audience online attraverso richieste di condivisioni di opinioni su candidati presidenziali per ottenere informazioni sul pensiero politico degli elettori americani.
In alcuni casi, tali pubblicazioni si basavano su un’intelligenza artificiale generativa “rudimentale” per le immagini pubblicate.
Disinformazione ed elezioni a Taiwan: i sospetti sulla Cina
Nel caso delle elezioni presidenziali a Taiwan del gennaio 2024, pare che la Cina abbia condotto una campagna significativa di contenuti ingannevoli generati dall’intelligenza artificiale sostenuta anche dal gruppo noto come Storm-1376, chiamato anche “Spamouflage” o “Dragon bridge”.
Infatti, il giorno delle elezioni, il gruppo ha pubblicato una falsa registrazione audio generata dall’intelligenza artificiale in cui il proprietario di Foxconn ed ex candidato alle elezioni, Terry Gou, sosteneva nella corsa un altro candidato.
Le tecniche usate per diffondere fake news
In un’intervista, Tom Burt, responsabile della sicurezza e della fiducia dei clienti di Microsoft, ha dichiarato che le operazioni di disinformazione della Cina sono diventate molto più attive negli ultimi sei mesi, rilevando un aumento di strumenti AI più sofisticati nelle elezioni presidenziali di gennaio a Taiwan, tra cui pubblicazioni di audio e meme di IA, i quali, ad esempio, accusavano il candidato presidenziale William Lai – sostenitore per l’indipendenza taiwanese dalla Cina – di appropriazione indebita di fondi governativi.
Inoltre, il gruppo ha utilizzato uno strumento di intelligenza artificiale chiamato CapCut, sviluppato da ByteDance, la società madre di TikTok, per creare e diffondere video con giornalisti inventati che diffondono voci salaci sulla vita personale di Lai, comprese le accuse di avere figli illegittimi.
Nonostante alcune piattaforme di social media hanno sviluppato e applicano policy specifiche sui contenuti dell’IA che risultano essere manipolati, data la recente comparsa di tali strumenti generativi, risulta ancora difficile affermare quanto siano efficaci.
Il rapporto di Microsoft descrive come i gruppi di influenza operino sui social media per esacerbare la polarizzazione degli elettori nelle elezioni, raccogliendo allo stesso tempo informazioni con indagini e sondaggi demografici.
Ad esempio, fra le domande poste risultavano: “Qual è la sua opinione sul fatto che gli Stati Uniti paghino 118 miliardi di dollari, più altri 20 miliardi per investimenti al confine tra America e Messico, e che iniettino 75 miliardi di dollari come pacchetto finanziario per sostenere Israele e l’Ucraina?“. Un’altra domanda chiedeva: “Qual è la sua opinione sull’incidente del jet da combattimento americano F-35 dello scorso anno nella Carolina del Sud?“.
Le preoccupazioni occidentali sul rischio crescente della disinformazione
A tal proposito, i funzionari dell’intelligence occidentale hanno detto di avere crescenti preoccupazioni su come gli strumenti di intelligenza artificiale potrebbero essere utilizzati per influenzare le elezioni di quest’anno con video ingannevoli o qualsiasi altro contenuto, incluso nel contesto delle elezioni presidenziali degli Stati Uniti del 2024.
Tra questi, gli ufficiali statunitensi vedono l’ascesa dell’influenza globale della Cina nelle operazioni di influenza come una preoccupazione a causa di tali attività in evoluzione e delle ampie risorse statali.
Gli esperti hanno affermato che i falsi clip audio generati dall’IA rappresentano una minaccia particolarmente grave perché sono relativamente facili da produrre e sono stati dimostrati di ingannare facilmente il pubblico.
Un rapporto annuale sulle minacce globali della comunità dell’intelligence degli Stati Uniti ha dichiarato che “anche se Pechino impone dei limiti a queste attività, individui non direttamente sotto la sua supervisione potrebbero tentare azioni di influenza elettorale poiché percepite in linea con gli obiettivi di Pechino“.
La risposta di Pechino alle accuse
Finora Pechino ha ripetutamente dichiarato di opporsi alla produzione e diffusione di informazioni false e che, al contrario, sono gli social media statunitensi ad essere invasi da disinformazione sulla Cina.
La crescente preoccupazione che vede una trasformazione del panorama dell’inganno elettorale deriva anche da una comparazione con le precedenti operazioni portate avanti dalla Russia e da altri gruppi di influenza.
Infatti, quest’ultimi spesso facevano affidamento su contenuti di massa e prodotti caratterizzati, ad esempio, da traduzioni errate, con errori grammaticali e idiomi abusati.
I sofisticati strumenti generativi di intelligenza artificiale probabilmente aiuterebbero a smussare tali difetti, rendendo i prodotti di disinformazione meno rilevabili e riconoscibili e potenzialmente più persuasivi.
Uno scenario ad alto rischio
Tom Burt di Microsoft ha dichiarato che gli attori statali russi mostrano ancora tattiche di disinformazione più impressionanti rispetto alla Cina nel complesso, ma che la Cina sta migliorando rapidamente, in parte a causa delle dimensioni dei suoi investimenti.
Il caso delle elezioni a Taiwan sono state le prime in cui si è riscontrato un notevole miglioramento della qualità delle immagini e delle informazioni utilizzate in tali operazioni.
In conclusione, l’uso di strumenti di intelligenza artificiale generativi più sofisticati da parte degli Stati e dei gruppi allineati allo stato per modellare l’ambiente dell’informazione politica non è solo imminente, ma sta già accadendo.