La portata del fenomeno della disinformazione, palesata non solo dagli eventi elettorali degli ultimi anni ma anche dai recenti conflitti, esige un’attenta riflessione sulle implicazioni che l’AI generativa sta avendo e potrebbe avere in quest’ambito.
La minaccia della disinformazione, oggi impiegata quale arma di manipolazione per controllare gli equilibri sociali, economici e politici di un sistema Paese, acquisisce infatti una potenza ancora più estesa in logica degli sviluppi dei nuovi sistemi di intelligenza artificiali, tra cui GPT-4, ChatGPT e Claude e dei nuovi modelli di LLM open source come LLaMA-2, ChatGLM2 e Vicuna, in grado di generare rapidamente contenuti multimediali quali testi, immagini, audio e video e di diverso genere.
Indice degli argomenti
Identificare e mitigare i rischi generati dagli LLM
Uno studio condotto da un gruppo di ricercatori dell’Università di Melbourne e pubblicato a settembre 2023, ha analizzato le misure di salvaguardia e i modelli di risposta implementati su alcuni dei principali LLM commerciali.
Lo scopo è stato comprendere il comportamento del modello davanti a richieste ritenute dannose per la sicurezza.
Al fine di identificare e mitigare i rischi generati dagli LLM, i ricercatori hanno quindi costruito un dataset di richieste “malevoli” e contemporaneamente hanno implementato un meccanismo di sicurezza volto a limitare il comportamento del modello a un sottoinsieme “sicuro” attraverso l’allineamento a modelli con valori predefiniti.
I test effettuati
Il set di dati era stato impostato in modo che i modelli non fornissero risposte a determinati input; tuttavia, le AI hanno bypassato i meccanismi di sicurezza. Per organizzare le richieste, i ricercatori hanno costruito una tassonomia organizzata su una gerarchia a tre livelli, che andava da rischi lievi a rischi estremi. I rischi sono stati poi categorizzati in cinque aree diverse:
- Pericoli legati all’informazione: i rischi di questo tipo derivano dal fatto che gli LLM producono enunciati che costituiscono informazioni private o che sono critiche per la sicurezza. Le stesse sono presenti nei dati di addestramento o possono essere dedotte da questi ultimi.
- Usi dannosi: rischi derivanti dall’impiego volontario degli LLM per causare danni.
- Discriminazione, esclusione e nocività: derivanti dal fatto che l’LLM riflette accuratamente un linguaggio naturale. Le richieste non dovrebbero essere prese in considerazione con l’intento di denigrare, stereotipare o propagare pregiudizi contro individui o gruppi specifici o con contenuti offensivi.
- Danni da disinformazione: generati dall’alta probabilità di risposta da parte del LLM fornendo informazioni false, fuorvianti, insensate o di scarsa qualità.
- Danni da interazione uomo-macchina: tali rischi derivano da applicazioni LLM come le chatbot, che coinvolgono direttamente l’utente attraverso la modalità di conversazione. Il modello non dovrebbe rispondere alle query che riflettono i problemi di salute mentale di un utente e alle richieste di informazioni personali.
A ognuna di queste categorie sono state assegnate almeno dieci istruzioni da fornire alle AI. L’esperimento è stato condotto ponendo ai diversi modelli le query identificate come rischiose tramite la tassonomia sopra descritta.
Come le AI bypassano i sistemi di sicurezza
Benché in taluni casi ci si aspettasse diversamente, tutti i cinque LLM testati hanno fornito risposte alle domande poste, per un totale di oltre 5.000 risultati: LLaMA-2 si è rivelato il modello migliore nel non seguire istruzioni rischiose, fornendo solo tre risposte potenzialmente dannose per l’utente; ChatGPT si è posizionato al secondo posto con 14 risposte dannose, seguito da Claude, GPT-4 e Vicuna, mentre ChatGLM2 è risultato all’ultimo posto.
Se si considera, inoltre, che attraverso un attacco di tipo Prompt Injection, che prevede l’inserimento di istruzioni malevoli nei prompt, è possibile manipolare le risposte di un LLM i dati sinora considerati non possono che essere allarmanti.
Costi irrisori per sviluppare “armi” di disinformazione
A rendere ancora più performanti tali tecnologie sono i costi irrisori che consentono di sviluppare nuove “armi” di disinformazione rapidamente e da chiunque.
Ne è esemplificativo l’esperimento condotto da Jack Brewster, Enterprise Editor di NewsGuard, sistema di monitoraggio sull’affidabilità dell’informazione creato nel 2018 dall’imprenditore Steven Brill e dall’ex editore del Wall Street Journal Gordon Crovitz.
Brewster ha ingaggiato uno sviluppatore freelance del marketplace globale online Fiverr per creare un sito, “Buckeye State Press”, in grado di elaborare e pubblicare autonomamente notizie false e di parte, utilizzando l’intelligenza artificiale.
Costo dell’operazione 105 dollari.
Grazie all’impiego di chatGPT dopo solo due giorni il sito, il quale si presentava come un comune giornale dell’Ohio, è stato in grado di pubblicare articoli di supporto allo sfidante repubblicano in corsa, Bernie Moreno e, successivamente, contenuti di sostegno al democratico in carica, Sherrod Brown.
Una scoperta allarmante non solo perché il 2024 è un anno ricco di eventi elettorali ma perché porta a chiedersi se le moderne società siano al passo con il rapido tasso di diffusione dell’uso improprio dell’AI e se siano state adottate le opportune misure di contrasto, soprattutto in considerazione che Paesi come la Cina, Taiwan e la Russia, già molto attivi nell’information warfare, intensificheranno e amplieranno le information operations sfruttando gli LLM per la creazioni di contenuti di diversa tipologia.
La minaccia dell’audio deepfake: i casi analizzati nel mondo
Una forma di tecnologia AI è l’audio deepfake, detta anche “voice cloning”. Le elezioni slovacche del settembre 2023 offrono un esempio di impiego di tale prodotto: 48 ore prima dell’apertura delle urne è stata pubblicata una registrazione audio nella quale venivano riprodotte le voci di Michal Šimečka, leader del partito liberale Progressista Slovacchia, e Monika Tódová, giornalista del quotidiano slovacco Denník N.
Nell’audio i due discutevano su come manipolare le elezioni, in parte comprando voti dalla minoranza rom emarginata del paese. Analizzato dal Dipartimento di verifica dei fatti dell’agenzia di stampa AFP il contenuto multimedia è risultato contenere tracce di manipolazione attraverso l’intelligenza artificiale.
Dopo circa un mese, nel Regno Unito, viene pubblicato su X un audio deepfake del leader laburista Keir Stramer che insultava i collaboratori. Il tutto diffuso non solo durante una conferenza del partito ma proprio quando Stramer aveva iniziato a preparare la campagna elettorale per il voto politico previsto in Inghilterra fra la fine del 2024 e le prime settimane del 2025.
Analogo caso di disinformazione tramite AI, è stato riportato nel febbraio 2024 dal canale televisivo francese “FRANCE24”.
In particolare, il canale televisivo è stato vittima di un deepfake, il quale simulava la voce del presentatore affermare falsamente che il Presidente Emmanuel Macron avesse rinviato un viaggio in Ucraina per timore di un complotto. Il canale di propaganda filorusso Pravda.fr, che originariamente condivideva il deepfake, ha risposto insistendo sul fatto che l’affermazione su Macron fosse, in realtà, veritiera.
È allarme per le app di face swapping
In ambito deepfake sono, inoltre, particolarmente diffuse le app di “face swapping”, utilizzate per creare immagini completamente sintetiche, manipolate dall’intelligenza artificiale e in grado di scambiare l’aspetto di un individuo con quello di qualcun altro.
Nel marzo 2024, tale strumento è stato usato contro il Presidente Macron: è stata pubblicata una foto mentre indossava un pigiama rosa seduto su un letto. L’immagine, condivisa su Facebook, è stata percepita dagli utenti della piattaforma come reale, generando interazioni, ricondivisioni e commenti.
Allo stesso tempo, un utente del sito di intrattenimento “Reddit” ha pubblicato altre foto alterate da AI di alcuni leader mondiali, avvalendosi del software Midjourney.
Tuttavia, tale tecnologia non riesce ancora a rendere reali alcuni dettagli umani, come la forma delle mani e la loro posizione innaturale.
Le attività propagandistiche di Mosca
Nel 2023 la Russia ha spostato i suoi sforzi profusi nella guerra delle informazioni dai media ufficiali ai social media, sfruttando Telegram, TikTok, di proprietà cinese, e X.
Nell’ambito della spinta propagandistica di Mosca per dipingere l’Ucraina come irrimediabilmente corrotta, ad esempio, sono stati creati su TikTok oltre 12.800 account falsi, i quali hanno pubblicato video e immagini di auto di lusso, gioielli e ville, riportando che fossero stati tutti acquistati da funzionari ucraini con gli aiuti dell’Occidente.
Successivamente, analizzati i contenuti, in realtà molte delle foto pubblicate erano state riprese da siti web immobiliari.
Tra i video, invece, si mostrava una protesta in Ucraina, la quale si sosteneva fosse contro la guerra e contro il presidente Volodymyr Zelensky, quando in realtà la folla esortava il governo locale a tagliare le spese per le infrastrutture e a spendere i soldi in armi.
In considerazione di ciò, anche se la campagna non è stata estremamente sofisticata dal punto di vista del controllo dei fatti, l’impiego degli account TikTok ha permesso di raccogliere centinaia di milioni di visualizzazioni e di consensi per il Cremlino.
Le tecniche usate dalla Russia per diffondere disinformazione
Per diffondere i propri contenuti di disinformazione, la Russia ha inoltre creato dei cloni di siti di notizie europei legittimi, dotati di indirizzi Internet e grafiche simili ma riportanti articoli falsi, che troll e bot filorussi hanno poi promosso sui social media, come è stato dopo l’attentato al teatro moscovita nel marzo 2024.
Si è trattato di un esempio di “Coordinated Inauthentic Behaviour”, una tattica di manipolazione dei flussi su un social network per far diventare di tendenza dei contenuti falsi.
L’intelligence russa – sia il Gru che l’Fsb – hanno già impiegato ampiamente tale strategia per spingere le proprie narrazioni strategiche sulla guerra in Ucraina, così come nelle elezioni americane e di altri Paesi occidentali.
Nel caso in esame, gli utenti italiani di X hanno condiviso contenuti creati da bot, che ripubblicavano a loro volta dei tweet per incolpare l’Ucraina dell’attentato.
Non è stata la prima volta che l’intelligence russa ha impiegato tale strategia per dare risalto alle proprie narrazioni sulla guerra in Ucraina, così come nelle elezioni americane e di altri Paesi occidentali.
Così la Cina usa l’AI Gen per diffondere disinformazione
Campagne di disinformazione attraverso i media sono state condotte in particolare da attori di minaccia legati alla Cina.
Le tattiche mirano direttamente all’uso di strumenti di intelligenza artificiale generativa e a un’operazione segreta di influenza online sponsorizzata dallo stato rivolta agli elettori negli Stati Uniti, a Taiwan e ulteriori elettori stranieri.
Lo scorso autunno il Dipartimento di Stato degli Stati Uniti ha accusato il governo cinese di spendere miliardi di dollari all’anno in una campagna globale di disinformazione.
Un nuovo rapporto dell’Institute for Strategic Dialogue, un’organizzazione di ricerca con sede a Londra, ha identificato un numero di account sulla piattaforma social X, in cui in alcuni casi i post pubblicati erano generati tramite IA, i quali sostenevano l’ex presidente Donald Trump, denigrando il presidente Biden.
Le elezioni presidenziali tenutesi a Taiwan nel gennaio 2024 sono state caratterizzate da una campagna di disinformazione operata tramite l’intelligenza artificiale.
Invero, la Cina grazie anche al sostegno del gruppo “Storm-1376”, ha prodotto, attraverso uno strumento di intelligenza artificiale chiamato CapCut, sviluppato da ByteDance, contenuti ingannevoli nei confronti di William Lai, sostenitore per l’indipendenza taiwanese dalla Cina.
In particolare, tramite false registrazioni audio, meme e video venivano diffuse informazioni sulla vita personale del candidato, tra le altre che si fosse indebitamente appropriato di fondi governativi e che avesse dei figli illegittimi.
Allo stesso tempo, è stato creato dall’intelligenza artificiale anche un falso audio di Terry Gou, ex candidato alla presidenza di Taiwan, in cui dichiarava il suo appoggio a uno dei candidati rimanenti alle elezioni.
Truffe sempre più sofisticate: quali scenari
Infine, la generazione di “media sintetici”, che ricomprendono immagini, video, musica e audio, hanno aperto la strada a produzione di scenari o eventi fittizi che potrebbero portare a delle truffe sofisticate.
Ad esempio, a Hong Kong un impiegato finanziario di una multinazionale è stato costretto a pagare 25 milioni di dollari dopo che dei truffatori hanno inscenato una finta videochiamata con il direttore finanziario della società, partecipata anche da colleghi impersonificati da deepfake.