Nel 2024, il panorama politico globale è caratterizzato da un evento senza precedenti con 83 elezioni nazionali previste in 78 paesi, di cui molti geopoliticamente critici come Stati Uniti, Regno Unito, Corea del Sud, India, Unione Europea, Pakistan, Bielorussia, Messico, Georgia e Indonesia.
Questo massiccio afflusso di attività elettorali rappresenta un’opportunità senza precedenti per gli attori del cyberspazio: un’occasione di alterare decisioni future ed equilibri politici non solo di gran parte dell’occidente, ma anche di intere aree geografiche critiche per i futuri equilibri geopolitici.
Queste ingerenze costituiscono una grave minaccia all’integrità dei processi democratici e, ad oggi, si manifestano attraverso due principali tipologie di fenomeni:
- interferenze dirette: intendiamo operazioni cyber volte ad interferire nei processi elettorali, dalle estorsioni cibernetiche, agli attacchi Denial of Service (DDoS) alle infrastrutture elettorali, alle violazioni, compromissioni e vandalizzazioni di siti web elettorali, fino al furto di informazioni da organizzazioni politiche, fondazioni e think-thank;
- operazioni di influenza: qui parliamo invece di operazioni che mirano a creare crepe nella società esacerbando estremismi e posizioni funzionali agli interessi politici di chi le orchestra. Fake news, meme e contenuti che suscitano indignazione la fanno da padrone, veicolati da organizzazioni specializzate nella loro creazione e diffusione tramite social.
Indice degli argomenti
Le operazioni di influenza
Parte dello schema della guerra ibrida, le operazioni di influenza sono, di fatto, campagne di diffusione di contenuti destabilizzanti per una società nazionale.
Informazioni false, appositamente “impacchettate” per sfruttare i bias cognitivi umani e sedimentarsi nelle menti di milioni di persone, a prescindere dal livello culturale. Informazioni che, con adeguata persistenza, diventano convinzioni irremovibili e assolutistiche, capaci di portare a veri e propri scontri nei tessuti sociali di intere nazioni.
Ma come si manifesta esattamente questo tipo di “operazioni”?
Un esempio concreto ce l’hanno documentato gli analisti di Intelligence francesi del Segretariato Generale della Difesa. A Febbraio 2024, il SGDSN (General Secretariat of Defense and National Security) ha pubblicato un rapporto su di una rete di influenza ribattezzata con il nome “Portal Kombat”: un sistema composto da 193 “portali di informazione”, tutti con caratteristiche simili tra loro, e che trasmettono contenuti filorussi ad un pubblico internazionale.
I siti ritrasmettevano in massa pubblicazioni provenienti principalmente da tre tipi di fonti:
- account di social network (VK e Telegram) di attori russi o filorussi;
- agenzie di stampa russe;
- siti ufficiali di istituzioni o attori locali/regionali.
In totale, e in meno di tre mesi, i portali hanno pubblicato 152.464 articoli falsi, oltre 1.600 al giorno, con una costanza tale da essere riusciti ad arrivare alle prime pagine delle ricerche di Google.
In particolare, la rete diffonde contenuti politici che elogiano, tra le altre cose, i meriti della cosiddetta “operazione militare speciale” di Putin. Oltre a questo, erano numerosi anche i contenuti che promuovevano i servizi segreti russi, compreso l’FSB.
In questo caso, il collegamento con il Cremlino è stato particolarmente netto. Gli analisti del SGDSN hanno ricondotto i portali a una società russa con sede in Crimea: “TigerWeb”. Creata nel 2015, TigerWeb è una società di sviluppo web il cui uno dei fondatori, Evgueni Chevtchenko, sviluppa e mantiene siti web di questo tipo almeno dal 2013.
In aggiunta, il report francese indica che le modalità operative o i contenuti diffusi dalle reti di TigerWeb presentano forti somiglianze con quelli diffuse dalla rete “Inforos”, rete di influenza antecedente operata dai servizi segreti russi (GRU’s 72nd Main Intelligence Information Center), consentendo così di formulare l’ipotesi secondo cui la società TigerWeb fungerebbe da proxy per conto di un operatore statali.
Chi sono gli attori dietro la disinformazione?
A oggi, sono tre i principali attori che stanno conducendo operazioni di influenza ai danni dell’occidente, e sono particolarmente pericolosi e strutturati.
Il ruolo della Russia nella diffusione di fake news
La Russia è storicamente l’attore politico che come dottrina usa più di tutti operazioni di influenza. Negli ultimi decenni lo sta facendo sempre con maggiore veemenza, basti pensare alle campagne di disinformazione sul Covid-19 che hanno colpito milioni di cittadini Italiani ed Europei, e che poi, come riporta l’Osservatorio Europeo dei Media Digitali (EDMO), la Russia ha convertito con campagne anti-NATO dopo l’invasione Ucraina.
Tant’è che proprio a febbraio scorso, dopo la pubblicazione dei rapporti di intelligence su “Portal Kombat”, il Ministro degli esteri francese ha direttamente accusato la Russia di aver messo in piedi il network di disinformazione per “distruggere l’unità Europea” e “scoraggiare le nostre democrazie” nel supportare l’Ucraina.
Oltre a questo, il network incriminato ha reso virali fake news per confondere i votanti, screditare certi candidati, ed ostacolare persino le Olimpiadi di Parigi.
La disinformazione che viene dalla Cina
La Cina è un attore più giovane nel campo della disinformazione ma altrettanto pericoloso e in rapida evoluzione.
Come la Russia, le sue mire si estendono anche in Europa, ma la condizione geopolitica attuale fa sì che parte delle operazioni di disinformazione siano mirate a Stati Uniti ed al contesto Asiatico.
Ad esempio, l’unità di Intelligence Cibernetica di Microsoft ha riportato che il gruppo hacker Storm-1376 affiliato al Ministero Cinese di Pubblica Sicurezza, ha distribuito contenuti falsi generati con intelligenza artificiale attraverso una rete di 175 siti web in più di 58 lingue, utilizzati per coprire eventi geopolitici di alto profilo come gli incendi alle Hawaii del 2023: instaurando una narrazione per la quale “un’arma meteorologica” del governo statunitense avrebbe causato gli incendi alle Hawaii.
L’interferenza e l’influenza dell’Iran
Anche l’Iran è un attore di interferenza e influenza molto pericoloso e sta già operando anche in Europa.
Basti pensare agli attacchi informatici del luglio 2023 in Albania che hanno portato allo stallo diplomatico tra i due paesi, ma non solo: l’Iran sta conducendo operazioni di influenza anti-semita e anti-israeliana a valle dell’attacco di Hamas del 7 ottobre 2023.
I numeri sono preoccupanti, dopo poche settimane infatti, sono stati individuati oltre 40mila account falsi sui social che hanno viralizzato contenuti propagandistici antisraeliani raggiungendo e manipolando le menti di milioni di persone con false, ma verosimili, informazioni per esacerbare le posizioni e alimentare rotture sociali sempre più profonde.
Le operazioni di interferenza
Una delle domande che spesso viene fatta quando si studiano le operazioni di interferenza dirette è il come queste azioni siano collegate con le manipolazioni dell’opinione pubblica e le operazioni di influenza.
È chiaro, non tutti gli attacchi informatici sono diretti a influenzare l’opinione pubblica. Tuttavia, alcuni hackeraggi e attacchi diretti, oltre a danneggiare i loro bersagli, sono mirati a reperire informazioni che possono essere “impacchettate” per creare fake news più verosimili, oppure utilizzate come strumento di ricatto nei confronti di personalità influenti, o addirittura come leva per campagne scandalistiche.
Scenari tutt’altro che remoti: ricordiamo, infatti, il ruolo che hanno avuto gli hackeraggi da parte di attori filorussi ai server di posta di Hillary Clinton prima delle elezioni americane del 2017, i cui contenuti sono stati politicamente utilizzati per indebolire la presa della candidata democratica, in favore di Trump.
Tuttavia, non dobbiamo cadere nella fallacia di pensare che il problema di queste operazioni sia limitato al continente americano. Non senza ragione, queste operazioni sono indicate da ENISA (Agenzia di Cyber Security Europea) tra le principali minacce per il 2024.
Negli ultimi anni, infatti, ci sono decine di casi di attacchi informatici utili a influire nei tessuti decisionali dell’ecosistema Europeo. Ad esempio:
- Nel 2022, la Croce rossa internazionale in Svizzera è stata presa di mira: i server che ospitavano dati personali appartenenti a più di 515.000 persone in tutto il mondo erano stati attaccati da un sofisticato attacco informatico. Tuttavia, le investigazioni cibernetiche condotte dall’ente hanno escluso l’attacco ransomware e l’operazione è stata attribuita ad attaccanti “state-sponsored”, ovvero gruppi al soldo di interessi governativi.
- Nel 2023, la piattaforma di intelligence doubleextortion.com ha segnalato un’operazione di attacco singolare in Bulgaria: il più importante partito politico atlantista del paese è stato colpito da una estorsione cibernetica. L’attacco, per molti, è passato in sordina, ma considerando il contesto politico bulgaro, è davvero preoccupante. Il paese, da anni, ha un contesto politico turbolento con varie crisi di governo, tant’è che oggi ha persino un governo tecnico. Tuttavia, l’attacco è avvenuto nell’agosto del 2023 ed il partito colpito, Cittadini per lo Sviluppo Europeo, di orientamento conservatore e liberale fondato, era guidato da Bojko Borisov, convinto pro-Europeista e pro-Atlantista che l’anno prima aveva vinto le elezioni con maggioranza netta del 25.4%. L’attacco è stato attribuito all’ecosistema criminale Russo di LockBit, infiltrato dai servizi segreti russi.
- In Italia, nel dicembre 2022, è stato hackerato il Centro Turistico Giovanile, associazione no profit nazionale. La dirigenza dell’organizzazione comprende figure politiche e istituzionali, e diverse figure politiche e imprenditoriali nei tessuti locali italiani (Garda, Brindisi, Jesi, Verona, Salerno, Padova, Brianza, Treviso, Enna, Roma, Firenze ecc.). Anche questo attacco è stato attribuito all’ecosistema criminale Russo, questa volta di Snatch.
Intelligenza artificiale: il nuovo catalizzatore?
I rischi e la scala delle operazioni di influenza non possono che non essere amplificati dalla IA generativa.
Molte delle campagne citate in precedenza, usavano infatti intelligenze artificiali per la produzione simultanea di contenuti in molteplici lingue, così da riuscire efficacemente nell’intento di insidiare le comunità locali e le minoranze etniche, alimentando così “spaccature” sociali che minano ai valori fondamentali della società occidentale, e che forniscono terreno fertile ad estremisti e partiti “controllabili” dalle potenze.
Tuttavia, questo non è l’unico modo in cui l’intelligenza artificiale ha debuttato in questo infausto palco di disinformazione e guerre ibride. All’interno del Regno Unito sono stati registrati abusi anche di tecnologie generative Deep Fake per la falsificazione di contenuti video e audio.
Ad esempio, a gennaio 2024, su Facebook UK sono stati promossi più di 100 annunci video generati con intelligenza artificiale dove il deep-fake del Primo Ministro Rishi Sunak tentava di convincere i cittadini a investire denaro su di una serie di iniziative a “rendita garantita”. Frodi, di fatto.
Nonostante la rapida risposta di Meta, le inserzioni hanno raggiunto oltre 400.000 persone e, oltre alla tentata frode, hanno leso l’immagine di Sunak in quanto nel video appare al soldo di interessi privati di noti miliardari.
Se vi state domandando “ma quanto può essere costato agli attaccanti mettere in piedi tutto questo?”, la risposta è brutale: appena 13 mila euro di investimento pubblicitario e un software gratuito di intelligenza artificiale.
Sempre nel Regno Unito, qualche mese prima, a novembre 2023, il sindaco di Londra Sadiq Khan è stato coinvolto in un grave scandalo a causa di una clip audio diffusa online: nella presunta registrazione, il primo cittadino faceva commenti incendiari sulle manifestazioni filopalestinesi di quelle settimane. Anche in questo caso, un deep fake.
L’audio era stato generato, infatti, dall’intelligenza artificiale che, imitando la voce di Khan, ha dichiarato che le marce propalestinesi in un’altra parte del centro di Londra erano “irrispettose” nel Giorno dell’Armistizio, memoriale della Prima Guerra Mondiale, per le quali l’allora Segretario di Stato per gli Interni aveva chiesto che fossero cancellate. Tempistica calcolata al millesimo per seminare discordia e causare problemi di sicurezza e tensioni politiche.
Cosa si sta facendo contro la disinformazione
Si sta facendo qualcosa? Sì, ma poco. Ad esempio, a febbraio 2024, Meta ha dichiarato che inserirà un tag su tutti i contenuti generati da Intelligenza Artificiale prima delle elezioni presidenziali americane del prossimo novembre.
Anche la Commissione Europea sta alzando delle contromisure, rivolgendosi ultimamente anche al colosso cinese ByteDance, che stava testando in Europa una versione modificata della sua app creata per massimizzare la dipendenza degli utenti, bloccandola sul nascere perché ritenuta avere “impatto critico sui rischi sistemici”.
Ottime iniziative, ma probabilmente già in ritardo perché ci troviamo davanti ad una condizione senza precedenti: da un lato gli strumenti di intelligenza artificiale sono alla portata di questi attori di influenza, dall’altro, con 83 elezioni nazionali in 78 paesi che si terranno nel 2024, un volume che non si prevede verrà eguagliato fino al 2048, la posta non è mai stata così alta.