L’undicesimo rapporto Threat Landscape dell’European Union Agency For Cybersecurity tratta diversi temi, tra i quai i rischi che l’IA potenzialmente rappresenta per le democrazie, mettendo il focus sulle elezioni europee del mese di giugno del 2024.
Le manipolazioni perpetrate da software IA, secondo il report, sono soprattutto orientate alle pubbliche amministrazioni e alla sanità ma, poiché molti comparti sono interdipendenti tra loro, i rischi si dipanano a cascata.
A pagina 153 del report, quasi delegata a considerazione di urgenza pacata, si legge che l’interferenza e la manipolazione delle informazioni è questione complicata che coinvolge anche la cyber security e si concentra soprattutto sulla collaborazione tra media e autorità.
Argomento ampio che necessita di essere circoscritto, prima di comprendere chi, come e perché le elezioni europee (e le democrazie in genere) sono teste sotto la spada di Damocle rappresentata dalle IA.
Microtargeting: cos’è e quali sono gli impatti per la protezione dei dati personali
Indice degli argomenti
Le manipolazioni e le ingerenze nell’informazione
Per manipolare l’informazione occorre agire in modo contemporaneo. Non basta usare un solo canale oppure sfruttare un solo media, le attività di disinformazione sono condotte usando tutte i social e coinvolgendo il maggiore numero di media non mainstream.
Il compito di creare sistemi di informazione più massicci e attendibili spetta proprio ai media principali, quelli che – in un Paese qualsiasi – godono di una tradizione di affidabilità e rispettabilità.
Alle campagne di disinformazione mediatica, si aggiungono poi delle attività di hacking a loro volta condotte o in contemporanea o in tempi molto ristretti tra un’incursione e l’altra.
I gruppi foraggiati dagli Stati avversi agiscono in modo organizzato ed è opportuno che i Paesi presi di mira si organizzino almeno altrettanto bene.
Le minacce per le democrazie
Sulle elezioni pende il pericolo della manipolazione digitale perpetrata grazie a software AI. Affermazione vaga che include incursioni organizzate da collettivi, hacking di Stato e che prendono di mira soprattutto politici, funzionari dei governi, attivisti e giornalisti.
I vettori sono sempre i medesimi, mail di phishing e insidie disseminate via social network. I ransomware diventano strumenti centrali anche se sono principalmente dediti al sequestro di dati a scopo di lucro ma, nel pieno delle campagne elettorali, sono grimaldelli utili alla diffusione di notizie private e persino intime, capaci di influenzare elettori, candidati e partiti.
Quindi, difese concertate e maggiore collaborazione tra cyber security e media sembrano essere uno scudo capace di spuntare le armi degli hacker. Questo però sul piano dialettico perché, sul piano pratico, le cose sono un pochino più complesse.
Occorre prima di tutto capire chi può avere interesse nell’interferire con le elezioni europee. Claudio Telmon, information & cyber security advisor presso P4I – Partners4Innovation, spiega: “Più o meno tutti. Influire sulle elezioni vuole dire per esempio incidere sulle scelte di politica estera che verranno sostenute dal nuovo parlamento. Faccio un esempio banale: supportare le posizioni dei partiti che sono meno favorevoli a mantenere il supporto all’Ucraina vorrebbe dire che, dopo le elezioni, l’Ucraina si troverebbe indebolita molto più di quanto la Russia potrebbe ottenere con un’azione militare. Questo sia perché il nuovo parlamento avrebbe più rappresentanti di partiti che non supportano l’Ucraina, sia perché la popolazione sarebbe a sua volta mediamente meno favorevole, e quindi diversi partiti probabilmente si sposterebbero su posizioni di minore sostegno. Tutto questo a un infinitesimo del costo di un’azione militare”.
“Ma questo”, secondo Telmon, “vale praticamente per qualsiasi cosa, dalla politica economica, che potrebbe essere più favorevole agli interessi della Cina, fino ad un generico interesse a un indebolimento di uno degli attori principali dell’economia mondiale. Naturalmente non vale solo per l’Europa e non è una novità: la propaganda per influenzare la politica degli altri paesi, alleati o avversari che siano, c’è sempre stata, in tempo di guerra e non. Costa poco, presenta pochi rischi e rende in proporzione tantissimo”.
Stabilito che l’interesse nell’interferire con le elezioni è diffuso, è utile comprendere come le ingerenze possono essere effettuate.
“Il grosso salto è stato l’utilizzo delle tecniche di microtargeting alla propaganda politica, e ancora di più alla disinformazione. Pensiamo ad una comunicazione mirata – illustra Telmon – Faccio un esempio astratto e banale per non toccare temi delicati. Prendiamo un cacciatore, che risulti tale dalle sue attività sui social e sia stato quindi profilato: un politico che voglia avere il suo voto potrebbe presentargli della propaganda personalizzata in cui il politico va a caccia, creando quindi ‘affinità’. Prendiamo invece un altro elettore, contrario alla caccia (e così profilato): lo stesso politico potrebbe farsi vedere mentre passeggia in un bosco e dice ‘che bella la natura incontaminata’. Soprattutto, entrambe le immagini potrebbero essere false (al politico la caccia non interessa minimamente), ma siccome ognuna delle due verrebbe vista solo dal destinatario, tendenzialmente nessuno se ne accorgerebbe.
L’esperto ricorda che “questo tipo di propaganda elettorale è stato portato alla ribalta dallo scandalo di Cambridge Analytica, perché attraverso i social e l’elaborazione automatica è possibile utilizzare queste tecniche mirate su un numero enorme di persone, una vera ‘personalizzazione di massa’. E poi c’è la pura disinformazione: dalle immagini create con deep fake e fatte girare, sempre sui social media, a interi canali di ‘informazione’ completamente artefatta”.
“Tutto questo”, continua Telmon, “è reso enormemente più facile ed efficace dall’utilizzo di strumenti di intelligenza artificiale, che permette come sappiamo di realizzare dei deep fake particolarmente realistici, come anche di creare dei bot che simulino delle persone in grado di discutere in modo credibile e di produrre testi che sembrino scritti da un essere umano, sia per la diffusione di massa che per messaggi mirati a determinati profili di destinatari”.
I rimedi plausibili
Devono giocare un peso specifico anche gli scambi reciproci tra chi si occupa di cyber security e i media che fanno buona informazione. Ogni incidente dovrebbe essere comunicato affinché l’opinione pubblica possa sapere cosa sta succedendo e possa rendersi conto degli interessi in gioco.
La fiducia elettorale dipende anche dalla capacità di fare affidamento su infrastrutture di cyber security e sulla veridicità delle notizie. Tema di un certo spessore che presenta delle difficoltà non banali.
“Non è un problema semplice – spiega Telmon – Prima di tutto, è difficile la distinzione fra informazione e disinformazione, e ancora di più fra attività legittima e illegittima. Quello che non è legittimo va riconosciuto in mezzo a immagini e messaggi fasulli che sono parte della normale pubblicità, ma anche in mezzo ad opinioni poco sostanziate che le persone possono comunque legittimamente esprimere. Si tratta da una parte di riconoscere i social bot e bloccarli, dall’altra di individuare le fake news che stanno diventando virali e bloccarle a loro volta. Per evitare di bloccare con automatismi la libertà di espressione di persone vere, alla fine credo serva comunque tanto lavoro manuale, ma sicuramente strumenti di intelligenza artificiale possono aiutare nella scrematura. Ricordiamoci che l’obiettivo non può essere di eliminare il problema, ma basta ridurlo ad un livello tale da non essere efficace. Cosa che rimane comunque non semplice”.
Per applicare i principi della cyber security all’individuazione della disinformazione serve molto lavoro demandato all’uomo. In questo ambito, per coadiuvarlo, c’è anche lo Structured Threat Information eXpression (STIX), uno standard che consente di usare un linguaggio chiaro per condividere le informazioni sulle minacce informatiche.
“Da tempo esiste il problema di scambiare informazioni in modo strutturato ed elaborabile in modo automatico fra diversi soggetti e strumenti che si occupano di contrastare le minacce cyber. Per esempio, informazioni su come riconoscere il comportamento di un malware che indichi la compromissione di un sistema o di una rete. L’obiettivo è fare sì che da una rete compromessa si possa estrarre l’informazione che permette di riconoscere quel tipo di compromissione (per esempio, il tipo particolare di traffico generato da un malware), impacchettarla e renderla disponibile per essere inserita nei database di rilevazione degli strumenti di sicurezza di altre reti. STIX è il formato in cui queste informazioni possono essere impacchettate per essere poi riconosciute ed utilizzate da un gran numero di strumenti. È un po’ la stessa logica delle ‘firme’ con cui si riconoscono i virus, ma portata ad un concetto più generale di informazione sulle minacce (Threat information) e standardizzata”, aggiunge Claudio Telmon.
Ci sono anche rimedi di tipo politico. Il primo è facilitare la capacità organizzativa di un Paese al fine di prevenire e gestire le crisi. Questo può essere fatto attraverso finanziamenti, enti cappello di caratura nazionale e, non da ultimo, mediante campagne di sensibilizzazione.
A questi si aggiunge l’impiego di Intelligenze artificiali che sono un valido supporto ma non una panacea: “Può essere più facile scoprire notizie diffuse in modo automatico da bot, o immagini e video chiaramente artefatti, che valutare l’attendibilità della notizia. È più facile che un’AI possa fare una selezione che poi una persona debba validare. Per capire il problema, basti pensare in periodo Covid quante affermazioni di persone, se non autorevoli, almeno famose, sarebbero state a rischio di essere censurate come disinformazione. Magari sarebbe stato un bene, ma non vorremmo mai che fosse uno strumento automatico a farlo”, conclude Claudio Telmon.