“Di recente ho letto una statistica che mi ha lasciato di stucco: nel 2024 potrebbero votare più persone che in qualsiasi altro anno della storia”. A parlare è Bill Gates, nelle previsioni per i prossimi dodici mesi condivise, come ogni anno, sul proprio blog.
Indice degli argomenti
Il voto riguarderà metà della popolazione mondiale
Si voterà (comprese le elezioni UE, come da rapporto dell’Economist) in 76 paesi. Alle urne più di metà della popolazione globale, quasi 4 miliardi di persone. Certo, in molti casi non si tratterà di consultazioni del tutto libere: ma l’impatto della cifra rimane. Apre Taiwan, dove la popolazione sarà chiamata a decidere fra pochi giorni, il 13 gennaio. Ma nell’elenco degli Stati o entità territoriali in cui si terranno elezioni nel 2024 figurano anche India, Regno Unito, Stati Uniti, El Salvador, Unione Europea, Russia, Bielorussia, Messico, Sudafrica, Egitto, Iran, Indonesia e Corea del Sud.
Molte di queste consultazioni avranno un impatto politico ed economico che travalica la dimensione locale: su tutte, le parlamentari continentali di giugno e le presidenziali americane di novembre. Ma è difficile sottovalutare anche il peso dell’India (1,4 miliardi di persone), con i seggi che apriranno tra aprile e maggio.
L’IA sta cambiando il gioco della disinformazione e della propaganda: ecco come
La preoccupazione è palese tra gli osservatori
Il decennio inaugurato dalla pandemia rischia di essere ricordato come quello della crisi delle democrazie. L’ordine unipolare seguito alla caduta del Muro di Berlino può dirsi definitivamente tramontato, assieme, forse, alla globalizzazione e al sogno di un governo mondiale in grado di assicurare stabilità.
I sistemi democratici, dal canto proprio, stentano ad assicurare risposte rapide e chiarificatrici ai grandi problemi dell’oggi, dalle migrazioni al clima, e vacillano sotto i colpi incrociati di polarizzazioni e populismi.
E la tecnologia complica il quadro
Se attività di spionaggio e intromissioni tra Stati sono, da sempre, all’ordine del giorno (con metodi, in qualche caso, ancora rudimentali, come dimostra il caso dei palloni cinesi intercettati nei cieli americani), le elezioni offrono un’occasione senza pari per interferire in maniera profonda e persistente nella vita politica degli avversari.
L’impatto negativo dell’uso degli strumenti digitali si è visto chiaramente nel 2016, con lo scandalo legato a Cambridge Analytica, società in grado di rendere gli utenti di social network bersaglio di campagne mirate, e la sorprendente vittoria di Donald Trump. Ma era stato un democratico, Barack Obama, a sfruttare per primo (nel 2008 e, poi, nel 2012) il potere della Rete.
Giochi da dilettanti, viene da dire, rispetto alle potenzialità offerte oggi dall’intelligenza artificiale generativa. “Se i tentativi di manipolare le consultazioni non sono una novità, oggi l’Ai consente a un numero molto più ampio di persone con intenzioni criminali di provare a inquinare i risultati” dice a The Outlook Matteo Vergani, professore di sociologia alla Deakin University di Melbourne, in Australia, un lungo curriculum di ricerca sulla violenza politica. “Prendiamo il caso dei deepfake, video così verosimili da sembrare reali. Ormai realizzarli non è difficile: il problema è che sono prodotti così bene che distinguerli è difficile anche per i professionisti del settore”.
Sicuramente, e questo è un tema centrale, non nei tempi rapidi richiesti dalla comunicazione degli anni Venti. Così, in un quadro di generale disaffezione al voto, per affossare i candidati sgraditi può bastare un tweet ben congegnato. Uno scenario che premia le minoranze organizzate in grado di presentarsi alle urne in maniera compatta, e in qualche caso può portarle a strappare la vittoria. Con conseguenze devastanti per un decennio in cui sono attese decisioni importanti. Che plasmeranno il futuro.
I rischi per i candidati
Per provare ad affrontare il problema, nel 2018 è nata la Transatlantic Commission on Election Integrity (TCEI), originata da una costola della Alliance of Democracies, un’organizzazione non governativa per la promozione della democrazia.
La TCEI si è data lo scopo di “favorire un approccio globale e collettivo per limitare l’ondata di interferenze nelle elezioni” e “aumentare la consapevolezza di pubblico e governi sui rischi”. Raccoglie una dozzina di nomi provenienti da politica, media e settore privato. Tutti di primo piano: a presiederla è l’ex capo del governo danese ed ex segretario generale della Nato Anders Fogh Rasmussen. Ci sono anche l’ex segretario per la sicurezza interna americano Michael Chertoff e l’allora presidente messicano (2006-2012) Felipe Calderon. Tra i membri passati anche il presidente statunitense Joe Biden e l’inviato speciale per il clima John Kerry.
Manipolazione sempre più sofisticata
Esempi di manipolazione, scrive TCEI, sono stati osservati, in un ampio ventaglio di Paesi. dal Messico alla Macedonia del Nord, dall’Ucraina al Kenya, da Taiwan alla Turchia. Ma non solo: “Attacchi e manipolazione coordinata non provengono più solo da potenze nemiche”, sostiene l’organizzazione: “In maniera crescente, il copione della disinformazione transnazionale è utilizzato da attori domestici che cercano di seminare divisioni e polarizzazione sia nei contesti autoritari sia in quelli democratici”.
La TCEI propone ai candidati una impegno (pledge) da sottoscrivere prima che si aprano le urne: non creare o usare dati falsi a fini di propaganda e disinformazione, non impiegare deepfake (simulazioni realistiche della voce, volto e azioni di una persona che ne distorcono il pensiero), evitare l’uso di account fasulli, dichiarare con trasparenza chi sono i finanziatori delle campagne.
In aggiunta, mantenere, una buona “cyber igiene”, con controlli regolari sulla propria sicurezza informatica, cambiare regolarmente le password, formare il personale coinvolto nella gestione degli account. Il minimo indispensabile, verrebbe da dire; ma l’esperienza insegna che non sempre le buone pratiche fanno parte dell’armamentario dei candidati. I firmatari, al momento in cui scriviamo, sono 357, quasi tutti appartenenti all’area del centrosinistra e dell’ambientalismo. Tra loro Joe Biden. L’unico italiano presente nell’elenco è l’europarlamentare del PD Brando Benifei.
Ingerenza informativa globale della Cina: per mitigarla servono vigilanza e consapevolezza
Allenarsi a comprendere i rischi
Per allenare chi è ancora inconsapevole dei rischi, l’associazione ha preparato un semplice gioco virtuale rivolto ai candidati, i “Disinformation Diaries”: l’utente impersona una politica reduce da una sconfitta elettorale a causa dell’impatto di una campagna di disinformazione. La donna si trova a dover escogitare modi per recuperare il consenso: l’obiettivo degli sviluppatori è aumentare l’alfabetizzazione digitale dei candidati e dei loro staff.
Lo abbiamo provato: utilizzarlo può essere, effettivamente, un’esperienza interessante per chi è a digiuno di nozioni di comunicazione. Tanti i consigli forniti: per esempio, si spiega, ci sono solo circa sessanta minuti per rispondere a un tweet di menzogne prima che rischi di diventare virale.
Non solo: in caso di attacco, meglio creare una contronarrativa, senza limitarsi semplicemente a rispondere al post: una comunicazione esclusivamente testuale raggiunge poche persone, e rischia di essere inutile. Quanto al tono da impiegare, Audrey Tang, ministro taiwanese per il digitale, ha coniato un’espressione efficace: humor over rumor. Importante, inoltre, fornire ai media materiale alternativo per costruire una narrazione bilanciata: secondo Tang, i post umoristici hanno il potere di innescare una contro-escalation, oltre che maggiori probabilità di essere ricondivisi.
Una guida per rimuovere i contenuti “tossici”
Una conferma arriva da Sec, multinazionale italiana nel settore delle relazioni pubbliche. Gabriele Bertipaglia, responsabile dell’area crisi e reputazione del gruppo, sottolinea il ruolo di un monitoraggio costante “con strumenti sempre più qualitativi che intercettino i contenuti negativi, li classifichino in base all’effettivo engagement e ne diano tempestiva allerta al social media manager. Affrontare una competizione politica senza esserne dotati è come attraversare un’autostrada bendati: il rischio di essere investiti è altissimo”.
Una volta identificato il contenuto tossico, questo va gestito con intelligenza e rapidità. “Se si tratta di una notizia falsa, deve essere immediatamente smentita e corretta con un’opera di debunking possibilmente affidata una figura terza ed autorevole: ormai esistono team qualificati legati ad istituzioni, università, fondazioni che forniscono questi servizi ad aziende e persone fisiche” riprende Bertipaglia.
In sintesi, conclude l’esperto, sono tre le regole basilari da seguire: “Monitoraggio attento ed efficace, chiarimenti e correzioni – meglio se provenienti da terze parti autorevoli – chiare ed efficaci che coinvolgano i propri supporter. Non si tratta di azioni complicate: il difficile è applicarle in contesti altamente competitivi e in arene mediatiche sempre più affollate”.
Il ruolo di Big Tech (e del giornalismo)
Big Tech, ossia l’aggregato dei grandi fornitori di servizi web e piattaforme, non può essere considerata neutrale: ne sono convinte cinquantasei organizzazioni che lo scorso agosto hanno messo in guardia sulle consultazioni europee, chiedendo ai giganti del web di preparare degli “Election Plan” per spiegare pubblicamente come intendono mitigare i rischi. Tra le richieste: non amplificare disinformazione e odio, assicurare moderazione efficace in tutte le lingue europee, non microtargettizzare gli utenti, essere trasparenti sui finanziamenti, gli annunci e gli algoritmi usati per indirizzarli e stringere accordi con organizzazioni esperte di elezioni, in maniera da aumentare la consapevolezza.
Ma il problema è più vasto, osserva Matteo Vergani. “Non è la tecnologia a causare polarizzazione ed hate speech. Semmai li amplifica. Quello che la ricerca può affermare con certezza, a oggi, è che le persone che hanno già delle opinioni formate sono più propense ad accettare le fake news se esposte a misinformation. La causa dei problemi va, però, cercata nella società: è quest’ultima a generare polarizzazione e conflitti. La misinformation li rende solo più evidenti”.
Vergani sottolinea come, “anche se in questo momento storico le teorie del complotto sono più legate alle destre, non sono certo esclusiva di quella parte politica: una ricerca apparsa già dieci anni fa sull’American Journal of Political Science mostrava che metà degli statunitensi credeva ad almeno una teoria cospirativa, diversa a seconda dell’orientamento individuale”.
L’IA e il rischio per le elezioni europee: la minaccia delle fake news e i possibili rimedi
Così la tecnologia può aiutarci
Di quali strumenti dispongono le democrazie per reagire? “Innanzitutto, l’esempio”, spiega il docente. Le campagne di alfabetizzazione digitale sono senz’altro utili, ma se nel momento in cui si accende la televisione i politici non riescono a discutere tra loro in maniera civile, il messaggio, semplicemente, stenta ad arrivare al cittadino. Insomma, la digital literacy da sola non può salvare la società. Anche chiedere ai giganti del web di cancellare i post di odio aiuta: ma limitarsi a questo significa mettere delle pezze. Per invertire la tendenza è necessario risolvere i problemi sociali che stanno alla base”.
Ma c’è un altro punto che lo studioso rimarca: “Disponiamo già di tecnologie in grado di creare deepfake perfetti: adesso è il momento di investire per creare quelle che ci consentano di riconoscerli, assieme a un set di regole efficaci sull’intelligenza artificiale. In questo senso, tutto il mondo sta guardando all’Unione europea, che è pioniera nel campo”.
E poi c’è il ruolo della stampa. “I giornalisti sono fondamentali. Se la gente non si fida di loro, come dei politici, è perché negli ultimi anni non hanno fatto un buon lavoro. Ma cambiare è possibile, seguendo, per esempio, il modello britannico di una BBC statale e imparziale”. In alternativa, secondo Vergani, nei sistemi in cui il ruolo dello Stato è più circoscritto, potrebbero essere le aziende non editoriali a investire nella buona informazione. Non c’è il rischio che i media ne siano condizionati? “Si può limitare – replica Vergani – facendo ricorso a pratiche deontologiche e di trasparenza chiare. Ma l’optimum non esiste, come peraltro traspare chiaramente dalla lottizzazione del servizio pubblico italiano”.