Nel contemporaneo panorama globale, i governi e gli attori politici, indipendentemente dal regime politico che li caratterizza, stanno sempre più ricorrendo all’intelligenza artificiale come un potente strumento per manipolare l’opinione pubblica.
Questa tendenza è emersa in un recente rapporto presentato da Freedom House, un’organizzazione dedicata alla difesa dei diritti umani.
Il documento sottolinea come l’IA stia trasformando la sfera della disinformazione, mettendo in discussione la fiducia nelle informazioni online e sollevando importanti interrogativi sulla libertà di espressione e sulla manipolazione dell’opinione pubblica.
I ricercatori di Freedom House hanno acquisito evidenze di come nel corso del 2022 almeno in sedici Paesi l’intelligenza artificiale generativa sia stata utilizzata per seminare dubbi, diffamare gli avversari o influenzare il dibattito pubblico.
Ingerenza informativa globale della Cina: per mitigarla servono vigilanza e consapevolezza
Indice degli argomenti
Usi impropri dell’IA e misure di contrasto
L’indagine, chiamata “Freedom on the Net”, valuta le nazioni in base al loro grado relativo di libertà in rete, attraverso l’analisi di una complessa intersezione di fattori, tra cui le drastiche chiusure di Internet, leggi restrittive sull’espressione online e le ritorsioni per quest’ultimo sulle piattaforme digitali.
L’edizione 2023, pubblicata il 4 ottobre, ha rilevato che la libertà di Internet a livello globale è diminuita per il tredicesimo anno consecutivo, in parte a causa della proliferazione dell’intelligenza artificiale.
Nell’ultimo anno si è registrato un forte aumento degli strumenti di IA in grado di creare immagini fotorealistiche, imitare l’audio della voce e scrivere testi convincenti, grazie al lancio sul mercato di massa di prodotti come OpenAI.
Tra i casi più eclatanti dell’ultimo anno si ricorda la divulgazione di un’immagine generata dall’IA raffigurante un’esplosione nei pressi del Pentagono e un deepfake di un video del presidente ucraino Zelensky che invita le sue truppe a deporre le armi e ad arrendersi all’esercito russo.
I video così manipolati possono essere usati per confezionare fake news particolarmente credibili, rappresentando una seria minaccia alla stabilità e alla sicurezza dello Stato.
Per contrastare l’uso improprio di questi contenuti multimediali sono stati sviluppati diversi algoritmi, basati sul deep learning, che grazie alla disponibilità di dataset di video con volti manipolati, imparano autonomamente a riconoscere nuove immagini alterate.
A tal proposito, governi, università e grandi aziende tecnologiche, come Microsoft, Facebook e Amazon, già dal 2020 hanno iniziato ad investire nell’attività di rilevamento dei deepfake diffusi sul web, includendo team di ricerca in tutto il mondo in competizione per la supremazia nella deepfake detection.
Le conseguenze di una IA non controllata
Esempi del genere evidenziano come, se non controllata, l’IA possa avere forti ripercussioni in situazioni critiche come conflitti o elezioni politiche.
Va considerato come, per certi versi, queste rappresentazioni generate artificialmente non siano molto diverse dalle immagini e dai video manipolati da esseri umani, dai messaggi ingannevoli e dalle telefonate automatiche che hanno caratterizzato la società per anni.
Tuttavia, in passato, le campagne di disinformazione hanno dovuto affrontare una serie di ostacoli logistici: creare messaggi personalizzati per i social media richiedeva molto tempo, così come ritoccare immagini e montare video.
Stando al report di Freedom House, infatti, oltre agli strumenti di intelligenza artificiale generativa, molti governi hanno continuato a utilizzare vecchie tattiche, come la combinazione di campagne umane e bot per manipolare le discussioni online.
Almeno 47 governi hanno impiegato contenuto generato da persone per diffondere la propaganda nel 2023, il doppio rispetto a dieci anni fa. Inoltre, è stato evidenziato come la normalizzazione della presenza sul web di contenuti generati dall’intelligenza artificiale renda il pubblico più diffidente nei confronti di fonti accreditate.
La diffidenza verso le falsificazioni, se esacerbata dall’intervento di politici o influencer, rende le persone più scettiche nei confronti delle informazioni vere, soprattutto in tempi di crisi o di conflitto politico quando è più probabile che le false informazioni dilaghino.
Diversi regimi autoritari, in particolare, stanno utilizzando l’intelligenza artificiale per rendere la censura più diffusa ed efficace.
Secondo Freedom House 22 Paesi hanno approvato leggi che richiedono o incentivano le piattaforme Internet a utilizzare l’apprendimento automatico per vietare argomenti sfavorevoli alla stabilità del regime in carica.
In questo modo, l’uso dell’IA maschera il ruolo dello Stato nella censura e può attenuare il cosiddetto “digital dictator’s dilemma”, secondo il quale i leader non democratici devono valutare in modo appropriato i benefici dell’imposizione di controlli online rispetto ai costi del dissenso dell’opinione pubblica per tali restrizioni.
Allo stesso tempo, va sottolineato che l’intelligenza artificiale può creare e sta già creando moltissimi vantaggi, come una migliore assistenza sanitaria, trasporti più sicuri e puliti, una produzione energetica più sostenibile ed efficiente.
L’AI Act e il piano normativo europeo
Proprio per tutelare queste opportunità e ridurre il rischio di un uso dannoso dell’IA, nel 2021 la Commissione Europea ha proposto il primo quadro normativo di riferimento dell’UE, denominato EU AI Act.
Il documento prevede che i sistemi tecnologici così avanzati, impiegati in diverse applicazioni, debbano essere analizzati e classificati in base al rischio che comportano per gli utenti.
Il 14 giugno 2023 il Parlamento Europeo ha approvato il passaggio della proposta alle fasi negoziali con i singoli stati dell’Unione: una volta terminato l’iter legislativo, l’EU AI Act diventerà il primo pacchetto normativo al mondo a regolare l’IA.
Alla luce del piano normativo progettato dall’Unione Europea, sembra opportuno menzionare anche lo studio condotto dall’Università di Berkeley in California che ha sottolineato gli aspetti più critici dell’utilizzo dell’intelligenze artificiali generative e su come queste possano corroborare false credenze negli utenti digitali.
Infatti, il problema principale risiede nella tendenza dei consumers a fidarsi delle risposte di questi nuovi software e a considerarle come affidabili e altamente credibili per via delle capacità sovradimensionate ed avanzate delle risorse dell’IA.
Si dà, in pratica, per scontato che siano le intelligenze artificiali stesse a scartare a priori le fake news per fornire una risposta veritiera.
Un altro fenomeno preoccupante su cui ha indagato la ricerca americana è relativo alla difficoltà, da parte dei soggetti, a cambiare idea quando si riceve una risposta da parte dell’IA.
Tale componente tende, dunque, a radicalizzare le conoscenze, soprattutto tra le classi sociali emarginate e con un tasso d’istruzione inferiore, che risultano essere più propense a credere alle fake news e alla disinformazione.
Conclusioni
È fondamentale, quindi, che le piattaforme social e i governi collaborino per contrastare un trend in evidente ascesa, coinvolgendo verificatori dei fatti esterni, i cosiddetti fact-checkers, e promuovendo la trasparenza e la responsabilità.
Un ottimo passo in questa direzione, sebbene ancora incompiuto, è la proposta di normativa europea sull’IA, che mira a diffondere una maggiore consapevolezza dei potenziali rischi e benefici, divenendo ormai fondamentale non solo per l’Unione Europea ma di conseguenza anche per l’Italia.