Il World Economic Forum, riunitosi come da consuetudine a Davos, ha recentemente pubblicato la diciannovesima edizione del “The Global Risks Report”, all’interno della quale si dedica particolare attenzione alle minacce connesse allo sviluppo della Generative AI. Segnatamente, il rapporto identifica la disinformazione, correlata all’ampio utilizzo della intelligenza artificiale nella società, come il principale rischio globale nei prossimi due anni.
Il rapporto rende noti i risultati della Global Risks Perception Survey (GRPS), un’indagine che raccoglie il parere di circa 1.500 esperti, analizzando le sfide globali attraverso due distinti orizzonti temporali: 2026 e 2034.
Nello specifico, in riferimento al primo intervallo temporale considerato, la maggioranza dei partecipanti (54%) prospetta un livello di instabilità medio e un rischio moderato che si verifichino catastrofi a livello globale.
La prospettiva assume connotazioni più pessimistiche in riferimento al secondo intervallo temporale, con quasi due terzi dei partecipanti (33 % in più rispetto al primo lasso) che prevedono un panorama mondiale caratterizzato da criticità più rilevanti.
Indice degli argomenti
Modalità di infiltrazione nei sistemi di IA
Gli esperti interrogati dal WEF manifestano una profonda preoccupazione per il notevole potenziale intrinseco all’intelligenza artificiale.
Infatti, nei prossimi due anni, si prevede che una diversificata schiera di agenti tenterà di sfruttare le crescenti capacità dell’AI al fine di accentuare le dissonanze nella società.
Ciò avverrà attraverso l’impiego di quattro categorie di attacchi recentemente individuate nel rapporto pubblicato dal National Institute of Standards and Technology (NIST). Tra questi si trovano gli “Evasion attacks”, miranti all’alterazione degli input per influenzare il machine learning, i “Poisoning attacks”, tramite i quali si potrebbe indurre l’IA generativa a redigere articoli contenenti informazioni manipolate, i “Privacy attacks”, capaci di estrarre informazioni sensibili e classificate dai database privati e pubblici ed infine gli “Abuse attacks” in grado di innestare informazioni errate in una fonte web utilizzata in un secondo momento dalla AI.
In base all’analisi fornita dal Global Risks Report, le modalità di infiltrazione nei sistemi di intelligenza artificiale in oggetto potrebbero generare conseguenze tangibili al di là del contesto cibernetico, manifestandosi nei seguenti modi:
- Indirizzamento delle elezioni politiche di alcune tra le maggiori economie del pianeta.
- Aumento della polarizzazione della società con l’insorgere di disordini civili e conflitti su larga scala.
- Aumento della repressione da parte dei governi al contrasto della proliferazione di informazioni false.
Una diffusione sempre più ampia della disinformazione
In merito al primo scenario delineato, il documento evidenzia come, nei prossimi due anni, una considerevole porzione della popolazione mondiale, approssimativamente tre miliardi di individui, parteciperà agli scrutini elettorali negli gli Stati Uniti, in India, nel Regno Unito, in Messico, in Indonesia e in Russia.
L’ampia diffusione di disinformazione in tali contesti elettorali potrebbe influenzare le scelte di voto o minare la legittimità dei nuovi governi appena insediati, con il potenziale di scatenare disordini politici e concorrendo, in tal modo, all’indebolimento a lungo termine delle istituzioni democratiche.
I recenti progressi tecnologici, infatti, hanno intensificato la proliferazione di informazioni erronee, rendendo complesso il tracciamento e il controllo di tali contenuti.
Contestualmente, si assiste a una tendenza in cui la disinformazione si evolve verso modalità sempre più personalizzate e mirate, estendendo la sua influenza anche a piattaforme di messaggistica istantanea come WhatsApp e WeChat.
In questo contesto, inoltre, l’identificazione delle fake news, soprattutto quelle generate dall’intelligenza artificiale, si rivela problematica, data la sempre più sfumata distinzione tra contenuti prodotti da AI e quelli di origine umana.
Un rischio per la coesione sociale e l’equilibrio mentale dei cittadini
Affrontando il secondo aspetto in esame, emerge come queste campagne manipolative potrebbero rappresentare una potenziale minaccia alla stabilità democratica, con la possibilità di scatenare conflitti interni, atti di violenza e, nei casi più estremi, il collasso delle istituzioni statali.
Inoltre, come già evidenziato nel Global Risks Report del 2023, le società potrebbero polarizzarsi non solo in termini di orientamenti politici, ma anche nelle modalità con cui interpretano la realtà, mettendo a rischio non solo la coesione sociale ma persino l’equilibrio mentale di ogni cittadino.
Infatti, riporta il documento, nel contesto in cui emozioni e ideologie offuscano la percezione dei fatti, narrazioni manipolative potrebbero farsi largo nei dibattiti pubblici, influenzando le decisioni in tematiche quali salute pubblica, giustizia sociale, educazione ed ambiente.
Fake news: cresce la strumentalizzazione da parte di attori nazionali
In merito al terzo e ultimo aspetto, il WEF riscontra come le informazioni erronee possano non solo costituire una fonte di perturbazione sociale, ma anche di strumentalizzazione da parte di attori nazionali al fine di perseguire agende politiche.
Secondo il rapporto, fattori come il decremento della libertà su Internet, il concomitante restringimento dell’accesso a fonti informative più ampie in molteplici nazioni, unitamente alla limitazione della libertà di stampa negli ultimi anni e alla progressiva riduzione di whistleblowers, evidenziano una preoccupante tendenza.
All’interno di tale scenario, la proliferazione di informazioni inesatte potrebbe anche essere strumentalizzata per rafforzare l’autoritarismo digitale e facilitare l’impiego della tecnologia per il controllo dei cittadini.
Tale fenomeno potrebbe conferire ai governi una crescente autorità nel determinare la veridicità delle informazioni, consentendo a partiti politici di monopolizzare il discorso pubblico e reprimere voci dissidenti, inclusi giornalisti e oppositori.
I rischi dell’uso dell’IA nei contesti militari
In aggiunta, il rapporto delinea come l’incorporazione delle tecnologie di intelligenza artificiale nei contesti militari, insieme all’utilizzo di tali sistemi per prendere decisioni di natura strategica, potrebbe incrementare il rischio di escalation in ambienti già afflitti da ostilità e favorire la deflagrazione di conflitti latenti.
Negli ultimi anni, potenze di rilevanza globale e regionale hanno dedicato notevoli risorse allo sviluppo di sistemi d’arma guidati dall’intelligenza artificiale, manifestando un incremento dell’autonomia di tali dispositivi.
Al momento attuale, le forze armate terrestri, aeree e navali sono in grado di eseguire operazioni di sorveglianza senza richiedere intervento umano diretto. Nonostante gli sforzi compiuti per stabilire una governance internazionale riguardo al loro impiego, non sono ancora stati formalizzati accordi specifici.
Conclusioni
Tenendo conto dello scenario appena descritto, il World Economic Forum si è prefisso l’obiettivo di sottolineare l’urgenza di affrontare le sfide poste dalla Generative AI, promuovendo strategie di difesa e governance efficaci per mitigare i rischi e preservare la fiducia nelle istituzioni democratiche e nell’informazione.
Non a caso, il tema principale del WEF di quest’anno è stato quello legato al “Rebuilding trust”, ossia della ricostruzione della fiducia reciproca tra cittadini ed istituzioni, che, in tempi di evoluzione tecnologica sempre più veloce ed incontrollabile, è venuta sempre più scemando.