L’Unione Europea sta potenziando le proprie iniziative per affrontare la sfida rappresentata dai deepfake e dalla disinformazione veicolata attraverso l’intelligenza artificiale sulle piattaforme delle principali aziende tecnologiche, con uno sguardo particolarmente attento alle prossime elezioni europee.
L’interesse crescente verso questo fenomeno si basa sull’estrema facilità con cui i deepfake possono essere prodotti e sfruttati in attività di disinformazione, potendo così alterare profondamente i meccanismi democratici.
Questa tendenza solleva questioni rilevanti sulla necessità di implementare strategie efficaci per identificare e contrastare contenuti ingannevoli, garantendo al contempo la libertà di espressione e il diritto all’informazione.
Indice degli argomenti
Il ruolo del Digital Services Act
I principali otto attori del settore tecnologico, quali TikTok, X, Facebook, Bing, Google, Instagram, Snapchat e YouTube, sono stati sollecitati a implementare sistemi di identificazione per i contenuti generati dall’intelligenza artificiale, in un’azione volta a schermare le prossime elezioni europee dagli attacchi di disinformazione.
Tale misura comporta la marcatura obbligatoria dei contenuti alterati, in conformità con il Digital Services Act (DSA) dell’Unione Europea, il quale propone di accrescere la responsabilità delle più grandi piattaforme di social media e di video sharing nel prevenire la diffusione di informazioni ingannevoli durante il periodo elettorale.
Il regolamento stabilisce rigide sanzioni economiche per le aziende che non rispettano le sue direttive, con multe che possono raggiungere fino al 6% del loro fatturato globale, richiedendo, allo stesso tempo, alle piattaforme online, di implementare politiche più severe contro la pubblicità ingannevole e di aumentare la trasparenza riguardo quella politica.
Le indagini UE sull’impiego dell’AI generativa
La Commissione Europea ha avanzato richieste dettagliate alle big tech, sollecitandole a fornire dati e documenti interni che illustrino le modalità di valutazione dei rischi e le misure di mitigazione in relazione all’impiego dell’intelligenza artificiale generativa.
Queste indagini coprono un ampio spettro di temi, tra cui l’influenza sull’integrità dei processi elettorali, la circolazione di contenuti illegali, la salvaguardia dei diritti fondamentali, la violenza di genere, la tutela dei minori, la salute mentale, la sicurezza dei dati personali, i diritti dei consumatori e la proprietà intellettuale.
L’obiettivo è valutare sia la distribuzione sia la produzione di contenuti creati attraverso IA generativa, per comprendere meglio le politiche e le procedure che le aziende stanno implementando per contrastare potenziali abusi o pericoli derivanti da queste tecnologie.
Le aziende sopracitate sono tenute a rispondere alle richieste della Commissione fornendo le informazioni necessarie entro due date specifiche: il 5 aprile 2024 per le questioni legate alla tutela dei processi elettorali e il 26 aprile 2024 per tutte le altre tematiche elencate.
Le risposte delle aziende potrebbero essere integrate in una serie di linee guida sulla sicurezza elettorale per le piattaforme tecnologiche che la Commissione Europea prevede di finalizzare entro il 27 marzo, facendo rientrare tale politica in una strategia più ampia dell’Unione Europea volta a regolamentare l’utilizzo dell’IA, assicurando che il suo sviluppo e impiego non solo siano all’avanguardia e innovativi ma anche responsabili e conformi ai principi etici e ai diritti fondamentali che l’UE si impegna a proteggere.
L’impatto dell’AI Act
La richiesta da parte della Commissione Europea in merito a una maggiore regolamentazione dei contenuti, prodotti tramite intelligenza artificiale, riflette anche gli ambiziosi obiettivi dell’Artificial Intelligence Act, il quale mira a garantire che le applicazioni di IA non solo siano sviluppate e utilizzate in modo sicuro ed etico, ma che siano anche progettate con un’attenzione particolare al rispetto dei diritti umani.
Con l’intento di categorizzare le applicazioni di IA in funzione del loro rischio intrinseco, l’AI Act prevede l’applicazione di criteri rigorosi, specialmente per le tecnologie ritenute ad alto rischio, incluse quelle che potrebbero compromettere l’integrità dei processi democratici.
Il watermarking per combattere deepfake e disinformazione
In anticipo rispetto a queste iniziative normative, i principali colossi tecnologici si sono uniti in un impegno congiunto, annunciato durante la Conferenza sulla Sicurezza di Monaco tenutasi lo scorso febbraio.
Centrali a questo accordo sono lo sviluppo e l’adozione di tecnologie avanzate per il rilevamento dei deepfake, l’introduzione di identificatori basati su standard aperti e l’implementazione di sistemi di watermarking conformi agli standard C2PA (Coalition for Content Provenance and Authenticity) e SynthID.
Il watermarking digitale è una tecnica sofisticata utilizzata per inserire informazioni invisibili o difficilmente percettibili all’interno di un contenuto multimediale, come video, immagini o audio.
Queste informazioni, o “watermark”, possono servire a diversi scopi, tra cui la protezione dei diritti d’autore, l’identificazione della fonte originale del contenuto, e la lotta contro la pirateria e la disinformazione, specialmente in contesti sensibili come le campagne elettorali.
Nel contesto del Digital Services Act (DSA) dell’Unione Europea, il watermarking acquisisce una nuova dimensione di rilevanza. Il DSA incoraggia l’utilizzo di questa tecnologia per marcare i contenuti generati dall’intelligenza artificiale, consentendo così agli utenti di riconoscere facilmente ciò che è stato prodotto da algoritmi anziché da esseri umani.
Questo si rivela importante nell’era della disinformazione e dei deepfake, dove la capacità di discernere tra contenuti autentici e manipolati è fondamentale per la trasparenza del dibattito pubblico e la sicurezza delle elezioni.
Le tecniche di watermarking possono variare dalla semplice aggiunta di un logo visibile, fino alla codifica di dati all’interno del contenuto in modo che possano essere rilevati solo con strumenti specifici.
Tale flessibilità rende il watermarking uno strumento versatile per le esigenze di autenticazione e tracciamento dei contenuti nell’ecosistema digitale odierno.
Verso l’adozione di norme internazionali sull’AI generativa
L’intervento dell’Unione Europea sta tracciando un percorso verso l’adozione di norme internazionali per la regolamentazione dell’intelligenza artificiale generativa. Queste azioni mirano a garantire che le potenzialità di tali tecnologie non vengano offuscate dal loro uso improprio.
La richiesta dell’UE per dettagliate relazioni sulle strategie di riduzione dei rischi mette in luce l’importanza di un approccio alla governance digitale che sia non solo preventivo ma anche basato su una conoscenza approfondita.
Questa direzione, da un lato, promuove un ecosistema digitale più sicuro, dall’altro, incentiva anche un dialogo costruttivo tra gli stakeholder per sviluppare pratiche di governance tecnologica che siano etiche, trasparenti e inclusive.
Conclusioni
Queste iniziative rappresentano un passo importante verso la creazione di un ambiente digitale più sicuro e responsabile, dove l’innovazione tecnologica procede di pari passo con la tutela dei diritti fondamentali e la protezione dell’integrità dei processi democratici.
La strategia dell’UE riflette un equilibrio tra il promuovere l’avanguardia tecnologica e assicurare che questa evoluzione non comprometta i valori democratici e la sicurezza personale.