La strategia adottata da Meta per gestire i contenuti generati dall’intelligenza artificiale si sta evolvendo con un focus specifico sul watermarking digitale.
Questa tecnica, come illustrato da Nick Clegg, presidente degli affari globali della società, è stata proposta per incrementare la trasparenza e l’autenticità dei contenuti pubblicati sui servizi social dell’azienda segnalando l’identità del vero autore di un’immagine, video o documento e agendo come un equivalente grafico del copyright.
Meta ha iniziato ad applicare watermarks che indicano “Creato con l’AI” su immagini realizzate con il suo generatore proprietario, Imagine AI, e anche su quelle generate con strumenti di altre aziende come Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock che vengono pubblicate sui suoi canali social.
Questa iniziativa è parte di un movimento più ampio, che sta attraversando l’intero settore delle grandi aziende tecnologiche, per sviluppare standard e iniziative di autenticazione dei contenuti, tese a creare collaborazioni e sinergie con gruppi come Partnership on AI e con società come Adobe e Google che stanno sviluppato sistemi simili.
Protocollo C2PA, contro deep fake e disinformazione: certificazione dei contenuti generati dall’AI
Indice degli argomenti
Una firma digitale sui contenuti generati dall’AI: le criticità
Nei confronti di questa tecnica di “firma digitale” le opinioni dei ricercatori sono composite e recenti studi hanno rivelato alcuni potenziali elementi di criticità.
Il watermarking sui contenuti generati dall’AI non è privo di errori
Tra essi, il centro di ricerca americano Brooking Institute ha rilasciato un report sull’uso del watermarking in relazione all’AI, nel quale viene sottolineato che questo strumento di firma può risultare utile per la lotta alla contraffazione, ma non è privo di margini di errore ed è facile da rimuovere per chi possieda competenze informatiche mediamente avanzate.
Anche la ricerca nata dalla collaborazione tra University of California, University of Santa Barbara e Carneige Mellon University, e condotta attraverso un approccio empirico con attacchi simulati sui watermarks, ha evidenziato la facilità con cui le firme possono essere rimosse o falsificate sia da operatori umani che da intelligenze artificiali generative preposte allo scopo.
Questi studi hanno fatto emergere l’esistenza di due strategie per la rimozione delle firme:
- la prima consiste in un approccio identificato come distruttivo, nel quale chi intenda rimuovere il riconoscimento, procede trattandolo come fosse parte dell’immagine e cerca di rimuoverlo attraverso la modifica di elementi come il livello di luminosità, il contrasto o la compressione JPEG con, appunto, la possibilità di distruggere o alterare la qualità dell’immagine;
- la seconda strategia consiste in un approccio detto costruttivo, che utilizza tecniche più blande, come le sfocature o i filtri di colore per celare la marcatura.
La ricerca ha anche fatto emergere prove a sostegno di una proposta alternativa che preveda l’utilizzo di un diverso tipo di attestazione, visibile ma basata unicamente su un simbolo o un’indicazione nota che riprenda semanticamente gli elementi di quella originale: questa soluzione si è dimostrata molto più resistente agli attacchi mossi dal team di studiosi, e anche se altera parzialmente il contenuto dell’immagine, è risultata essere un’opzione efficace per il rilevamento dei contenuti artificiali.
Come determinare i soggetti autorizzati a rilevare i watermarking
Un ulteriore elemento emerso dalla discussione su come riconoscere i prodotti generati dall’intelligenza artificiale, riguarda la determinazione dei soggetti autorizzati a rilevare le firme digitali, introducendo complessità legate all’autorità giuridica, all’abuso e al controllo tecnico.
Infatti, se da un lato una rilevazione diffusa, che permettesse a chiunque di procedere con la verifica, potrebbe comportare rischi di abusi da parte di attori malintenzionati, dall’altro un accesso controllato e standardizzato ad opera delle sole principali aziende legate all’IA, potrebbe ostacolare la trasparenza e la correttezza delle procedure.
La governance di questi metodi di rilevamento appare dunque un elemento strutturale per garantire la loro affidabilità ed efficacia, anche in relazione ai potenziali rischi per la privacy che queste tipologie di tracciamento dei contenuti pubblicati comportano, in particolare riguardo la categoria dei content creator professionisti, che devono includere informazioni identificative nei loro post per rispettare l’attuale normativa sul diritto d’autore.
Meta e l’identificazione dei contenuti generati dall’AI: le strategie
Constata la complessità della materia e le problematiche tecniche e giuridiche legate all’attuale livello di sviluppo della pratica del watermarking, la strategia multifattoriale seguita da Meta prevede anche l’utilizzo di specifici strumenti software per rilevare i prodotti multimediali in cui i metadati sono stati alterati per nascondere l’uso dell’AI.
L’adozione dei protocolli IPTC e C2PA
Essi seguiranno gli standard IPTC e C2PA per certificare l’autenticità dei contenuti attraverso l’analisi dei metadati presenti al loro interno, in modo da fornirne una descrizione tecnica dettagliata.
Questi standard, ampiamente adottati in ambiti come il giornalismo e la fotografia, si sono, già in passato, rivelati efficaci nel distinguere i contenuti reali da quelli artificialmente generati
L’azienda sta inoltre collaborando attivamente con gruppi come Partnership on AI per sviluppare altri standard condivisi e iniziative di autenticazione dei contenuti che agiranno in sinergia con i software creati da Adobe, come il sistema Content Credentials, e Google, con il watermark SynthID per file audio.
Gli utenti dovranno segnalare i contenuti generati con l’AI
Un’ulteriore misura adottata consisterà, secondo quanto affermato da Nick Clegg nel corso dell’intervista rilasciata durante il World Economic Forum di Davos tenutosi a gennaio, nel richiedere la partecipazione attiva degli utenti che saranno obbligati a segnalare la condivisione di video o audio creati tramite AI.
In caso di mancato rispetto di questa norma, l’azienda adotterà sanzioni, che vanno dagli avvertimenti alla rimozione dei contenuti, fino alla sospensione o blocco del profilo del creatore.
Particolarmente stringente sarà inoltre la gestione del controllo in relazione a contenuti digitali di ambito politico, la cui presenza è in rapido aumento con l’avvicinarsi di alcune scadenze elettorali in Europa e, soprattutto, con le elezioni amaricane che si terranno a novembre.
In vista di tale evento, vi è una crescente preoccupazione tra gli esperti del settore sul possibile impiego massiccio di strumenti di intelligenza artificiale per generare e diffondere informazioni false al fine d’influenzare l’opinione pubblica.
Recentemente, ci sono stati casi in cui l’AI è stata impiegata per produrre video ingannevoli del Presidente Biden e chiamate automatizzate che utilizzano una versione falsa, ma molto verosimile, della sua voce.
Per contrastare questa tendenza, i senatori Brian Schatz e John Kennedy hanno introdotto una proposta legislativa che mira a obbligare le aziende a rivelare e classificare i contenuti prodotti artificialmente, promuovendo la collaborazione per lo sviluppo e l’adozione di standard come quelli che sta proponendo Meta.
Tecniche di controllo dei contenuti generati dall’AI: le prospettive
La società fondata da Mark Zuckerberg starebbe inoltre lavorando alla creazione di propri chip custom, in modo da possedere un hardware proprietario ottimizzato per l’utilizzo dei software dell’azienda, compresi i nuovi programmi di ricerca e controllo sui contenuti generati dall’intelligenza artificiale.
Tale radicale novità – fino ad ora Meta ha infatti unicamente sviluppato prodotti hardware legati ai visori per la realtà virtuale – renderebbe la società molto più autonoma riducendo la dipendenza da hardware esterno come quello prodotto da Nvidia o Intel e permetterebbe di sviluppare soluzioni unificate software-hardware su modello di Apple, con numerosi vantaggi dal punto di vista della sicurezza, della rapidità degli aggiornamenti e della immediatezza d’utilizzo.
Questo insieme di pratiche, la cui introduzione è in corso di finalizzazione presso Meta, rappresenta l’esplicito tentativo di contemperare le potenzialità dell’AI con un rigoroso controllo sulla sua applicazione e diffusione, per un’azienda che gestisce la più estesa rete social del globo e vede nelle sue piattaforme Facebook, Instagram, WhatsApp e Messenger un canale primario per la diffusione di contenuti legati all’intelligenza artificiale.