Il documento ” Beyond illusions” di recente pubblicato dall’INTERPOL offre un’analisi approfondita di quel settore dell’intelligenza artificiale (IA) rappresentato dai media sintetici e delle loro implicazioni in termini di rischio informatico per persone e organizzazioni pubbliche e private, evidenziando le sfide che devono affrontare le forze dell’ordine per contrastarli.
Indice degli argomenti
Tipi di media sintetici e tecnologia
Il rapporto esplora vari tipi di media sintetici come deepfake, audio sintetico e testo generato dall’IA, oltre ai rispettivi metodi tecnici utilizzati per crearli:
- Deepfake: utilizzano algoritmi di IA avanzati per creare video e immagini estremamente realistici che rappresentano persone in situazioni mai accadute. Questi contenuti possono essere utilizzati per diffondere disinformazione, compromettere la reputazione di individui o manipolare l’opinione pubblica.
- Audio sintetico: l’audio sintetico generato dall’IA può imitare la voce umana con alta precisione, rendendo possibile la creazione di messaggi audio falsi utilizzati per frodi telefoniche o altre forme di inganno.
- Generazione di testi: strumenti di IA come ChatGPT possono generare testi realistici che sembrano scritti da esseri umani, utilizzati per creare email di phishing, articoli di disinformazione o altre forme di comunicazione ingannevole.
- Identificativi sintetici: Informazioni personali generate artificialmente che possono essere utilizzate per creare identità false, facilitando il furto di identità o altre attività fraudolente.
Sfide per le forze dell’ordine
Le principali sfide identificate nel rapporto di EUROPOL includono la difficoltà nel riconoscere i media sintetici, la diffusione della disinformazione e della propaganda, e le preoccupazioni relative alla privacy.
Inoltre, viene discusso l’uso improprio di tecnologie come ChatGPT per creare truffe sofisticate, poiché i modelli di linguaggio avanzati possono generare contenuti falsi e ingannevoli con un livello di realismo tale da ingannare molte persone.
Tecniche investigative e analisi forense
Il rapporto descrive tecniche avanzate per l’autenticazione dei media, come l’analisi dei metadati, la verifica delle fonti e l’analisi statistica a livello di pixel.
Viene evidenziata l’importanza della collaborazione internazionale e del continuo sviluppo tecnologico per affrontare queste sfide.
Raccomandazioni contro le minacce dei media sintetici
INTERPOL raccomanda un impegno collettivo tra paesi membri, stakeholder del settore e istituzioni accademiche per mitigare gli effetti negativi dei media sintetici.
Viene incoraggiato l’uso responsabile dell’IA, lo sviluppo di standard per l’autenticazione dei media e la valutazione continua delle minacce.
Tra le raccomandazioni che si possono desumere dalla lettura del documento ci sono:
- Uso responsabile dell’IA: promuovere l’uso responsabile delle tecnologie di IA, garantendo che vengano utilizzate in modo etico e sicuro.
- Standard per l’autenticazione: sviluppare standard internazionali per l’autenticazione dei media digitali, facilitando il riconoscimento dei contenuti manipolati.
- Valutazione continua delle minacce: monitorare costantemente l’evoluzione delle tecnologie di media sintetici e le relative minacce, adattando le strategie di contrasto di conseguenza.
- Collaborazione e condivisione: rafforzare la collaborazione tra forze dell’ordine, industria tecnologica e accademia per condividere conoscenze e sviluppare soluzioni innovative.
Considerazioni aggiuntive
Oltre alle raccomandazioni di INTERPOL, fra le aree che potrebbero essere ulteriormente sviluppate possono essere considerate:
- Educazione e sensibilizzazione del pubblico: organizzare campagne globali per sensibilizzare il pubblico sui rischi associati ai media sintetici e insegnare come riconoscere i contenuti manipolati.
- Sviluppo di strumenti open source: promuovere l’uso di piattaforme open source focalizzati sulla verifica dei media, accessibili sia ai professionisti che al pubblico.
- Regolamentazione e politiche: implementare normative chiare che regolamentino l’uso delle tecnologie di IA generativa e dei media sintetici, includendo la definizione di sanzioni per l’uso illecito e la protezione dei diritti degli individui.
- Investimenti in ricerca e sviluppo: incrementare i finanziamenti per la ricerca nel campo del rilevamento dei media sintetici e delle tecnologie di autenticazione.
- Cooperazione internazionale: rafforzare le alleanze globali per la condivisione delle informazioni e delle risorse, creando reti di cooperazione – oltre a quanto avviene con l’INTERPOL – tra agenzie di sicurezza, organizzazioni internazionali e governi.
- Monitoraggio e valutazione: implementare sistemi di allerta precoce per identificare e segnalare rapidamente i media sintetici sospetti, oltre a stabilire meccanismi di valutazione continua delle tecnologie e delle strategie di contrasto.
Il ruolo dell’AI Act
Il nuovo tassello definito dall’UE per il nuovo mondo dell’IT, il Regolamento UE 2024/1689 (AI Act) prevede diverse misure per contrastare l’uso improprio della tecnologia IA, incluso il fenomeno dei media sintetici.
Questo atto si concentra sulla classificazione dei sistemi IA in base al rischio e stabilisce requisiti e obblighi specifici per gli sviluppatori e gli utenti:
- Classificazione dei rischi: l’AI Act suddivide i sistemi IA in categorie di rischio (basso, medio, alto e inaccettabile). I sistemi IA che possono creare media sintetici realistici, come i deepfake, potrebbero rientrare nelle categorie di rischio alto a causa del loro potenziale di danno.
- Obblighi per i sistemi IA ad alto rischio: per i sistemi IA ad alto rischio, l’AI Act impone obblighi rigorosi, tra cui:
- Valutazione del rischio e gestione del rischio (Articolo 9): i fornitori devono effettuare una valutazione del rischio e implementare misure di mitigazione per prevenire l’uso improprio dei sistemi IA.
- Trasparenza e informazioni ai consumatori (Articolo 13): i sistemi AI devono essere trasparenti. I consumatori devono essere informati che stanno interagendo con un sistema IA e, se del caso, che i contenuti sono generati o manipolati dall’IA.
- Sorveglianza post-market (Articolo 72): i fornitori devono monitorare continuamente i loro sistemi IA e riferire qualsiasi incidente grave o malfunzionamento alle autorità competenti.
- Conformità e supervisione:
- Registrazione e conformità (Articolo 71): i fornitori di sistemi IA ad alto rischio devono registrare i loro sistemi in un database gestito dalla Commissione Europea.
- Supervisione (fra gli altri: artt. 20 e 79): le autorità nazionali di sorveglianza del mercato monitorano la conformità ai requisiti dell’AI Act e possono prendere misure correttive in caso di non conformità.
- Divieti specifici:
- Proibizione dei sistemi IA ad alto rischio inaccettabile (Articolo 5): l’atto vieta l’uso di sistemi IA considerati ad alto rischio inaccettabile, che potrebbero includere alcune applicazioni di media sintetici che rappresentano un grave rischio per la sicurezza pubblica o i diritti fondamentali.
Conclusione
L’AI Act dell’Unione Europea include misure significative per contrastare i rischi associati ai media sintetici. Le disposizioni citate supportano un contesto che promuove l’uso sicuro e responsabile delle tecnologie AI, proteggendo al contempo i consumatori e la società dai potenziali abusi.
Anche i suggerimenti sopra formulati con riguardo al documento INTERPOL appaiono in linea con le previsioni dell’AI Act.
Una considerazione congiunta del Rapporto INTERPOL e dell’AI Act dell’UE mostra come entrambi i documenti affrontino il tema delle tecnologie di intelligenza artificiale e dei media sintetici da prospettive diverse ma complementari.
Mentre l’AI Act fornisce un quadro legale, le iniziative di educazione e sensibilizzazione suggerite da INTERPOL possono essere implementate come parte delle strategie nazionali di sicurezza cibernetica e alfabetizzazione digitale. Le raccomandazioni di INTERPOL riguardanti lo sviluppo di strumenti open source e la promozione dell’innovazione possono essere integrate nei programmi di ricerca e sviluppo europei.
L’AI Act non include specifici finanziamenti per la ricerca e lo sviluppo, ma l’Unione Europea dispone di programmi, come Horizon Europe, che possono supportare queste attività. Un collegamento più esplicito tra l’AI Act e tali programmi potrebbe essere utile: di ciò potrà occuparsi la nuova Commissione europea.
Le opinioni espresse sono a titolo esclusivamente personale e non coinvolgono ad alcun titolo l’Istituto pubblico ove presta servizio.