I moderni strumenti di intelligenza artificiale generativa possono essere utili in molti contesti sociali e produttivi, ma un loro utilizzo malevolo può creare potenziali danni di cui ancora non si conoscono esattamente tutti i possibili effetti. È quanto si evince dai risultati del “Generating Harms: Generative AI’s Impact & Paths Forward”, il rapporto pubblicato lo scorso 23 maggio dall’Electronic Privacy Information Center (EPIC).
Disinformazione: i rischi dell’uso malevolo dell’intelligenza artificiale generativa
Indice degli argomenti
Nuovi e maggiori rischi dall’uso dell’intelligenza artificiale
Nonostante i progressi apportati da tecnologie come ChatGPT, Midjourney e DALL-E nella produzione di testi, immagini o video estremamente attendibili, la rapida integrazione dell’IA nei prodotti ad uso quotidiano del consumatore avrebbe minato lo sviluppo trasparente e responsabile della tecnologia generativa.
Attraverso l’immissione sul mercato di strumenti di intelligenza artificiale gratuiti o a basso prezzo, i consumatori si trovano infatti ad affrontare nuovi e maggiori rischi, quali la manipolazione delle informazioni, le violazioni dei dati, il furto di proprietà intellettuale e, più in generale, le minacce alla privacy e alla trasparenza derivanti dall’uso improprio di queste tecnologie.
In questo senso, il testo del nuovo rapporto EPIC, redatto sulla base dell’esperienza dell’organizzazione nella protezione dei consumatori dalla raccolta e dal trattamento abusivo dei dati, include numerosi casi di studio, esempi e raccomandazioni per il consumatore e a supporto della ricerca in ambito.
Attenti all’uso non controllato dell’IA generativa
Secondo quanto affermato nel rapporto, diversi studiosi ed esperti di intelligenza artificiale avrebbero avvertito per anni la comunità in relazione ai rischi derivanti da un utilizzo diffuso e non controllato della tecnologia generativa.
Le decisioni di OpenAI e di altre aziende del settore di integrare rapidamente l’IA nei prodotti e nei dispositivi rivolti ai consumatori avrebbero, perciò, compromesso lo sviluppo corretto e consapevole di una tecnologia che, di per sé, potrebbe portare migliorie e benefici in diversi aspetti.
A parere dell’organizzazione, le autorità di regolamentazione dovranno ora ripensare a misure e nuovi approcci, atti ad arginare le minacce alla privacy degli individui, alla sicurezza informatica ed altresì alla democrazia dei singoli Stati.
L’obiettivo del rapporto è quindi quello di fornire un quadro generale delle potenziali problematiche sollevate dall’utilizzo dell’IA, di sensibilizzare gli utenti sulle possibili minacce, nonché di guidare legislatori e governi nella gestione di tali rischi. Ciò avverrebbe attraverso l’adozione di divieti sugli usi considerati ad alto rischio e di standard informativi elevati, che facilitino il consenso informatico e limitino la diffusione di disinformazione.
Gli interventi per contrastare la minaccia
Per ogni possibile minaccia elencata all’interno del rapporto, quali la manipolazione delle informazioni, le molestie, le estorsioni, il furto di dati ed altre, viene indicato dagli esperti di EPIC il contesto e le casistiche di rischio specifiche a cui l’utente può incorrere.
Vengono poi presentati i danni conseguenti alla minaccia evidenziata, alcuni esempi utili per facilitare la comprensione del contesto in cui ci si trova e, infine, gli interventi da poter mettere in atto per contrastare la minaccia.
I suggerimenti e le puntualizzazioni redatte da EPIC sono diretti, in primis, nei confronti delle autorità, alle quali vengono indicate possibili strategie di contrasto attuabili per mezzo di interventi normativi e strumenti legali.
Tuttavia, l’organizzazione si rivolge anche ai privati, i quali potrebbero, ad esempio, sviluppare soluzioni tecnologiche e tool di supporto per prevenire e/o arginare i danni derivanti dalla verificazione di tali eventi.
Raccomandazioni in ambito legislativo e amministrativo
Al termine del rapporto, l’EPIC riporta alcune raccomandazioni in ambito legislativo, amministrativo e relative al comportamento dei singoli e delle aziende.
Per quanto concerne le regolamentazioni di carattere normativo, l’Electronic Privacy Information Center suggerisce di emanare leggi che contrastino le pratiche ingannevoli e intimidatorie nei confronti degli elettori, di approvare l’American Data Privacy Protection Act (ADPPA), il quale limiterà la raccolta e l’uso dei dati personali degli utenti, nonché di adottare strumenti legislativi o regolamentari che limitino l’uso di informazioni personali nell’IA generativa.
Inoltre, EPIC ritiene sarebbe necessario eseguire verifiche e valutazioni d’impatto nei dispositivi di intelligenza artificiale, di modo da limitarne gli usi manipolativi o altrimenti rischiosi.
Infine, si ritiene necessario che gli enti utilizzatori dei dati ottenuti attraverso l’IA siano ritenuti responsabili di tali dati, al pari di chi li ha generati, mettendo quindi sullo stesso piano la creazione del dato con il trattamento dello stesso.
Per quanto concerne l’aspetto amministrativo ed esecutivo, l’EPIC sottolinea la rilevanza in materia di autorità come la Federal Trade Commission (FTC) ed il Consumer Financial Protection Bureau (CFPB), le quali sono preposte alla tutela dei consumatori da frodi e pratiche ingannevoli.
Si ritiene, inoltre, possa essere rilevante stabilire standard di valutazione della proprietà intellettuale relativa all’IA, attraverso pareri consultivi e dichiarazioni politiche.
Infine, l’EPIC suggerisce alcuni comportamenti che sarebbe bene mantenere nell’utilizzo dei dispositivi di intelligenza artificiale.
Aziende e singoli individui potrebbero, ad esempio, sviluppare strumenti per l’individuazione delle informazioni protette all’interno dei modelli di IA, nonché dispositivi accessibili a tutti per l’identificazione di deepfake.
I datori di lavoro dovrebbero investire maggiormente nella formazione dei propri dipendenti in materia, così come nelle risorse a disposizione all’interno delle aziende.
Di conseguenza, anche i fornitori di tecnologia e servizi dovrebbero essere tenuti ad investire nella ricerca e nello sviluppo di IA che sia in grado di migliorare la produttività dei lavoratori, senza sostituirne le funzioni lavorative e garantendo un uso corretto e trasparente di tale tecnologia.
Nella parte conclusiva del testo è inclusa un’Appendice dei danni, la quale fornisce ai lettori un lessico comune per comprendere le potenziali conseguenze dannose che le nuove tecnologie generative possono creare.
Nello specifico, l’appendice include le definizioni dei principali danni causati dall’IA generativa, alcuni esempi di danni reali causati da tale tecnologia e una tabella che confronta i potenziali danni coinvolti in ciascun esempio illustrato.