Le linee guida sulla gestione del “rischio inaccettabile” per l’intelligenza artificiale, recentemente pubblicate dalla Commissione Europea, delineano le future politiche normative in ambito IA.
Composto da 135 pagine di esempi, eccezioni, valutazioni, limitazioni e approfondimenti il documento non solo chiarisce la visione della Commissione sull’articolo 5 dell’AI Act (i cui primi divieti sono scattati lo scorso 2 febbraio) – relativo ai divieti sui sistemi di IA a rischio inaccettabile – ma offre anche linee guida pratiche per le Autorità competenti, providers e deployer di tecnologie IA.
In questo modo, si intende garantire una corretta applicazione della legge e favorire il rispetto delle normative in modo uniforme e coerente.
Un elemento di rilievo è l’esclusione dei sistemi IA in ambito militare e di difesa e di sicurezza nazionale, un’area che non rientra sotto il controllo dell’AI Act, ma che comunque solleva importanti questioni etiche.
Viene sottolineata una distinzione fondamentale tra uso professionale e uso personale e viene affrontata la questione della responsabilità in caso di violazioni legate all’uso illecito delle tecnologie IA.
Indice degli argomenti
I divieti: tecniche subliminali, manipolative e ingannevoli
I primi due divieti previsti dall’AI Act sono finalizzati a proteggere le persone, in particolare quelle vulnerabili, dagli effetti negativi derivanti dalla manipolazione e dallo sfruttamento tramite l’intelligenza artificiale. Tali divieti si concentrano su:
Costruire una PA più moderna ed efficiente: novità 2025 nel report del Politecnico di Milano
- Sistemi IA che utilizzano tecniche subliminali, manipolative o ingannevoli, capaci di influenzare in modo dannoso il comportamento di individui o gruppi (articolo 5, paragrafo 1, lettera a).
- Sistemi che sfruttano vulnerabilità dovute a fattori come l’età, la disabilità o una situazione socioeconomica specifica, al fine di alterare indebitamente le scelte e i comportamenti degli individui (articolo 5, paragrafo 1, lettera b).
Tecniche Subliminali
Le tecniche subliminali, che non sono automaticamente vietate ma devono rispettare le condizioni stabilite, includono metodi che, pur non essendo direttamente percepiti dalla mente cosciente, possono alterare atteggiamenti o comportamenti. Esempi includono:
- Messaggi subliminali visivi, come immagini o testi che appaiono brevemente durante la visualizzazione di un contenuto.
- Messaggi subliminali uditivi, che potrebbero essere diffusi a volumi bassissimi o mascherati da altri suoni, influenzando l’ascoltatore senza che se ne accorga.
- Stimoli tattili subliminali, che, seppur impercettibili, possono influenzare gli stati emotivi.
Ad esempio, un gioco può sfruttare le tecnologie neuro abilitate dall’intelligenza artificiale e le interfacce macchina-cervello che consentono agli utenti di controllare (parti di) un gioco con un copricapo che rileva l’attività cerebrale.
L’IA può essere utilizzata per addestrare il cervello dell’utente in modo surrettizio e senza che questi se ne renda conto, per rivelare o dedurre dai dati neurali informazioni che possono essere molto invasive e sensibili (ad esempio, informazioni bancarie personali, informazioni intime eccetera. Il divieto di cui all’articolo 5, paragrafo 1, lettera a), dell’AI Act riguarda solo i casi di manipolazione subliminale significativamente dannosa e non le applicazioni di interfaccia macchina-cervello in generale, se progettate in modo sicuro e rispettoso della privacy e dell’autonomia individuale.
Tecniche manipolative
Le tecniche manipolative si riferiscono a pratiche progettate per alterare il comportamento di una persona in modo tale da compromettere la sua autonomia decisionale.
Queste pratiche sfruttano vulnerabilità psicologiche e cognitivi, tra cui la personalizzazione dei messaggi in base ai dati individuali, creando effetti dannosi.
Un esempio è la manipolazione sensoriale, dove un sistema di IA altera umori o emozioni, inducendo ansia o disagio mentale per influenzare le scelte.
Tecniche Ingannevoli
Le tecniche ingannevoli, sebbene non siano definite in modo esplicito nell’AI Act, si riferiscono a comportamenti che ingannano un individuo, minando la sua capacità di prendere decisioni libere e consapevoli.
Questi sistemi potrebbero presentare informazioni false o distorte con l’intento di compromettere l’autonomia decisionale. Ad esempio, un chatbot IA che si finge una persona cara potrebbe essere utilizzato per truffe, inducendo danni significativi.
Una differenza importante sta nell’ambito dell’IA generativa, che occasionalmente potrebbe produrre contenuti falsi, ma che non rientra necessariamente nei divieti, a meno che non sia in contesti sensibili (salute, istruzione, politiche elettorali), dove il rischio di danno è maggiore.
Distorsione materiale del comportamento
L’articolo 5 dell’AI Act prevede che un sistema IA utilizzi tecniche subliminali, manipolative o ingannevoli solo se l’obiettivo o l’effetto è una distorsione materiale del comportamento di un individuo o di un gruppo. Questo implica un impatto significativo sull’autonomia e sulle scelte, come nel caso di sistemi IA che influenzano in modo dannoso decisioni legate alla salute o al benessere.
Ad esempio, un chatbot IA progettato per supportare uno stile di vita sano potrebbe, se manipolato in modo negativo, portare un utente a intraprendere comportamenti pericolosi, come praticare attività fisica eccessiva, con gravi rischi per la salute.
Oppure si pensi ad un’applicazione AI progettata per emulare i modelli di linguaggio, i comportamenti e le emozioni umane utilizza caratteristiche antropomorfiche e spunti emotivi per influenzare i sentimenti, le disposizioni e le opinioni degli utenti, rendendoli emotivamente dipendenti dal servizio, incentivando comportamenti simili alla dipendenza e causando potenzialmente danni significativi, come comportamenti suicidi e rischi di danneggiare altre persone.
Un altro esempio riguarda i giochi IA, che analizzano i comportamenti dei bambini per personalizzare premi, sfruttando le loro vulnerabilità psicologiche e indurli a giocare in modo compulsivo, con danni duraturi per lo sviluppo fisico e mentale.
Sfruttamento delle vulnerabilità
Il divieto si applica anche a pratiche di sfruttamento che utilizzano le vulnerabilità specifiche di individui, come nel caso di persone anziane o minori. Un esempio di ciò è l’utilizzo di IA per promuovere prodotti dannosi per queste categorie, come trattamenti medici non necessari o prodotti finanziari ingannevoli, il che può comportare danni fisici, emotivi o finanziari significativi.
Allo stesso modo, sistemi IA predittivi che indirizzano pubblicità a persone vulnerabili, sfruttando la loro situazione economica, possono causare danni duraturi, come indebitamento o difficoltà finanziarie.
Ai confini della persuasione
Le linee guida evidenziano che l’IA Act stabilisce un importante divieto nei confronti delle pratiche manipolative ma che non si applica alle forme di persuasione lecite.
Distinguere tra manipolazione e persuasione è fondamentale per delineare i limiti di questa normativa, considerando che entrambe influenzano le decisioni e i comportamenti degli individui, ma operano con metodi e implicazioni etiche molto differenti.
La manipolazione, infatti, si caratterizza per l’uso di tecniche subdole che compromettono l’autonomia, spingendo gli individui a fare scelte che altrimenti non avrebbero preso, sfruttando spesso vulnerabilità psicologiche e bias cognitivi.
Al contrario, la persuasione legittima opera con trasparenza e rispetto per l’autonomia dell’individuo, mirando a informare e guidare le scelte in modo razionale, senza annullare la capacità di valutare consapevolmente le opzioni. Un esempio di persuasione è un sistema di IA che offre raccomandazioni personalizzate basate su algoritmi trasparenti e preferenze consapevoli degli utenti.
Un esempio di manipolazione, invece, si ritrova in un sistema che usa tecniche subliminali, come immagini impercettibili, per influenzare le decisioni degli utenti senza la loro consapevolezza.
Ad esempio, le tecniche subliminali abilitate dall’IA possono essere utilizzate nel trattamento psicologico di una malattia mentale o nella riabilitazione fisica, se realizzate in conformità con la legge applicabile e gli standard medici, incluso il consenso esplicito dell’individuo o dei suoi rappresentanti legali come condizione per l’uso.
Inoltre, il considerando 29 del Regolamento sull’IA chiarisce che le pratiche commerciali comuni e legittime, come la pubblicità, non devono essere considerate “di per sé” o per loro stessa natura come pratiche manipolative, ingannevoli abilitate dall’IA.
Questo confine tra persuasione e manipolazione assume un ulteriore livello di complessità quando si considera che l’essere umano non è sempre razionale, né si comporta come l’homo economicus, il modello teorico che presuppone una decisione pienamente razionale ed informata ed egoistica.
Le istituzioni politiche che cercano di tracciare un confine netto tra questi concetti rischiano di trascurare l’importanza dei fattori psicologici, emotivi e sociali che influenzano il comportamento umano. Non comprendere pienamente questa dimensione irrazionale può portare a un’applicazione inadeguata del Regolamento, creando politiche che ignorano le reali dinamiche che motivano le scelte individuali.
Pertanto, un approccio normativo efficace deve riconoscere la complessità del comportamento umano e proteggere i diritti e il benessere delle persone in un mondo in cui le tecnologie influenzano sempre più profondamente le nostre decisioni.
Esempi di IA non vietati dall’UE
Nonostante i divieti, esistono comunque ampi margini di liceità.
Ecco un breve elenco:
- Le tecniche pubblicitarie che utilizzano l’IA per personalizzare i contenuti in base alle preferenze degli utenti non sono intrinsecamente manipolative, a meno che non impieghino tecniche subliminali, deliberatamente manipolative o ingannevoli che sovvertono l’autonomia individuale o sfruttano le vulnerabilità in modo dannoso, come vietato dagli articoli 5(1)(a) e (b) del Regolamento sull’IA. Il rispetto degli obblighi pertinenti ai sensi del GDPR, delle leggi sulla protezione dei consumatori e del Regolamento (UE) 2022/2065 (‘DSA’) aiuta a mitigare tali rischi.
- La generazione di materiale pedopornografico per addestrare e migliorare l’efficacia dei modelli e dei classificatori di intelligenza artificiale nel rilevare materiale pedopornografico online sono pratiche comuni e legittime che non sfruttano le vulnerabilità dei bambini e sono, al contrario, essenziali per migliorare la sicurezza dei bambini online.
- I sistemi di intelligenza artificiale utilizzati per fornire servizi bancari, come mutui e prestiti, che utilizzano l’età o la situazione socio-economica specifica del cliente come input, in conformità con la legislazione dell’Unione sui servizi finanziari, la protezione dei consumatori, la protezione dei dati e la non discriminazione, non si qualificano come sfruttamento delle vulnerabilità ai sensi dell’articolo 5(1)(b) del Regolamento sull’IA quando sono progettati per proteggere e supportare le persone identificate come vulnerabili a causa della loro età, disabilità o specifiche circostanze socio-economiche, e sono benefici per tali gruppi, contribuendo anche a servizi finanziari più equi e sostenibili per questi gruppi.
- I sistemi di intelligenza artificiale che rilevano la sonnolenza e la fatica nei conducenti e li avvertono di riposarsi, in conformità con le leggi sulla sicurezza, sono benefici e non si qualificano come sfruttamento delle vulnerabilità ai sensi dell’articolo 5(1)(b) del Regolamento sull’IA.”
Esempi di sistemi di intelligenza artificiale che non sono probabilmente destinati a causare danni significativi includono:
Correttivo Codice Appalti, cosa cambia per il 2025: tutti le novità in questo White Paper
- Un sistema di compagnia AI progettato in modo antropomorfico e con l’uso di computazione affettiva per rendere il sistema più attraente e coinvolgere maggiormente gli utenti, ma che non adotta altre pratiche manipolative o ingannevoli in un modo che sia ragionevolmente probabile causi danni psicologici, fisici o altri danni significativi, attaccamenti malsani o dipendenze.
- Un chatbot terapeutico che utilizza tecniche subliminali per indirizzare gli utenti verso uno stile di vita più sano e per smettere di cattive abitudini, come il fumo. Anche se gli utenti che seguono i consigli del chatbot e la terapia subliminale sperimentano alcuni disagi fisici e stress psicologico dovuti allo sforzo per smettere di fumare, il chatbot abilitato dall’IA non può essere considerato come suscettibile di causare danni significativi. Tali disagi temporanei sono inevitabili e superati dai benefici a lungo termine per la salute degli utenti. Non ci sono tentativi nascosti di influenzare il processo decisionale al di là della promozione di abitudini sane.
- Una piattaforma musicale online che utilizza un sistema di riconoscimento delle emozioni per dedurre le emozioni degli utenti e consiglia automaticamente loro brani in linea con i loro stati d’animo, evitando l’esposizione eccessiva a canzoni depressive. Poiché gli utenti stanno semplicemente ascoltando musica e non sono danneggiati o indotti alla depressione e all’ansia, il sistema non è ragionevolmente probabile che causi danni significativi.
- Tecniche manipolative e ingannevoli abilitate dall’IA utilizzate in simulazioni di formazione sulla sicurezza e altre simulazioni di apprendimento che imitano tentativi di phishing per educare gli utenti alle minacce informatiche. Questi sistemi possono utilizzare tecniche deliberatamente manipolative (ad esempio, sfruttando bias cognitivi) senza che gli utenti ne siano consapevoli, distorcendo il comportamento, ma ciò avviene temporaneamente per scopi di formazione e sensibilizzazione senza causare danni significativi.