Il 21 maggio 2024 il Consiglio Europeo ha approvato l’AI Act, il primo regolamento europeo che stabilisce regole armonizzate sull’intelligenza artificiale e che rappresenta un tassello fondamentale della strategia digitale dell’UE. Il Regolamento si aggiungerà, infatti, a una serie di normative (tra cui il Data Act, il Data Governance Act, il Digital Services Act e il Digital Markets Act), volte a promuovere un mercato unico dei dati, la sicurezza degli ambienti online e a favorire mercati digitali equi e innovativi, nel rispetto dei valori e dei diritti europei.
L’esigenza di una disciplina in materia di AI era avvertita da tempo nell’UE, considerati anche l’impatto sociale e economico di questa tecnologia e i possibili rischi per le persone connessi al suo uso. Anche l’enorme diffusione di strumenti di AI generativa negli ultimi anni ha contribuito all’accelerazione dell’iter che ha portato all’approvazione del Regolamento.
Gli algoritmi dei sistemi di AI lavorano sulla base di dati e, laddove questi siano di carattere personale, in un’ottica europea trovano applicazione a ciascun progetto tecnologico basato su tali tecnologie le regole previste dal GDPR, in aggiunta a quelle dell’AI Act.
La conformità normativa, anche in relazione all’uso di tecnologie innovative, richiede tipicamente un approccio trasversale, che tenga conto dell’eterogeneità del framework legale di riferimento. Nei casi d’uso dell’AI che implicano anche il trattamento di dati personali è imprescindibile per gli operatori dei sistemi di AI – dai fornitori agli utilizzatori – tenere conto delle intersezioni tra AI Act e GDPR e adottare tutti i presidi necessari affinché l’uso di tali tecnologie risulti lecito e sicuro.
Indice degli argomenti
I diritti fondamentali
L’obiettivo dell’AI Act è quello di assicurare lo sviluppo di un’AI responsabile e innovativa nell’UE, affrontando i potenziali rischi per la salute, la sicurezza e i diritti fondamentali dei cittadini.
Sono numerosissimi, all’interno dell’AI Act, i riferimenti ai diritti e alle libertà fondamentali della Carta dei Diritti Fondamentali dell’Unione Europea (“Carta”), la cui protezione risulta per il legislatore europeo una condizione essenziale per consentire la diffusione di un’AI antropocentrica e affidabile.
Tra i diritti fondamentali enunciati dalla Carta, assumono particolare rilevanza in questo contesto gli articoli 7 e 8 che sanciscono, rispettivamente, il diritto al rispetto della vita privata – e quindi alla riservatezza – e alla protezione dei dati personali.
Il GDPR, che dà concreta attuazione a questi diritti, mantiene il proprio ruolo di normativa di riferimento in tale ambito, soprattutto grazie alla sua “neutralità tecnologica”. Le regole previste dal GDPR, infatti, devono essere attuate a prescindere dagli strumenti e dalle modalità mediante cui viene svolto il trattamento di dati personali.
Coerentemente, l’AI Act, che regola il ciclo di vita di una specifica tecnologia, non pregiudica l’applicazione del GDPR, ma ne è complementare.
Nonostante dall’AI possano derivare importanti benefici – da diversi punti di vista, anche economico, sociale e ambientale – l’utilizzo di questa tecnologia può comportare gravi rischi e pregiudicare anche i diritti fondamentali, tra cui quello alla riservatezza e alla protezione dei dati personali.
L’utilizzo dell’intelligenza artificiale solleva, per esempio, importanti preoccupazioni per la privacy dei lavoratori. I sistemi di AI potrebbero infatti essere utilizzati per la sorveglianza sul luogo di lavoro attraverso il monitoraggio degli strumenti aziendali e il riconoscimento delle emozioni dei lavoratori, creando un ambiente di lavoro poco trasparente e potenzialmente pericoloso.
Ulteriori rischi ai diritti fondamentali derivano dai sistemi di AI che attuano un controllo generalizzato di massa, specialmente quando si basano su aspetti biometrici. Tra questi vi sono i sistemi di AI che creano e ampliano le banche dati di riconoscimento facciale mediante scraping di immagini da telecamere di videosorveglianza e Internet, tra cui i social network.
Se utilizzati per identificare e monitorare le persone in tempo reale, questi strumenti potrebbero avere un effetto deterrente sulla libera espressione e il dissenso politico, oltre che limitare la capacità degli individui di tutelare la propria privacy.
Un’altra significativa area di rischio è legata al tracking online e alla profilazione. Nell’ambito di tali attività possono essere raccolte grandi quantità di dati, tra cui informazioni inerenti alla navigazione sul web, alla posizione geografica e al comportamento sui social media, e analizzate anche tramite strumenti di AI per creare profili dettagliati delle persone per potenziare il marketing e la vendita di prodotti o servizi.
I tool di AI generativa possono essere efficacemente usati anche per produrre contenuti da indirizzare ai consumatori tramite mail o altri canali digitali. Un uso errato della tecnologia in questo contesto potrebbe comportare pregiudizi alla privacy e alla protezione dei dati personali e sarebbe potenzialmente idoneo anche a determinare effetti discriminatori e output distorti dal pregiudizio (bias).
Nell’ottica di mitigare i rischi per i diritti fondamentali tutelati negli articoli 7 e 8 della Carta, l’AI Act rimanda alla disciplina dettata dal GDPR.
Come l’AI Act protegge i diritti fondamentali
L’AI Act stabilisce che il diritto alla protezione dei dati personali debba essere garantito durante l’intero ciclo di vita dei sistemi di AI e, per far sì che ciò avvenga, richiama sia alcuni principi sanciti dal GDPR che alcune norme specifiche del medesimo regolamento.
In particolare, vengono richiamati i principi di minimizzazione e privacy by design e by default, applicabili dalla fase di pianificazione e progettazione dei sistemi di AI fino a quella di dismissione. Vengono inoltre indicate alcune misure che i fornitori di sistemi di AI possono utilizzare per garantire la compliance a tali principi, tra cui l’anonimizzazione, la cifratura e l’uso di tecnologie che consentano di inserire algoritmi nei dati e di addestrare i sistemi di AI senza trasmissione o copia dei dati.
Oltre a richiamare i principi del GDPR, l’AI Act fa riferimento agli “Orientamenti etici per un’AI affidabile” elaborati nel 2019 dall’High-Level Expert Group on Artificial Intelligence (AI HLEG) della Commissione Europea.
Tali orientamenti fanno riferimento a sette principi etici volti a garantire l’elaborazione di un’AI in linea con la Carta e con i valori su cui si fonda l’UE. I principi etici, che guidano l’interpretazione delle disposizioni dell’AI Act, sono i principi di intervento e sorveglianza umana, robustezza tecnica e sicurezza, vita privata e governance dei dati, trasparenza, diversità, non discriminazione, equità, benessere sociale e ambientale e accountability.
DPIA e FRIA
L’art. 35 del GDPR disciplina la valutazione d’impatto sulla protezione dei dati personali (DPIA), un adempimento fondamentale quando un trattamento può presentare un rischio elevato.
Nel caso di sistemi di AI ad alto rischio, l’AI Act impone agli utilizzatori (deployer) di svolgere una DPIA sulla base delle istruzioni comunicate dal fornitore all’utilizzatore per informarlo sulle finalità previste e sull’uso corretto del sistema di AI.
L’AI Act introduce un’ulteriore valutazione d’impatto, centrata sui diritti fondamentali (FRIA), finalizzata alla valutazione degli effetti che un sistema di AI ad alto rischio può avere sui diritti fondamentali delle persone e all’individuazione delle misure da adottare al concretizzarsi di tali rischi.
Questo assessment deve essere svolto da particolari utilizzatori (e.g. organismi di diritto pubblico ed enti privati che forniscono servizi pubblici e alcuni soggetti bancari e assicurativi) al primo uso del sistema e deve includere specifici elementi, tra cui la descrizione dei processi in cui il sistema di AI verrà utilizzato.
L’AI Act stabilisce una connessione tra la DPIA e la FRIA, prevedendo che i due assessment possano essere svolti congiuntamente. All’atto pratico, una FRIA potrebbe in principio includere le valutazioni da svolgersi nell’ambito di una DPIA mentre la maggiore specificità della valutazione d’impatto sulla protezione dei dati non consentirebbe di coprire tutti gli aspetti su cui deve essere incentrata la FRIA.
I due assessment possono quindi in principio procedere in parallelo, in modo da riservare all’analisi sugli aspetti prettamente privacy e data protection il necessario approfondimento.
Sorveglianza umana e decisioni automatizzate
L’AI Act richiama le disposizioni del GDPR in materia di processo decisionale esclusivamente automatizzato, inclusa la profilazione, che stabiliscono il diritto a non essere sottoposti a decisioni basate unicamente su trattamenti automatizzati che producono effetti giuridici o che incidono significativamente sulle persone e il diritto di ottenere l’intervento umano.
La deroga al divieto (in base all’art. 22 del GDPR) sussiste nel caso in cui l’interessato fornisca il proprio esplicito consenso o laddove la decisione sia necessaria per la conclusione o l’esecuzione di un contratto tra l’interessato e il titolare del trattamento, oppure ove vi sia una espressa previsione di legge.
In presenza di tecnologie di AI per assumere questo genere di decisioni potenzialmente molto impattanti per un individuo (si pensi anche all’ottenimento di un posto di lavoro o a un finanziamento) i rischi aumentano sensibilmente e di conseguenza devono innalzarsi i presidi di sicurezza e la trasparenza.
Il nuovo Regolamento mira a tutelare le persone anche attraverso il principio di intervento e sorveglianza umana (“human-in-the-loop”), imponendo che i sistemi di AI ad alto rischio siano progettati, sviluppati e usati in modo tale da permettere la supervisione umana, che deve essere maggiormente incisiva in presenza di rischi elevati.
Il principio di intervento e sorveglianza umana si concretizza anche attraverso l’obbligo degli utilizzatori di AI ad alto rischio di adottare misure tecniche e organizzative volte a garantire l’utilizzo dei sistemi in conformità con le istruzioni per l’uso comunicate dai fornitori, e quindi anche alle misure di sorveglianza umana ivi contenute.
Categorie particolari di dati personali
Un’eccezione al generale divieto di trattare categorie particolari di dati personali (come quelli relativi alla salute, ad esempio) viene introdotta dall’AI Act, che stabilisce la possibilità per i fornitori di trattare questi dati, ove ciò sia strettamente necessario per rilevare e correggere le distorsioni dei sistemi di AI ad alto rischio e non sia possibile fare ricorso a metodi meno invasivi, che includano l’uso di dati anonimi o sintetici.
Tale trattamento deve in ogni caso avvenire nel rispetto dei diritti e delle libertà fondamentali delle persone fisiche e rispettare le disposizioni applicabili del GDPR.
Il sistema di gestione dei rischi
L’art. 9 dell’AI Act disciplina il sistema di gestione dei rischi, un processo dinamico continuativo pianificato ed eseguito per tutto il ciclo di vita di un sistema di AI ad alto rischio. Il sistema di gestione mira a identificare e gestire, tra altri, i rischi noti e quelli prevedibili per la salute, la sicurezza e per i diritti fondamentali.
Nell’ambito di tutte le fasi di questo processo è obbligatorio focalizzare anche le implicazioni che la tecnologia ha rispetto ai dati personali delle persone e che possono impattarne la sicurezza e determinare effetti indesiderati e illeciti.
Le misure da adottare in ottica di mitigazione dei rischi privacy sono in larga parte coincidenti con quelle che il GDPR e tutte le linee guida in materia indicano per proteggere i dati personali, assicurandone la riservatezza, l’integrità e la disponibilità.
Governance e trasparenza
Per disporre di dati di addestramento, convalida e prova di elevata qualità e integrità, il Regolamento (all’articolo 10) impone che tali dati – per i sistemi di AI ad alto rischio – siano soggetti a pratiche di governance adeguate rispetto alle finalità previste.
Queste pratiche possono riguardare, tra l’altro, anche il design, i processi per la raccolta dei dati (anche in considerazione delle finalità originarie) e per il loro trattamento (tra cui le operazioni di aggiornamento, arricchimento, aggregazione), l’esame dei possibili bias che possono impattare la privacy e la protezione dei dati (oltre ad altri diritti fondamentali) e produrre effetti discriminatori, lo svolgimento di gap analysis per verificare la conformità all’AI Act (e di conseguenza anche al GDPR, nella misura in cui questo è richiamato).
Uno dei principi che orientano l’interpretazione dell’AI Act e del GDPR è quello di trasparenza, a cui gli operatori di sistemi di AI devono dare concreta attuazione, soprattutto con riferimento ai sistemi di AI ad alto rischio e ai modelli di AI per finalità generali.
In base al nuovo Regolamento, i sistemi di AI devono essere sviluppati e utilizzati in modo da consentire un’adeguata tracciabilità e spiegabilità, facendo in modo che le persone siano consapevoli del fatto che stanno comunicando o interagendo con un’AI, informando anche gli utilizzatori delle capacità e dei limiti dei sistemi e gli interessati dei loro diritti.
Cyber sicurezza
La sicurezza cyber è fondamentale per garantire che i sistemi di AI siano resilienti ai tentativi che mirano ad alterarne l’uso, il comportamento, le prestazioni o a comprometterne in qualsiasi modo la sicurezza.
In tale ottica, l’AI Act impone che i sistemi di AI ad alto rischio siano progettati e sviluppati in modo tale da conseguire un adeguato livello di cyber security e che le relative soluzioni tecniche siano commisurate ai possibili rischi.
Questa impostazione riflette quella del GDPR, secondo cui la sicurezza delle informazioni non è standard, ma bensì calibrata rispetto ai rischi e alle minacce che in concreto possono verificarsi, peraltro in continua evoluzione, soprattutto in ambito cyber, dove l’AI può diventare anche un potente strumento offensivo nelle mani di soggetti malintenzionati.
Autorità di controllo
L’AI Act non pregiudica né comprime i compiti e i poteri delle Autorità di controllo indipendenti competenti a monitorare il rispetto del GDPR. Il nuovo Regolamento, anzi, attribuisce nuove competenze alle Autorità Privacy, stabilendo che debba essere loro notificato l’uso di sistemi di identificazione biometrica in tempo reale.
Inoltre, occorre fornire alle Autorità Privacy la documentazione relativa ai sistemi di AI di identificazione biometrica remota a posteriori, ove da queste richiesto.
Il Regolamento stabilisce anche che gli Stati membri debbano designare le Autorità Privacy quali autorità di vigilanza competenti con riferimento ai sistemi di AI ad alto rischio basati su tecniche di riconoscimento biometrico utilizzati a fini di attività di contrasto, gestione delle frontiere, giustizia e democrazia.
Il disegno di legge italiano che contiene disposizioni e delega al Governo in materia di Intelligenza Artificiale prevede che vengano affidati all’AgID e all’ACN i compiti di garantire l’applicazione e l’attuazione della normativa europea e nazionale sull’AI, precisando che ciò non pregiudica le competenze, i compiti e l’indipendenza del Garante Privacy.
Le specifiche attribuzioni di poteri indicate dall’AI Act e sopra indicate non sono quindi state (ancora) formalizzate. Sarebbe invece auspicabile che lo fossero in sede di conversione del DDL in legge da parte del Parlamento.
Considerazioni conclusive
L’AI Act ha dato un nuovo slancio al GDPR, riconoscendo una centralità alla riservatezza e alla protezione dei dati nell’ambito dello sviluppo e dell’uso dell’intelligenza artificiale.
Il nuovo Regolamento, infatti, ha introdotto rigorosi obblighi per la tutela di questi fondamentali diritti, in certi casi lasciando agli operatori il compito di individuare le azioni da implementare a tal fine e, in altre situazioni, identificando gli adempimenti in modo specifico.
La forte connessione tra i due regolamenti è stata possibile soprattutto grazie alla neutralità tecnologica del GDPR, che ha fatto sì che le sue norme siano oggi ancora attuali nonostante le inedite sfide poste dall’AI. I due impianti normativi risultano pertanto complementari, richiedendo un approccio integrato.
Tale operazione è peraltro agevolata dalle similitudini esistenti in termini di approccio, per quanto riguarda in particolare la valutazione e la gestione dei rischi, l’adozione di misure di sicurezza adeguate, la trasparenza nei confronti delle persone e la strutturazione di documentazione legale e tecnica atta a dimostrare la conformità alle norme.