Il GDPR si dimostra ancora una volta il capostipite delle normative in materia di diritto delle nuove tecnologie, facendo da faro per la evoluzioni successive, e non solo normative, alle quali stiamo assistendo.
Così Il Comitato europeo per la protezione dei dati personali (EDPB) ha adottato recentemente un parere sull’uso dei dati personali per lo sviluppo e la diffusione dei modelli di AI.
Illustriamone i contenuti, soffermandoci sugli aspetti salienti.
Indice degli argomenti
Il parere dell’EDPB sui modelli di AI
Con questo parere l’EDPB si esprime “su alcuni aspetti della protezione dei dati connessi al trattamento dei dati personali nel contesto dei modelli di AI”, soffermandosi su tre questioni che l’Autorità garante irlandese (SA IE) ha sottoposto all’EDPB, e in particolare:
- come e quando i modelli di AI possono essere considerati anonimi;
- se e come l’interesse legittimo possa essere utilizzato come base giuridica per lo sviluppo o l’utilizzo di modelli di AI;
- cosa succede se un modello di AI viene sviluppato utilizzando dati personali che sono trattati illecitamente.
L’EDPB, come di consueto, fornisce alcuni esempi e nella specie di un chatbot chiamato ad assistere gli utenti nell’uso dell’AI, con il fine di comprendere come migliorare la cibersicurezza.
Poi il parere contempla una serie di criteri come l’accessibilità dei dati personali al pubblico, la natura del rapporto tra l’individuo e il responsabile del trattamento, e la natura del susseguente servizio, l’origine e il contesto in cui sono stati raccolti i dati personali, nonché i potenziali ulteriori usi del modello di AI accertandosi che le persone interessate siano effettivamente a conoscenza del fatto che i loro dati personali sono online.
Il parere contiene ancora un elenco non esaustivo di esempi di misure tecniche di mitigazione, finalizzate da un lato a rendere più facile l’esercizio dei diritti, dall’altro ad aumentare la trasparenza.
I focus dell’EDPB sullo sviluppo dei modelli di AI
Nel suo parere, quindi, l’EDPB pone sostanzialmente i paletti per costituire uno sviluppo dell’AI in linea con il GDPR, evidenziando una equazione fondamentale: innovazione e responsabilità.
Di qui, i focus che seguono.
Un chiarimento sulle “nozioni chiave” dell’AI
L’EDPB fornisce anzitutto dei “chiarimenti sulla terminologia e sui concetti utilizzati” soffermandosi in particolare su:
- “dati di prima parte” per i quali devono intendersi i dati personali che il titolare del trattamento ha raccolto presso gli interessati;
- “dati di terze parti” per i quali si intendono i dati personali raccolti o ricevuti da terzi (ad esempio tramite web scraping);
- “web scraping” deve intendersi “una tecnica comunemente utilizzata per raccogliere informazioni da fonti online disponibili pubblicamente” che possono, anzi evidentemente il più delle volte contengono dati personali;
- “ciclo di vita” dei modelli di AI, nonché a varie fasi riguardanti, tra l’altro, la “creazione”, lo “sviluppo”, l'”addestramento”, l'”aggiornamento”, la “messa a punto”, il “funzionamento” o il “post-addestramento” dei modelli stessi. Fasi tutte che possono aver luogo nello sviluppo e nell’implementazione dei modelli di AI inclusive di dati personali in relazione alle più varie finalità.
L’anonimizzazione dei dati dove realmente possibile
L’EDPB, nel richiamare l’art. 4, par. 1 del GDPR (definizioni) in combinato disposto con il Considerando 26, qualora un modello di AI addestrato comporti il trattamento di dati personali occorre fare in modo che l’output sia un’anonimizzazione dei modelli di AI. Ma non sempre è possibile.
In ogni caso, l’anonimizzazione va valutata caso per caso.
D’altra parte, i modelli di AI, come sostiene l’EDPB (pur ricordando che la traduzione fatta in italiano non è quella ufficiale) che “indipendentemente dal fatto che siano addestrati con dati personali o meno, sono solitamente progettati per fare previsioni o trarre conclusioni, cioè sono progettati per dedurre”.
L’EDPB ritiene, poi, che “anche quando un modello di AI non è stato intenzionalmente progettato per produrre informazioni relative a una persona fisica identificata o identificabile a partire dai dati di addestramento, le informazioni provenienti dall’insieme di dati di addestramento, compresi i dati personali, possono comunque rimanere assorbite nei parametri del modello, vale a dire rappresentate attraverso oggetti matematici”.
Sui modelli di AI considerati anonimi e come dimostrarlo
Secondo l’EDPB per poter considerare un modello di AI “anonimo”, occorre sia la probabilità di estrazione diretta di dati personali relativi a individui i cui dati sono stati utilizzati per addestrare il modello, che la probabilità di ottenere, intenzionalmente o meno, tali dati di natura personale, attraverso una query.
Circa poi gli elementi per valutare la probabilità residua di identificazione, ecco che l’EDPB si rifà ai criteri di:
- progettazione di modelli di intelligenza artificiale demandando alle Autorità di controllo la valutazione in via di sviluppo;
- selezione delle fonti esaminando la selezione delle stesse utilizzate per addestrare il modello di AI, attraverso una valutazione volta a cogliere da un lato l’adeguatezza dei criteri di selezione, e dall’altro la pertinenza/adeguatezza delle fonti scelte alla luce degli scopi previsti, e dall’altro ancora l’eventuale esclusione di fonti non appropriate;
- preparazione e minimizzazione dei dati per la fase di formazione, esaminando se: i) sia stato preso in considerazione l’uso di dati anonimi e/o personali sottoposti a pseudonimizzazione; ii) si sia deciso di non ricorrere a tali misure, motivandolo alla luce dello scopo perseguito; iii) siano state stabilite strategie e tecniche di minimizzazione dei dati onde limitare il volume dei dati personali; iv) siano stati concepiti eventuali processi di “filtraggio dei dati implementati prima dell’addestramento del modello volti a rimuovere i dati personali irrilevanti”;
- scelte metodologiche in merito alla formazione attribuendo alle Autorità di controllo la valutazione in ordine alle scelte metodologiche intraprese volte a ridurre o eliminare in modo significativo l’identificabilità (per esempio “overfitting, privacy differenziale”);
- misure relative agli output del modello circa metodi o misure aggiuntive rispetto al modello di AI, le quali “potrebbero non avere un impatto sul rischio di estrazione diretta di dati personali per il modello da parte di chiunque vi acceda direttamente, ma che potrebbero ridurre la probabilità di ottenere dati personali relativi ai dati di addestramento dalle query”;
- analisi del modello di intelligenza artificiale ai fini della valutazione, da parte delle Autorità, della “solidità del modello di AI progettato” purché soggetto a una efficace governance ingegneristica. Di qui, l’importanza degli audit basati su documenti (interni o esterni) inclusivi di una valutazione delle misure scelte e del loro impatto al fine di limitarne la probabilità di identificazione che le Autorità Garanti dovrebbero valutare positivamente se fatti, vieppiù con regolarità;
- test del modello di intelligenza artificiale e resistenza agli attacchi, da ultimo, le Autorità di controllo, scrive l’EDPB “dovrebbero prendere in considerazione la portata, la frequenza, la quantità e la qualità dei test che il titolare del trattamento ha condotto sul modello”, esaltando i cd stress test che se superati dimostrano, anche in termini di accountability, lo stato di avanguardia oltre che di resistenza/resilienza a eventuali attacchi.
Adeguatezza dell’interesse legittimo per il trattamento dati
L’EDPB fornisce poi delle osservazioni generali su alcuni aspetti importanti di cui le autorità di controllo dovrebbero tenere conto, a prescindere dalla base giuridica del trattamento.
Non solo, nel valutare in che modo i titolari del trattamento possano dimostrare la compliance al GDPR nel contesto dei modelli di AI.
L’EDPB, quindi, si richiama agli orientamenti n. 1/2024 sul trattamento dei dati personali basati sull’articolo 6, paragrafo 1, lettera f), del GDPR, prendendo in considerazione le tre fasi richieste dalla valutazione del legittimo interesse nel contesto dello sviluppo e della diffusione di modelli di AI.
Impatto di un trattamento illecito nello sviluppo di un modello di AI
Circa gli impatti che potrebbero verosimilmente derivare da un trattamento illecito nello sviluppo di un modello di AI, l’EDPB ipotizza tre scenari.
Scenario 1
Un titolare del trattamento tratta illecitamente i dati personali per sviluppare il modello, i dati personali sono conservati nel modello e successivamente trattati dallo stesso titolare del trattamento (ad esempio nel contesto dell’implementazione del modello).
CONTESTO | PARERE | ESEMPIO |
Questo scenario si riferisce alla domanda 4, lettera i), della richiesta, nel caso in cui un titolare del trattamento tratti illecitamente dati personali (ossia non rispettando l’articolo 5, paragrafo 1, lettera a), del GDPR e l’articolo 6 del GDPR) per sviluppare un modello di IA, il modello di AI conserva le informazioni relative a una persona fisica identificata o identificabile e pertanto non è anonimo. | Se le fasi di sviluppo e di diffusione riguardino finalità distinte (costituendo quindi attività di trattamento separate) e la misura in cui l’assenza di una base giuridica per l’attività di trattamento iniziale incida sulla liceità del trattamento successivo la VALUTAZIONE deve essere fatta caso per caso, a seconda del contesto specifico e di riferimento. | Ad esempio, con particolare riguardo alla base giuridica dell’articolo 6, paragrafo 1, lettera f), del GDPR, quando il trattamento successivo si basa su un interesse legittimo, il fatto che il trattamento iniziale fosse illecito dovrebbe essere preso in considerazione nella valutazione dell’interesse legittimo (ad esempio per quanto riguarda i rischi per gli interessati o il fatto che gli interessati potrebbero non aspettarsi tale trattamento successivo). In questi casi, la liceità del trattamento nella fase di sviluppo può incidere sulla liceità del trattamento successivo. |
Scenario 2
Un titolare del trattamento tratta illecitamente i dati personali per sviluppare il modello, i dati personali sono conservati nel modello e sono trattati da un altro titolare del trattamento nel contesto dell’implementazione del modello stesso.
CONTESTO | PARERE | ESEMPIO |
Questo scenario si riferisce alla domanda 4 (i) della richiesta. Si differenzia dallo scenario 1 (nella sezione 3.4.1 delle presenti conclusioni) in quanto i dati personali sono successivamente trattati da un altro titolare del trattamento nel contesto dell’implementazione del modello di IA. | L’EDPB ricorda che l’accertamento dei ruoli assegnati a questi diversi attori nell’ambito del quadro in materia di protezione dei dati è un passo essenziale al fine di individuare quali obblighi ai sensi del regolamento generale sulla protezione dei dati si applicano e chi è responsabile di tali obblighi, e che le situazioni di contitolarità del trattamento dovrebbero essere prese in considerazione anche nella valutazione delle responsabilità di ciascuna parte. | Ad esempio, nell’ambito di un cd “test comparativo” dovranno essere presi in debita considerazione diversi aspetti, sia di natura tecnica (ad esempio, l’esistenza di filtri o limitazioni di accesso posti durante lo sviluppo del modello, che il successivo titolare del trattamento non può eludere o influenzare, e che potrebbero impedire l’accesso ai dati personali o la divulgazione degli stessi) sia di natura giuridica (ad esempio, la natura e la gravità dell’illiceità del trattamento iniziale). |
Al riguardo, l’EDPB afferma che “le autorità di controllo dovrebbero valutare se il titolare del trattamento che implementa il modello abbia effettuato un’opportuna valutazione, nell’ambito dei suoi obblighi di responsabilitàper dimostrare la conformità all’articolo 5, paragrafo 1, lettera a), e all’articolo 6 del regolamento generale sulla protezione dei dati, per accertare che il modello di intelligenza artificiale non sia stato sviluppato mediante trattamento illecito di dati personali”.
È chiaro ed evidente che il grado di valutazione del titolare del trattamento e il livello di dettaglio atteso dalle Autorità di controllo, saranno fattori variabili a seconda di parametri come il tipo e il grado di rischi sollevati dal trattamento nel modello di AI durante la sua diffusione rispetto ai diritti degli interessati i cui dati siano stati utilizzati per sviluppare il modello stesso.
Scenario 3
Un titolare del trattamento tratta illecitamente i dati personali per sviluppare il modello di AI; quindi, garantisce che il modello sia reso anonimo, prima che lo stesso o un altro titolare del trattamento avvii un altro trattamento di dati personali nel contesto dell’implementazione.
CONTESTO | PARERE | RACCOMANDAZIONE |
Questo scenario si riferisce alla domanda 4, punto ii), della richiesta e si riferisce a un caso in cui un titolare del trattamento tratta illecitamente i dati personali per sviluppare il modello di IA, ma lo fa in modo da garantire che i dati personali siano resi anonimi, prima che lo stesso o un altro titolare del trattamento avvii un altro trattamento di dati personali nel contesto dell’impiego. | Quando i titolari del trattamento trattano successivamente i dati personali raccolti durante la fase di diffusione, dopo che il modello sia stato anonimizzato, il GDPR trova sì applicazione. | L’EDPB si raccomanda nel senso che “una semplice affermazione di anonimato del modello non è sufficiente per esentarlo dall’applicazione del GDPR e osserva che le autorità di controllo dovrebbero valutarlo tenendo conto, caso per caso, delle considerazioni fornite dall’EDPB per rispondere alla domanda 1 della richiesta”. |
Conclusioni
Il parere dell’EDPB rappresenta un importante passo in avanti verso una regolamentazione sempre più coerente e responsabile dell’AI, in ottica di compliance interdisciplinare.
È chiaro che un processo di innovazione via via maggiormente accountable richiede un dialogo costante e continuo, nonché congiunto così come arricchito da soluzioni pratiche le quali permettono un bilanciamento di interessi tra compliance ed evoluzione tecnologica.
Ci pare importante allora concludere, riportando fedelmente le dichiarazioni rilasciate dal Presidente dell’EDPB Talus a proposito (di questo parere dell’EDPB): “Le tecnologie di IA possono offrire molte opportunità e vantaggi a diversi settori e ambiti della vita. Dobbiamo garantire che queste innovazioni siano fatte in modo etico, sicuro e in un modo che vada a beneficio di tutti.
L’EDPB intende sostenere l’innovazione responsabile in materia di IA garantendo la protezione dei dati personali e nel pieno rispetto del regolamento generale sulla protezione dei dati (RGPD)”.
Ecco, speriamo che non resti solo un auspicio, ma un faro nella notte.