Il 7 e l’8 settembre si è tenuto l’incontro tra le Autorità per la protezione dei dati e la privacy dei paesi membri del G7, sotto la presidenza del Commissario federale tedesco per la protezione dei dati e la libertà di informazione, al fine di discutere le attuali questioni normative e tecnologiche degli sviluppi nel contesto del “Data Free Flows with Trust (DFFT)”.
Per l’Autorità Garante italiana ha partecipato la vice presidente Ginevra Cerrina Feroni che insieme alle Autorità per la protezione dei dati e la privacy del G7, in qualità di gruppo di Autorità dei sette sistemi socio-economici più importanti al mondo, hanno designato la volontà di raggiungere un modello etico e culturale distintivo per la governance dell’IA.
American Data Privacy and Protection Act, tra chi è a favore e chi no: le questioni ancora aperte
Indice degli argomenti
Di cosa si è parlato
I temi più dibattuti durante l’incontro hanno incluso, come anche sintetizzato nel comunicato stampa del Garante privacy:
- gli strumenti per il trasferimento internazionale dei dati, inclusa la certificazione;
- le tecnologie di miglioramento della privacy (PET);
- gli standard di anonimizzazione;
- il rafforzamento del principio di minimizzazione dei dati per affrontare le sfide della sorveglianza commerciale;
- il ruolo delle Autorità di protezione dati nella definizione e nella promozione di un modello etico e culturale per la governance dell’Intelligenza Artificale (IA).
VPN e sicurezza nel trasferimento dati: quali garanzie in attesa di accordi UE-USA
Il documento finale
Il documento finale evidenzia tutte le criticità rilevate dalle Autorità per la protezione dei dati. In particolare, l’Autorità Garante italiana ha evidenziato, nel documento finale dei lavori G7, l’importanza di adottare un modello etico e culturale distintivo per la governance dell’IA. L’Autorità “rifiuta anche l’uso indiscriminato dell’IA applicata ai dati personali che si traduce in metodologie di sorveglianza massiva con l’evidente scopo di controllare e manipolare la condotta degli individui mediate o dati personali, raccolti, analizzati e incrociati in grandi quantità, varietà e velocità”.
Secondo l’Autorità, l’inequivocabile e stringente competenza delle autorità di protezione dei dati e della privacy sulla governance dell’Intelligenza Artificiale richiede la costruzione di un’alternativa virtuosa all’uso dell’IA da parte delle autorità pubbliche che tenga conto dei valori e dei principi dello Stato di diritto e del governo democratico a cui tutti facciamo riferimento.
Garante privacy: “Diritti fondamentali da proteggere in tempi di guerra e pandemia”
Niente IA per raccogliere dati personali a fini di sorveglianza
Come indicato nel documento summenzionato, l’Autorità Garante precisa inoltre che le attuali questioni normative e tecnologiche degli sviluppi nel contesto del “Data Free Flows with Trust (DFFT)” richiedono una posizione che rifiuti l’uso dell’IA quando questa implichi una massiccia raccolta digitale di dati personali a fini di sorveglianza e forme sempre più invasive di penetrazione nella vita intellettuale, spirituale, digitale e fisica dei cittadini.
Ci vuole etica per l’Intelligenza artificiale
Quello che emerge ancora una volta è l’importanza ma anche l’impossibilità di discernere dai principi etici quando si parla di sistemi di AI. Il tema dell’etica figura in ogni intervento legislativo, si pensi alla “Risoluzione del Parlamento europeo recante raccomandazioni alla Commissione concernenti il quadro relativo agli aspetti etici dell’intelligenza artificiale, della robotica e delle tecnologie correlate”.
Infatti, nella Risoluzione, si pone l’accento sull’importanza della presenza in ogni Stato membro di specifiche autorità nazionali di controllo incaricate di garantire, valutare e monitorare il rispetto degli obblighi giuridici e dei principi etici relativi allo sviluppo, alla diffusione e all’utilizzo dell’intelligenza artificiale, della robotica e delle tecnologie correlate ad alto rischio e, il loro intervento, consentirà ad assicurare la conformità giuridica ed etica di tali tecnologie.
Rispettare i trattati, la Carta e il diritto derivato dell’UE
La Risoluzione sottolinea anche l’asimmetria tra coloro che impiegano le tecnologie di IA e coloro che interagiscono con tali tecnologie e sono soggetti ad esse. La Risoluzione pone in risalto la fiducia dei cittadini nell’IA, la quale può essere costruita solo in un quadro normativo di “etica come impostazione predefinita e fin dalla progettazione” e che garantisca che qualsiasi IA messa in funzione rispetti pienamente i trattati, la Carta e il diritto derivato dell’UE.
In quest’ottica e in conformità al quadro normativo oggi vigente, il fine ultimo degli incontri svolti dalle Autorità per la protezione dei dati e la privacy dei paesi membri del G7 è quello di continuare a lavorare per salvaguardare i diritti e le libertà dei cittadini e sviluppare un piano di azione per i prossimi incontri che saranno svolti sotto la presidenza dell’Autorità garante giapponese (PPC) nel 2023.