I recenti interventi dell’Autorità Garante sul tema dell’AI (che, in particolare, ha dettato precise condizioni perché i dati degli utenti di ChatGPT siano trattati in modo lecito da OpenAI) hanno indotto ad alcune riflessioni.
In particolare, lo sviluppo dei sistemi di AI, da un po’ di anni a questa parte, impone la necessità di porre l’attenzione, ad esempio, al principio di trasparenza nonché a una maggiore chiarezza in relazione ai parametri di funzionamento dell’algoritmo e alle misure poste in atto per tutelare i diritti e le libertà degli interessati.
La valutazione degli impatti sui diritti e le libertà degli interessati è sempre più complessa: più gli algoritmi diventano più sofisticati, maggiori sono i vincoli etici dell’algoritmo e la valutazione degli impatti sui diritti umani.
La privacy di ChatGpt interessa tutta l’Europa, interviene l’EDPB: ecco perché
Indice degli argomenti
Innovazione e protezione dati: quali impatti
Di questi aspetti si è parlato durante i lavori del Privacy Symposium, la conferenza internazionale il cui scopo è quello di incrementare il dialogo internazionale, la cooperazione e la diffusione della disciplina data protection, che si è tenuta dal 17 al 21 aprile nell’incantevole Università Ca’ Foscari a Venezia.
In qualità di moderatrice ho preso parte al panel dal titolo “Artificial intelligence vs privacy: possible solutions to support innovation, enhancing data protection” che, come già ben espresso dal titolo, ha approfondito temi di intelligenza artificiale e data protection.
Proprio la complessità di valutare gli impatti dell’intelligenza artificiale sui diritti e le libertà degli interessati desta preoccupazioni condivise non solo dalla maggioranza di coloro che trattano questi temi da una prospettiva giuridica, ma anche da imprenditori del settore tech.
Giusto per citarne uno, Elon Musk, la cui lettera aperta pubblicata dal Future of Life Institute, in merito ai problemi etici derivanti dallo sviluppo incontrollato delle intelligenze artificiali, è stata sottoscritta e condivisa da altri mille ricercatori. Dal testo emerge la sensazione che l’umanità sia prossima a un punto di non ritorno di tipo evolutivo e che sia opportuno fermarsi: da qui la richiesta di una moratoria di sei mesi, per elaborare prassi condivise e presidi nell’addestramento dei sistemi di IA prima che la situazione sfugga di mano.
ChatGPT e gli altri interventi del Garante sull’AI
L’intervento dell’Autorità Garante su ChatGPT e la richiesta di informazioni sulla base giuridica del trattamento per la finalità di addestramento degli algoritmi, unitamente all’assenza di presidi per verificare l’età degli utenti e dei minori in particolare, sollevano temi che si uniscono a quelli emersi in altre occasioni, ad esempio con l’istruttoria dell’Autorità sul sistema Replika.
Nelle verifiche sui sistemi come Replika sono emerse anche risposte inadatte all’età dell’interlocutore, sebbene fosse un sistema di AI destinato a minori per fornire counselling psicologico e quindi a soggetti ancor più vulnerabili.
In realtà, le considerazioni di cui all’ultimo provvedimento del Garante, ivi incluse quelle di natura etica, erano già emerse, senza creare il medesimo scalpore mediatico del caso di ChatGPT, anche nei provvedimenti relativi al caso Bocconi e Glovo dove è stato prescritto l’obbligo per il titolare del trattamento di spiegare il funzionamento dell’algoritmo.
Nel provvedimento di ChatGPT è la natura stessa dello strumento ad essere più complessa e richiedere non solo di spiegare i parametri di funzionamento dell’algoritmo, ma altresì di individuare la base giuridica dei dati personali che sono stati utilizzati per addestrare l’algoritmo e i presidi adottati per garantire il rispetto dei principi del trattamento di cui all’art. 5 del GDPR tra cui, anche il principio di esattezza.
L’ultimo intervento dell’Autorità Garante su ChatGPT ha innescato una serie di critiche da parte dell’opinione pubblica. Tali critiche, ben analizzate, portano alla percezione secondo cui l’utilizzo di tale tecnologia fosse considerata dai cittadini di vitale importanza per lo sviluppo del genere umano anche a discapito del rispetto delle regole e della tutela dei diritti.
Tutele e regole che, come spesso accade, assumono un ruolo marginale in quanto si trova sempre un fine più importante che giustifichi i mezzi, ossia la limitazione dei diritti.
In attesa dell’AI Act
È indubbio il fatto che l’intelligenza artificiale possa assumere un ruolo fondamentale per molti aspetti, si pensi all’aiuto che tali sistemi potrebbero offrire per una maggiore efficienza e qualità in tema di assistenza sanitaria nonché nell’ambito della ricerca scientifica; dall’altro lato, però, vi sono una serie di rischi anche sociali e culturali che non consentono di prescindere dal perseguimento di specifiche regole. Regole che, quando riguardano la tutela della privacy, ingenerano scandalo e dissenso collettivo.
Nel frattempo, il tanto atteso “AI Act” tarda ad arrivare. Ciò che emerge è la volontà del legislatore di volere a tutti i costi coprire ogni ambito futuro rischiando di essere già datato. Il GDPR, è bene ricordalo, nasce da regole non specifiche sui singoli casi ma regole generali e sempre attuali all’evoluzione tecnologica che consentono di costruire le soluzioni partendo da tali regole e non viceversa.
L’evoluzione normativa in termine di AI, come anche auspicato dall’Autorità, necessita del coinvolgimento delle autorità garanti che, grazie al loro contributo verticale, potrebbero migliorare la regolamentazione e frenare quella sorta di liberticidio dilagante.