No, non è vero che solo l’Italia nel mondo democratico occidentale ha dato l’altolà a ChatGPT e alle AI generative, per motivi di privacy. Chi lo dice non ha studiato abbastanza, ma forse potrebbe rimediare interrogando ChatGPT in merito…
Scherzi a parte, ecco una rapida sequenza di alert e interventi degli ultimi giorni, con il comune denominatore di una preoccupazione nei confronti della (lasca) privacy di ChatGPT. Timori – bene ricordarlo – che come detto dal nostro Garante Privacy si basano soprattutto sul fatto che OpenAi (ChatGPT) non dice in effetti come usa i nostri dati e c’è l’idea che si serva – senza limiti né tutele per noi – delle nostre conversazioni per allenare l’algoritmo.
E no – a differenza di quanto dice una minoranza di esperti – l’informativa di OpenAi non basta; è vero che c’è, ma non informa. Non è giuridicamente idonea, come hanno notato molti (come Franco Pizzetti e Anna Cataleta).
Garante Privacy su ChatGpt? Atto dovuto, ma è solo primo round
Indice degli argomenti
Il fronte mondiale di chi teme la privacy in ChatGPT e Ai generative
- Ieri l’Office of the Privacy Commissioner of Canada ha annunciato di aver avviato un’indagine su ChatGPT. “La tecnologia AI e i suoi effetti sulla privacy sono una priorità per il mio ufficio”, ha dichiarato il Commissario per la privacy Philippe Dufresne. “Dobbiamo stare al passo con i progressi tecnologici in rapida evoluzione, e questa è una delle mie principali aree di interesse in qualità di Commissario”. Sebbene i dettagli dell’indagine siano ancora riservati, l’OPC ha dichiarato che l’indagine è stata avviata dopo la presentazione di una denuncia secondo la quale ChatGPT avrebbe raccolto, utilizzato e divulgato informazioni personali senza consenso.
L’Organizzazione europea dei consumatori (BEUC) il 30 marzo ha chiesto che le autorità europee e nazionali avviino un’indagine su ChatGPT e su chatbot simili, dopo che oggi il gruppo della società civile statunitense CAIDP ha presentato un reclamo alla Federal Trade Commission statunitense contro ChatGPT-4. Sebbene l’UE stia attualmente lavorando alla prima legislazione mondiale sull’IA, la preoccupazione del BEUC è che ci vogliano anni prima che la legge sull’IA entri in vigore, lasciando i consumatori a rischio di danni da una tecnologia che non è sufficientemente regolamentata durante questo periodo intermedio e per la quale i consumatori non sono preparati. Ursula Pachl, vicedirettore generale dell’Organizzazione europea dei consumatori (BEUC), ha dichiarato: “Nonostante i benefici che l’IA può portare alla nostra società, attualmente non siamo abbastanza protetti dai danni che può causare alle persone. In pochi mesi abbiamo assistito a una massiccia diffusione di ChatGPT e questo è solo l’inizio. Aspettare che la legge sull’intelligenza artificiale venga approvata ed entri in vigore, cosa che avverrà tra qualche anno, non è sufficiente, poiché crescono le serie preoccupazioni su come ChatGPT e chatbot simili possano ingannare e manipolare le persone”.
Appunto le cose si muovono anche negli Usa, dove l’attenzione alla privacy è inferiore (più al copyright, dove infatti stanno sorgendo cause legali intorno alle AI generative). In un reclamo alla Federal Trade Commission, il Center for AI and Digital Policy ha sollevato questioni critiche sull’impatto del GPT-4 sulla protezione dei consumatori, sulla protezione dei dati e della privacy e sulla sicurezza pubblica. Le autorità dell’UE e nazionali in questi settori dovrebbero avviare immediatamente un’indagine sui rischi di ChatGPT e di chatbot simili per i consumatori europei. Questi sistemi di intelligenza artificiale necessitano di un maggiore controllo pubblico e le autorità pubbliche devono riaffermare il loro controllo.
- Samsung, come altre società – tra i primi la banca d’affari colosso JP Morgan – sta vietando l’uso di ChatGpt ai dipendenti. Il problema è che, a quanto sta emergendo, segreti industriali, codici possono cadere nelle mani della concorrenza se sono inseriti nella chat. Perché quei segreti finiscono nell’algoritmo e possono quindi poi essere usati come base di conoscenza per dare altre risposte. Il tutto senza che nemmeno Open Ai possa farci niente.
I timori degli esperti
Axios ha recentemente riportato che l’IA generativa “è un campo minato dal punto di vista legale”. Tra le questioni da affrontare, c’è quella di stabilire se le aziende di IA hanno il diritto ai dati che addestrano i loro sistemi e chi è responsabile quando un sistema fornisce informazioni fuorvianti o pericolose.
Con l’aumento del flusso di denaro verso gli sviluppatori di sistemi di IA generativa, le aziende sono più disposte a correre rischi. “Più denaro affluisce, più velocemente si spostano i paletti e si eliminano le barriere di protezione”, ha dichiarato Matthew Butterick, un avvocato il cui studio ha in corso una causa contro diverse aziende in base al funzionamento dei loro sistemi di IA, al recente IAPP Global Privacy Summit 2023 a Washington DC.
Qui ha parlato anche l’esperta di AI generative Nina Schick, secondo cui la linea di demarcazione tra ciò che è reale e ciò che è generato dall’IA si sta rapidamente confondendo. È vero che la giacca finta del Papa e le immagini generate dall’IA dell’ex presidente Donald Trump che viene arrestato e tenta di sfuggire alle forze dell’ordine possono sembrare divertenti o facili da decifrare ora, ma i deepfake e i video generati dall’IA di persone – vere o false – diventeranno sempre più comuni e avanzati.
“I contenuti digitali inaffidabili, simili a un pozzo avvelenato, mettono in pericolo gli individui, le aziende e la società”, ha dichiarato Schick. “Il primo video firmato e generato dall’intelligenza artificiale dimostra che la creazione di media digitali trasparenti è possibile e vitale. Avendo a disposizione l’antidoto a un ecosistema informativo compromesso, dobbiamo chiederci perché non l’abbiamo ancora utilizzato. È ora di firmare tutti i contenuti digitali”.
Insomma, anche solo restando nell’alveo della privacy e della corretta informazione basata su dati personali (quindi del GDPR, come notato dal provvedimento del Garante), come anche nell’ambito dei segreti industriali, il fronte di chi sospetta delle AI generative è ampio.