Per risolvere il blocco di ChatGPT, OpenAI ha annunciato la collaborazione con il Garante Privacy. L’obiettivo è tutelare i cittadini italiani ed europei, utenti del chatbot AI.
OpenAi presenterà fra poche ore alcune misure per migliorare la privacy e il Garante le valuterà.
La decisione di cooperazione è frutto dell’incontro che si è svolto in video conferenza ieri sera, tra Garante Privacy e OpenAI, che comunque ha ribadito di tenere di essere già rispettosa delle norme privacy.
“L’incontro fra Il garante e OpenAI”, commenta Anna Cataleta, avvocato, Senior Partner P4I, “non può che essere la dimostrazione del fatto che quando si parla di diritti e liberta dei cittadini, utenti e di minori non ci possono essere slogan o inni da stadio che tengano”.
La privacy di ChatGPT fa rabbrividire il mondo: Canada, Europa, grandi aziende
Indice degli argomenti
ChatGPT, OpenAI conferma volontà di collaborare con il Garante Privacy
Hanno partecipato all’incontro virtuale anche Sam Altman, CEO di OpenAI, presente all’apertura: il Collegio del Garante (Agostino Ghiglia,Pasquale Stanzione, Ginevra Cerrina Feroni e Guido Scorza), oltre a Che Chang, Deputy General Counsel della società americana, Anna Makanju, responsabile Public Policy e Ashley Pantuliano, Associate General Counsel.
OpenAI conferma la convinzione di non aver violato e dunque di agire nel rispetto delle norme in tema di protezione dei dati personali. Tuttavia ha ribadito la volontà di cooperare con l’Authority indipendente italiana.
Il fine consiste nel risolvere positivamente le problematiche riscontrate dal Garante Privacy nazionale riguardo a ChatGPT. “Come ho avuto modo di scrivere all’indomani del provvedimento adottato”, continua Cataleta, “l’Autorità, così come fatto in altri provvedimenti analoghi e stranamente passati del tutto inosservati rispetto a questo nei confronti di ChatGPT, ha normalmente esercitato i suoi compiti garantendo di fatto i nostri diritti per una innovazione sana e rispettosa delle regole“.
Trasparenza e privacy al centro
Il Garante Privacy italiano ha evidenziato di non voler ostacolare lo sviluppo dell’intelligenza artificiale (AI). L’Autorità nazionale non ha intenzione di frenare l’innovazione tecnologica, confermando al contempo la priorità della tutela dei dati personali degli interessati.
Le norme di data protection infatti non rappresentano un ostacolo o un freno, ma offrono certezza del diritto alle aziende nel loro percorso innovativo. OpenAI, da parte sua, ha ribadito l’impegno a:
- potenziare la trasparenza nell’utilizzo dei dati personali dei cittadini italiani ed europei,
- rafforzando i meccanismi attuali per esercitare i diritti
- e offrire piena garanzia nella tutela dei minori.
- Il primo punto significa che “serve una informativa corretta, che ora c’è ma è inidonea, per capire cosa fanno esattamente dei nostri dati, conversazioni”, dice Cataleta.
- I meccanismi esistenti per l’esercizio dei diritti è la “possibilità di accesso ai dati e alle logiche del trattamento, consentire intervento manuale se non voglio che i miei dati siano sottoposti a processi automatizzati”.
- Le garanzie per i minori possono essere filtri per i minori di 13 anni, tipo quello che ha dovuto fare TikTok.
Open Ai come detto invierà al Garante entro oggi un documento che indichi le misure che rispondano alle richieste dell’Autorità.
Il Garante si riserva di valutare le misure proposte dalla società, anche riguardo al provvedimento adottato nei confronti di OpenAI.
Il punto critico: la base giuridica
Negli elementi citati “manca il punto più critico, il fondamento di liceità; sulla base di quali finalità lecita tratto i tuoi dati. Se è sulla base di un contratto o di un consenso (libero e revocabile); queste sono giuridicamente le alternative possibili nel caso di ChatGpt”, spiega Catatela.
Ma OpenAi deve ottenere dal Garante che la base giuridica era fondata; se no dovrà cancellare i dati, che però sono già entrati nel training dell’algoritmo.
“Non è un caso”, infine, conclude Anna Cataleta, “che sia in Europa che al di fuori di essa, altre Autorità si stiano muovendo nella medesima direzione. Certo, la dialettica è sempre importante e costruttiva quando tende a migliorare l’operato di tutti ma mai a discapito della tutela di diritti fondamentali“.
L’approccio di OpenAi alla sicurezza
Sul suo blog, ieri OpenAI ha illustrato il suo approccio alla sicurezza dell’IA, spiegando le misure che adotta per prevenire e mitigare gli abusi e gli impatti negativi dei suoi prodotti.
- – Test rigorosi prima del rilascio: OpenAI sottopone i suoi nuovi sistemi di IA a una valutazione approfondita, coinvolgendo esperti esterni per avere feedback, applicando tecniche di apprendimento per rinforzo con feedback umano per migliorare il comportamento del modello e costruendo sistemi di sicurezza e monitoraggio a livello globale. Per esempio, il modello GPT-4 è stato testato per oltre 6 mesi prima di essere reso pubblico. OpenAI sostiene anche la necessità di una regolamentazione che imponga tali pratiche a tutta l’industria dell’IA.
- – Apprendimento dall’uso reale: OpenAI riconosce che non può prevedere tutti i modi in cui le persone useranno o abuseranno della sua tecnologia, quindi rilascia i suoi sistemi di IA in modo cauto e graduale, con delle salvaguardie in atto, a un gruppo sempre più ampio di utenti e fa miglioramenti continui basandosi sulle lezioni apprese. Inoltre, rende i suoi modelli più capaci disponibili attraverso i suoi servizi o attraverso una API (Application Programming Interface), in modo da poter monitorare e intervenire sugli usi illeciti e costruire delle mitigazioni che rispondano ai modi reali in cui le persone usano i suoi sistemi. Questo ha permesso a OpenAI di sviluppare delle politiche sempre più sfumate contro i comportamenti che rappresentano un rischio reale per le persone, pur consentendo i molti usi benefici della sua tecnologia.
- – Protezione dei bambini: OpenAI richiede che le persone siano maggiorenni o abbiano almeno 13 anni con l’approvazione dei genitori per usare i suoi strumenti di IA e sta valutando delle opzioni di verifica. Non permette che la sua tecnologia sia usata per generare contenuti odiosi, molesti, violenti o per adulti, tra le altre categorie. Ha anche messo delle salvaguardie per prevenire che contenuti come il materiale di abuso sessuale sui minori (CSAM) vengano caricati sulla sua piattaforma.
- – Rispetto della privacy: OpenAI afferma che il suo modello di business non si basa sulla creazione di profili delle persone e sulla vendita di pubblicità a loro indirizzata. Lavora per rimuovere le informazioni personali dai suoi set di dati di addestramento e non conserva i dati degli utenti oltre il tempo necessario per fornire i suoi servizi.
- – Miglioramento dell’accuratezza fattuale: OpenAI si impegna a rendere i suoi sistemi di IA più accurati e affidabili nel fornire informazioni veritiere e pertinenti. Usa tecniche come la verifica incrociata delle fonti, la correzione degli errori e la generazione di avvertenze quando il modello non è sicuro della risposta.
- Migliorare l’accuratezza fattuale. OpenAI sa che i suoi sistemi di IA possono generare informazioni false o fuorvianti, quindi cerca di ridurre la frequenza e la gravità di tali errori. Per esempio, OpenAI ha introdotto un sistema di verifica delle fonti che confronta le affermazioni generate dai suoi modelli con le informazioni disponibili online e segnala le discrepanze agli utenti.
- – Continuare la ricerca e il coinvolgimento per potenziare la sicurezza dell’IA. OpenAI si impegna a condurre e sostenere la ricerca scientifica sulla sicurezza e l’allineamento dell’IA, ovvero la capacità dei sistemi di IA di rispettare gli obiettivi e i valori degli esseri umani. Inoltre, OpenAI collabora con altre organizzazioni e governi per promuovere la regolamentazione e la governance dell’IA.