Il provvedimento di limitazione dei dati personali nei confronti del chatbot ChatGPT si è trasformato in una tenzone quasi surreale.
Indice degli argomenti
Lo scontro in due fazioni
- Da una parte gli auto nominatisi “nuovisti” o alfieri dell’innovazione senza se e senza ma;
- dall’altra i presunti “passatisti” che hanno la pretesa di chiedere il rispetto delle leggi vigenti le quali, bene o male, per proteggere i dati personali e quindi la scelta consapevole e la Libertà stessa delle persone, regolamentano, anche indirettamente, il “settore del futuro”.
Pizzetti, ChatGpt: senza diritti siamo nudi davanti all’intelligenza artificiale
I primi gridano al blocco del progresso, al funerale dell’innovazione, alla tumulazione del futuro.
I secondi, quasi timidamente, ricordano un principio base della nostra Democrazia sintetizzato dall’Art. 54 della Costituzione: “Tutti i cittadini…hanno il dovere di essere fedeli alla Repubblica e di osservarne la Costituzione e leggi.I cittadini cui sono affidate funzioni pubbliche hanno il dovere di adempierle con disciplina ed onore”.
Ma quale blocco all’innovazione
Prescindendo dal fatto che non arrivo proprio a comprendere come la limitazione temporanea del trattamento dei dati (per il solo servizio B2C ) di un chatbot nato 4 mesi fa (ancorché con milioni di account) possa frenare lo sviluppo tecnologico della Nazione, siamo davvero convinti che innovazione, leggi e diritti non possano coesistere? Crediamo davvero che chatbot, app, piattaforme e le più svariate applicazioni di Intelligenza artificiale non possano prosperare secondo modelli “privacy by design”? Pensiamo davvero che sia giusto violare 6 norme del RGPD votato da 27 Parlamenti?
Anche la Germania può dire alt a ChatGPT
La Germania potrebbe seguire le orme dell’Italia bloccando ChatGPT per problemi di sicurezza dei dati, ha dichiarato il commissario tedesco per la protezione dei dati al quotidiano Handelsblatt in un commento pubblicato lunedì.
“In linea di principio, un’azione del genere è possibile anche in Germania”, ha dichiarato Ulrich Kelber, aggiungendo che tale azione ricadrebbe sotto la giurisdizione statale. Tuttavia, non ha delineato alcun piano in tal senso. Kelber ha detto che la Germania ha chiesto ulteriori informazioni all’Italia sul suo divieto.
Anche le autorità di vigilanza sulla privacy di Francia e Irlanda hanno dichiarato di aver contattato l’autorità italiana di regolamentazione dei dati per discutere le proprie conclusioni.
“Stiamo seguendo i contatti con l’autorità di regolamentazione italiana per capire le basi della loro azione e ci coordineremo con tutte le autorità di protezione dei dati dell’UE in relazione a questa questione”, ha dichiarato un portavoce del Data Protection Commissioner (DPC) irlandese.
Venerdì OpenAI aveva dichiarato di lavorare attivamente per ridurre i dati personali nell’addestramento dei suoi sistemi di intelligenza artificiale.
Sebbene il DPC irlandese sia il principale regolatore dell’UE per molti giganti tecnologici globali nell’ambito del regime di “sportello unico” per i dati del blocco, non è il principale regolatore per OpenAI, che non ha uffici nell’UE.
Il regolatore della privacy svedese ha dichiarato di non avere intenzione di vietare ChatGPT e di non essere in contatto con l’autorità di vigilanza italiana.
L’indagine italiana su OpenAI è stata avviata dopo che la settimana scorsa una violazione della sicurezza informatica ha fatto sì che alle persone venissero mostrati estratti delle conversazioni di ChatGPT di altri utenti e le loro informazioni finanziarie.
Per un periodo di nove ore, i dati esposti includevano nomi e cognomi, indirizzi di fatturazione, tipi di carte di credito, date di scadenza delle carte di credito e le ultime quattro cifre dei numeri di carta di credito, secondo un’e-mail inviata da OpenAI a un cliente interessato e visionata dal Financial Times.
Redazione
Lascio la risposta in sospeso ma per me è scontata.
Personalmente, e le mie attività passate lo dimostrano, non ho nulla contro qualsiasi tipo di innovazione purché sia rispettosa dei Diritti fondamentali dell’Individuo e tesa, rubando l’espressione all’universo ambientalista, ad uno “ sviluppo sostenibile” equilibrato, lecito, conosciuto e conoscibile, che tuteli e garantisca tutti a cominciare dalle fasce deboli della popolazione, primi fra tutti i minori.
Con la premessa da troppe parti rimossa che nel caso in esame il 20/3/23 “ lo sviluppatore ha confermato l’esistenza di un problema tecnico che non solo ha mostrato la cronologia delle domande degli utenti ma anche parte dei dettagli sui metodi di pagamento usati….abbiamo scoperto che lo stesso bug potrebbe aver causato la visibilità involontaria delle informazioni relative ai pagamenti dell’1,2% degli abbonati al servizio plus per una finestra attiva di nove ore“ (fonte ANSA), (mi) pongo ancora qualche domanda.
Bisogna essere informati sull’AI
È lecito che i nostri dati personali, anche se reperibili da fonti pubbliche-il che non fa venire comunque meno l’ulteriore trattamento che ne deriva-siano raccolti per addestrare gli algoritmi sottesi alle Intelligenze Artificiali relazionali senza che se ne sia adeguatamente informati? E’ corretto che su una piattaforma che raccolga dati non vi siano robusti sistemi di controllo anagrafico per evitare di esporre i minori a contenuti inadeguati?
Non intendo, perché non è mio compito in questa sede, avventurarmi su considerazioni rispetto alla profilazione potenziata, fornibile da tali strumenti di Intelligenza artificiale e alla conseguente iper valorizzazione del dato personale e sensibile ma non posso non chieder(mi) come mai nessun alfiere della modernità si sia scagliato contro la limitazione del trattamento disposta dal Garante in data 2/2/23 nei confronti del chatbot Replika, un “chatbot basato sull’IA che genera un “amico virtuale” che l’utente può configurare come amico, partner romantico, o mentore”…
Misteri e disattenzioni che trovano la loro spiegazione in un settore che viaggia a velocità supersonica e che, pertanto, va regolamentato.