Meta, Spotify e altre grandi aziende tecnologiche hanno di recente criticato, con una lettera aperta pubblicata sui principali quotidiani, le decisioni dell’Unione Europea con particolare riferimento al GDPR, sostenendo che questa normativa potrebbe ostacolare l’innovazione e la competitività in Europa, specialmente nel campo dell’intelligenza artificiale.
La principale preoccupazione deriva dal fatto che il GDPR limita fortemente l’utilizzo di dati personali per l’addestramento di modelli IA (il cosiddetto data training) senza il consenso esplicito degli utenti.
Indice degli argomenti
Data training per l’IA: cosa chiedono le Big tech
Secondo i CEO di Meta, Mark Zuckerberg, e di Spotify, Daniel Ek, le normative europee sono complesse, frammentarie e creano incertezza per le aziende che cercano di innovare nel campo dell’IA.
Essi sostengono che queste restrizioni rallentano lo sviluppo tecnologico in Europa, impedendo alle aziende europee di accedere agli ultimi strumenti IA e ai cittadini europei di beneficiare dei prodotti più avanzati.
La richiesta dei leader delle due aziende è di una regolamentazione più chiara e unificata che permetta all’Europa di competere a livello globale nell’innovazione dell’IA.
In particolare, Meta ha dovuto ritardare l’addestramento dei propri modelli IA utilizzando i dati degli utenti in Europa a causa delle restrizioni imposte dal GDPR, che non permettono il libero utilizzo di contenuti pubblicamente condivisi senza il consenso esplicito.
Questo, secondo i critici, limiterà lo sviluppo di modelli IA che rispecchiano la cultura e le lingue europee, portando l’Europa a dipendere da tecnologie sviluppate altrove.
Data Training per l’IA: rischi e complessità
Questa situazione evidenzia il delicato equilibrio tra protezione dei diritti dei cittadini e la necessità di sostenere l’innovazione tecnologica.
I regolatori europei, infatti, difendono queste normative come essenziali per tutelare la privacy e i diritti fondamentali degli individui, mentre le aziende tecnologiche avvertono che l’eccessiva regolamentazione potrebbe far perdere all’Europa un’importante opportunità di leadership nel campo dell’IA.
Vero è che negli ultimi anni l’intelligenza artificiale è diventata un pilastro fondamentale per una vasta gamma di applicazioni industriali, economiche e sociali. Dalla medicina alla finanza, dall’automazione industriale ai servizi pubblici, l’IA ha la capacità di trasformare il modo in cui interagiamo con il mondo.
Per poter funzionare, un sistema di intelligenza artificiale deve essere addestrato. Questo processo, noto appunto come data training, è la chiave di volta per costruire modelli predittivi efficaci, e si basa sulla raccolta, l’elaborazione e l’utilizzo di enormi quantità di dati.
Big tech: il GDPR ostacola lo sviluppo dell’IA
Tuttavia, questo processo di addestramento non è privo di criticità. La questione della liceità del data training in Europa è al centro di un dibattito sempre più acceso, che ha visto confrontarsi istituzioni, legislatori e aziende tecnologiche.
In particolare, la normativa europea sulla protezione dei dati, rappresentata dal GDPR, pone una serie di limiti stringenti all’uso dei dati personali per finalità di addestramento dei modelli IA.
Nello specifico, l’articolo 5 del GDPR stabilisce i principi fondamentali per il trattamento dei dati, tra cui la minimizzazione dei dati, la limitazione delle finalità, e la necessità di avere una base giuridica adeguata a qualsiasi trattamento.
Questo si traduce in una sfida significativa per chiunque intenda utilizzare dati personali per addestrare modelli IA, poiché il GDPR richiede che l’uso di tali dati sia giustificato da uno dei fondamenti legali previsti dal regolamento, come il consenso esplicito dell’interessato o la necessità di carattere contrattuale.
Scontro aperto sul concetto di data scraping
Le grandi aziende tecnologiche, molte delle quali hanno sede al di fuori dell’Europa, sono particolarmente colpite da questi requisiti normativi. Il concetto di “data scraping”, cioè la raccolta automatica di dati da internet, spesso senza il consenso esplicito degli utenti, è uno degli aspetti più controversi del data training.
Molti algoritmi IA vengono addestrati utilizzando dati raccolti da fonti online, come siti web, social network, o piattaforme di e-commerce. Tuttavia, questo approccio spesso non rispetta i requisiti di consenso stabiliti dal GDPR, creando una situazione di incertezza legale per molte aziende.
Senza dire che, quando gli algoritmi di IA vengono addestrati utilizzando grandi quantità di dati, questi possono includere opere protette dal copyright, come immagini, testi, musica o video. L’uso di tali contenuti senza una licenza adeguata o il consenso dei titolari dei diritti può violare le leggi sul diritto d’autore.
Dati personali e non personali: l’incertezza legale
L’incertezza legale, inoltre, è particolarmente evidente quando si tratta di distinguere tra dati personali e dati non personali.
Il GDPR protegge i dati personali, definiti come qualsiasi informazione che possa essere utilizzata per identificare direttamente o indirettamente una persona fisica.
Tuttavia, molte aziende tecnologiche sostengono che i dati che utilizzano per addestrare i loro modelli non sono necessariamente personali, poiché vengono trattati in forma aggregata o anonima.
Questo argomento, tuttavia, è stato contestato dalle autorità di regolamentazione europee, che hanno sottolineato come l’anonimizzazione dei dati non sempre è effettiva e quindi garantisca che i dati non possano essere ricollegati a una persona fisica.
L’incertezza legale è amplificata dal fatto che la tecnologia sta evolvendo a un ritmo molto più rapido rispetto alla legislazione. L’Unione Europea sta attualmente lavorando all’implementazione di una serie di normative specifiche per l’intelligenza artificiale, il cui culmine è rappresentato dal recente AI Act, che mira a regolamentare l’uso dell’IA in modo proporzionato al rischio che essa rappresenta.
Il ruolo giocato dall’AI Act
Proprio l’AI Act pone specifici obblighi sui sistemi di intelligenza artificiale, in particolare quelli ad alto rischio, introducendo regole armonizzate che mirano a garantire la sicurezza, l’affidabilità e il rispetto dei diritti fondamentali dei cittadini europei.
In tal senso, l’AI Act estende il campo di applicazione del GDPR, ribadendo che il trattamento di dati personali da parte di sistemi IA deve rispettare i principi fondamentali di necessità e proporzionalità.
Un altro aspetto critico sollevato dall’AI Act riguarda i sistemi di IA ad alto rischio, che includono quelli utilizzati in settori come la sanità, l’istruzione e l’impiego. In questi casi, i requisiti per il data training diventano più stringenti: oltre al trattamento corretto dei dati, è necessario garantire che i modelli addestrati non introducano bias o discriminazioni ingiustificate, un tema che è stato oggetto di molte discussioni pubbliche.
L’AI Act sottolinea come il processo di addestramento debba essere trasparente e documentato, così da consentire eventuali audit e controlli da parte delle autorità competenti.
Questione di trasparenza e responsabilità dell’IA
Oltre alla questione della liceità del data training, vi è un crescente scontro tra le istituzioni europee e le grandi aziende tecnologiche in merito alla trasparenza e alla responsabilità nell’uso dell’IA.
La Commissione Europea, in particolare, ha espresso preoccupazioni sul fatto che molte aziende non rispettino appieno le normative europee sulla protezione dei dati e che vi sia una mancanza di trasparenza nel modo in cui i modelli IA vengono addestrati.
Questo ha portato a un aumento delle ispezioni e delle sanzioni da parte delle autorità garanti della protezione dei dati, come il Garante per la protezione dei dati personali in Italia e la CNIL in Francia.
Il caso Clearview AI
Uno degli esempi più noti di questo conflitto è il caso di Clearview AI, una società americana che ha sviluppato una tecnologia di riconoscimento facciale utilizzando immagini raccolte da internet senza il consenso degli utenti.
Clearview AI è stata oggetto di numerose azioni legali in Europa e in altri paesi, con accuse di violazione del GDPR e di mancato rispetto del diritto alla privacy.
Il caso ha sollevato importanti questioni sull’uso dei dati personali per il data training e ha evidenziato la necessità di una regolamentazione più rigorosa e di un maggiore controllo sulle attività delle aziende che operano nel campo dell’IA.
Quali gli scenari futuri
L’incertezza legale e il conflitto con le istituzioni europee sono destinati a crescere man mano che l’uso dell’intelligenza artificiale si espande in nuovi settori e la stessa regolamentazione dell’IA, come testimoniato dall’AI Act, rappresenta una sfida di non poco conto per l’Unione Europea, al fine di garantire che l’uso dell’intelligenza artificiale sia etico e conforme alla normativa.
Le aziende, quindi, devono adottare un approccio prudente nell’uso dei dati per il data training, assicurandosi di rispettare i requisiti del GDPR e di altre normative applicabili. Questo include l’ottenimento del consenso esplicito degli utenti, l’implementazione di misure di anonimizzazione e pseudonimizzazione dei dati, e la trasparenza nell’uso dei modelli di intelligenza artificiale.
Solo in questo modo sarà possibile garantire che l’uso dell’IA in Europa avvenga in modo sicuro, legittimo ed etico.
In altri termini, mentre il data training rimane una componente essenziale dello sviluppo dell’intelligenza artificiale, la sua liceità in Europa è ancora oggetto di dibattito.
La mancanza di chiarezza normativa e il conflitto con le istituzioni europee rappresentano una sfida significativa per le aziende tecnologiche, che devono bilanciare l’innovazione con il rispetto delle leggi sulla protezione dei dati e del diritto d’autore.
Il futuro della regolamentazione dell’IA dipenderà dalla capacità delle istituzioni europee di far rispettare un quadro giuridico chiaro e coerente che permetta lo sviluppo dell’IA, proteggendo al contempo i diritti fondamentali dei cittadini.