Con un documento datato 5 novembre 2024, la Commissione UE ha messo in evidenza le incongruenze tra le disposizioni nazionali contenute nel disegno di legge sulla Intelligenza Artificiale (AS1146) attualmente all’esame del Senato italiano e l’AI Act, il Regolamento (UE) 2024/1689 adottato lo scorso giugno.
Una curiosità che emerge dal parere è la divergenza tra quanto dichiarato nel disegno di legge, dove si afferma esplicitamente la non sovrapponibilità del testo alle normative europee e la piena conformità con la legislazione dell’Unione, e quanto invece sottolineato dalla Commissione Europea, che evidenzia numerosi punti di disallineamento con il Regolamento (UE) 2024/1689 sull’AI.
Questo contrasto lascia intravedere una certa discrepanza tra le intenzioni italiane e le esigenze di armonizzazione con il quadro normativo europeo.
Il parere sollecita a rivedere alcune parti cruciali del testo legislativo e la necessità di conformarsi agli standard europei.
Indice degli argomenti
Riserve sulla policy italiana: un approccio restrittivo all’AI
Dall’analisi delle riserve formulate dalla Commissione Europea sul disegno di legge italiano emerge un indirizzo politico che potrebbe essere definito conservativo, caratterizzato da una visione eccessivamente limitativa riguardo all’utilizzo dei sistemi di intelligenza artificiale (AI).
La proposta normativa italiana si distingue per un approccio troppo restrittivo e rigido sull’impiego dell’AI, in particolare nelle professioni intellettuali e nell’attività giudiziaria, e per una tecnica legislativa imprecisa, ambigua e lacunosa, che rischierebbe di sovraccaricare il settore sanitario con obblighi eccessivi. E come sostenuto da Wittgenstein: i limiti del mio linguaggio significano i limiti del mio mondo.
E sebbene il disegno di legge rifletta l’intenzione di governare l’innovazione tecnologica con prudenza, la sua attuazione potrebbe ostacolare lo sviluppo di sistemi intelligenti in un settore che rappresenta una delle principali leve per l’economia e la società algoritmica.
La Commissione UE critica l’indipendenza delle autorità per l’AI
La previsione del disegno di legge italiano designa l’AgID e l’ACN come autorità competenti per l’intelligenza artificiale, ma la Commissione UE solleva una critica fondamentale: queste Agenzie non godono di piena indipendenza.
Sebbene siano incaricate di svolgere ruoli cruciali nel monitoraggio e nella regolazione dell’AI, la Commissione sottolinea che dovrebbero avere lo stesso livello di indipendenza per le autorità preposte alla protezione dei dati nelle attività delle forze dell’ordine, nella gestione delle migrazioni e controllo delle frontiere, nell’amministrazione della giustizia e nei processi democratici, per garantire un alto livello di autonomia e imparzialità.
Questo richiamo è rilevante, poiché l’indipendenza è un principio chiave per evitare conflitti di interesse e per assicurare che le decisioni siano prese in modo trasparente e obiettivo. La mancanza di tale indipendenza, quindi, mina la credibilità della supervisione italiana sull’AI e rischia di compromettere l’efficacia della normativa in un settore così delicato.
“Targa” AI per i contenuti: critiche dalla Commissione UE
Il disegno di legge italiano prevede l’introduzione di un obbligo di trasparenza per i contenuti audiovisivi e radiofonici generati o modificati tramite intelligenza artificiale, imponendo l’inserimento di un segno identificativo “AI” per chiarirne la provenienza artificiale.
Tale obbligo si estende anche a contenuti audio e video su piattaforme di streaming, con l’obiettivo di proteggere gli utenti e prevenire la diffusione di informazioni ingannevoli.
Tuttavia, la Commissione Europea solleva una critica importante in relazione all’articolo 23, comma 1, lettera b) del disegno di legge, sottolineando che tale norma potrebbe risultare eccessiva e ridondante rispetto agli obblighi già previsti dal regolamento UE sull’intelligenza artificiale.
La Commissione osserva che l’obbligo di visibilità del segno “AI” potrebbe sovrapporsi a quelli esistenti, rischiando di creare un eccesso di regolamentazione, che potrebbe complicare l’adeguamento delle piattaforme alle normative europee e generare confusione sia per i fornitori di contenuti che per gli utenti finali.
Le ulteriori osservazioni della Commissione Europea
In via preliminare, la Commissione suggerisce di inserire esplicitamente nel disegno di legge un riferimento all’AI Act, per garantire la coerenza con la normativa europea.
Una simile modifica contribuirebbe a una maggiore chiarezza giuridica e a una piena armonizzazione tra il diritto nazionale e quello europeo.
Definizioni di AI e modelli di intelligenza artificiale
L’articolo 2 del disegno di legge contiene definizioni che, secondo la Commissione, differiscono da quelle previste dal regolamento europeo, in particolare per quanto riguarda i “modelli di AI”.
La Commissione suggerisce che la normativa nazionale si limiti a fare riferimento alle definizioni già contenute nel regolamento, evitando di duplicarle.
Dati “critici” e sicurezza nazionale
Un altro punto controverso riguarda l’articolo 5, comma 1, lettera d), relativo alla definizione di “dati critici”.
La Commissione Europea sollecita l’Italia a fornire una definizione più precisa di tali dati, limitandola ai soli casi in cui siano in gioco interessi di sicurezza nazionale.
La necessità di una definizione chiara e non vaga nasce dal fatto che il disegno di legge prevede una preferenza per la localizzazione dei data center sul territorio nazionale per i dati critici.
Se la definizione di “dati critici” fosse troppo ampia, potrebbero sorgere incertezze riguardo a quali dati debbano essere trattati in questo modo, giustificando potenzialmente l’imposizione di obblighi di localizzazione che potrebbero essere considerati eccessivi o in contrasto con le normative europee.
La Commissione, pertanto, raccomanda una definizione più ristretta, per evitare che vengano adottate misure che possano apparire sproporzionate rispetto alla necessità di protezione dei dati.
Obblighi informativi nell’ambito sanitario
Un aspetto interessante del parere riguarda l’articolo 7, comma 3, che stabilisce obblighi informativi per gli operatori di AI in ambito sanitario, i quali dovrebbero garantire visibilità ai pazienti sull’uso di tecnologie basate su AI.
In questo caso, la Commissione suggerisce di limitare gli obblighi informativi esclusivamente all’impiego dell’AI, senza estenderli ad altri aspetti, come i benefici diagnostici o terapeutici derivanti dall’uso delle nuove tecnologie.
Questo invito solleva una questione importante: la Commissione sembra orientata a ridurre il set informativo da fornire ai cittadini, limitandolo alla sola comunicazione sull’uso di sistemi di AI.
Tale posizione appare come una limitazione alla trasparenza, in contrasto con l’obiettivo di garantire una piena consapevolezza degli utenti sui sistemi che influenzano la loro salute.
Va notato che, nel disegno di legge, sono previsti anche obblighi di informazione riguardo alla logica decisionale utilizzata dai sistemi di AI. Sebbene questa informazione possa sembrare cruciale per un’adeguata trasparenza, è indubbio che possa risultare difficilmente comprensibile per i non addetti ai lavori.
D’altro canto, la Commissione, pur enfatizzando la necessità di semplificazione, potrebbe trovarsi a dover bilanciare il diritto dei cittadini a ricevere informazioni complete e comprensibili con la necessità di non sovraccaricare gli operatori sanitari di obblighi che potrebbero risultare tecnicamente complessi.
Uso dell’AI nelle professioni intellettuali
In relazione all’articolo 12, la Commissione Europea chiede di eliminare le restrizioni all’uso di sistemi di IA non “ad alto rischio” nelle professioni intellettuali, poiché tali limitazioni potrebbero entrare in conflitto con le disposizioni europee che permettono l’uso dell’IA a condizione che non vi siano rischi significativi per la sicurezza o i diritti fondamentali.
AI nell’attività giudiziaria
Per l’articolo 14, che regolamenta l’uso dell’AI nell’ambito giudiziario, la Commissione invita a allineare la norma con l’articolo 6 del regolamento europeo, che consente l’uso di sistemi di AI “ad alto rischio” in ambito giudiziario, a condizione che non vi sia un impatto materiale sui diritti e le libertà individuali.
Contenuti generati dall’AI
Un aspetto controverso riguarda l’articolo 23, che impone l’obbligo di rendere chiaramente riconoscibili i contenuti generati dall’AI attraverso l’uso del simbolo “AI” o un annuncio audio.
La Commissione ritiene che tale obbligo si sovrapponga a disposizioni già previste dal regolamento europeo, creando potenziali conflitti.
Contenuti modificati da AI e protezione del pubblico
In merito all’articolo 23, comma 1, lettera c), che obbliga le piattaforme video a tutelare il pubblico da contenuti manipolati o falsificati tramite AI, la Commissione chiede chiarimenti su come questa disposizione si integri con le misure già previste dal regolamento europeo per il trattamento di contenuti manipolati.
Conclusioni e prospettive future
Il parere della Commissione Europea si inserisce in un più ampio contesto di attenzione sulla regolamentazione dell’AI, con l’Europa che sta cercando di garantire un quadro giuridico comune e coerente per il funzionamento e l’utilizzo dei sistemi intelligenti tra i suoi Stati membri.
Sebbene il parere non sia ostativo, le raccomandazioni della Commissione richiederanno un esame approfondito da parte delle istituzioni italiane.
Il Parlamento dovrà ora valutare come integrare questi suggerimenti per evitare conflitti con le normative europee e assicurare che la legge sull’AI rispetti i principi di trasparenza, sicurezza e protezione dei diritti fondamentali.
La sfida sarà trovare un equilibrio tra innovazione tecnologica e tutela della protezione dei dati, della sicurezza e della democrazia.
Con l’adozione del regolamento europeo sull’IA, la Commissione ha rafforzato il proprio ruolo di supervisore per garantire che le normative nazionali non distorcano l’obiettivo di creare un mercato unico digitale che promuova l’innovazione in modo sicuro e responsabile.