Dopo l’approvazione, nel dicembre 2023, dell’accordo sull’AI Act, primo tentativo di regolamentare gli usi dell’intelligenza artificiale, è stato istituito a Bruxelles l’Ufficio Europeo per l’Intelligenza artificiale, con l’obiettivo di coordinare le politiche e le iniziative dell’Unione Europea in materia.
Questo passo significativo è parte di un approccio più ampio verso la regolamentazione e la standardizzazione dell’intelligenza artificiale nell’UE.
AI Act, via libera di tutti i Paesi UE: ecco l’approccio europeo all’intelligenza artificiale
Indice degli argomenti
Il ruolo chiave dell’Ufficio per l’intelligenza artificiale
L’istituzione dell’Ufficio, avvenuta lo scorso 21 febbraio, sottolinea l’impegno dell’Unione Europea nell’affrontare le sfide e sfruttare le opportunità legate all’AI.
Tale organo è stato istituito al fine di coordinare in modo sinergico le politiche relative all’IA in tutti gli Stati membri dell’UE. Operando in stretto contatto con i governi nazionali e altre organizzazioni rilevanti, l’Ufficio mira a creare una piattaforma di cooperazione per favorire uno sviluppo armonizzato e coerente dell’AI in tutta l’Europa.
Il nuovo organo svolge un ruolo chiave nell’attuazione dell’AI Act, supportando gli Stati membri nello svolgimento dei propri compiti, conducendo valutazioni sui modelli di AI disponibili, nonché richiedendo informazioni ai fornitori di tali modelli.
In particolare, l’Ufficio favorirà un’applicazione omogenea dell’AI Act in tutti gli Stati membri, istituendo organi consultivi per facilitare lo scambio di informazioni, e predisponendo apposite linee guida.
Inoltre, svilupperà strumenti per valutare la capacità e la portata dei modelli di AI, definendo parametri per effettuarne una classificazione basata sul rischio. Sulla base di tali valutazioni, potrà richiedere al fornitore di intraprendere azioni correttive.
Attraverso un approccio strategico, l’Ufficio promuove la cooperazione internazionale, collaborando con istituzioni analoghe in tutto il mondo e favorendo la predisposizione di accordi internazionali in materia di intelligenza artificiale.
Sostenere l’adozione e l’innovazione dell’AI
In linea con il suo scopo, la nuova istituzione si impegna a promuovere non solo l’adozione, ma anche l’innovazione nel campo dell’AI, contribuendo al progresso digitale e all’incremento della competitività europea.
L’accento sulla competitività sottolinea la volontà dell’UE di emergere come un attore di spicco nel panorama globale dell’AI, garantendo che le tecnologie sviluppate siano all’avanguardia e contribuiscano significativamente alla crescita economica.
Competenza anche su prospettiva etica e di sicurezza
La competenza dell’Ufficio non si limita all’aspetto tecnologico, ma si estende a una prospettiva etica e di sicurezza.
Nel perseguire l’innovazione, l’istituzione riconosce l’importanza di garantire che l’adozione dell’AI avvenga in modo responsabile e rispettoso dei diritti fondamentali dei cittadini.
A questo scopo, si impegna nella creazione di linee guida etiche che fungano da baluardo contro l’abuso e l’uso improprio dell’AI.
La promozione di standard di sicurezza è anch’essa cruciale, poiché l’Ufficio mira a garantire che l’AI sia implementata in modi che minimizzino i rischi e proteggano la privacy e la sicurezza dei cittadini europei.
In quest’ottica, l’Ufficio per l’AI lavora a stretto contatto con l’European Artificial Intelligence Board e con l’European Centre for Algorithmic Transparency (ECAT) e collabora con industrie, startup, think tank del settore per favorire la condivisione di best practices.
Scopo e approccio normativo dell’AI Act
Con l’approvazione dell’AI Act, l’Unione Europea ha segnato un traguardo storico. Questo accordo è il risultato di intensi negoziati tra il Consiglio e il Parlamento Europeo, rappresentando un passo decisivo verso la definizione di linee guida e regole chiare per la gestione dell’IA nel territorio UE.
L’AI Act ha lo scopo di definire obblighi specifici per gli sviluppatori, i fornitori e gli utenti dell’intelligenza artificiale, in modo tale da garantire la sicurezza e proteggere i diritti fondamentali di cittadini e imprese, definendo allo stesso tempo un perimetro sicuro per l’innovazione e lo sviluppo di questa tecnologia.
L’approccio normativo si basa su quattro livelli di rischio, sulla base dei quali vengono classificati i modelli di IA.
La corretta gestione dei sistemi “ad alto rischio”
Sono definiti come “ad alto rischio” quelli utilizzati nelle infrastrutture critiche (ad esempio nel settore energetico o dei trasporti); i modelli adoperati nell’ambito dell’istruzione e della formazione (scuole e università); quelli connessi a prodotti tecnologici (ad esempio robot utilizzati per le operazioni chirurgiche); i modelli a supporto di servizi pubblici essenziali nonché quelli a supporto del settore amministrativo e della giustizia.
Tutti questi sistemi saranno soggetti a controlli stringenti prima di essere immessi sul mercato: è prevista, infatti, una valutazione dell’impatto che tali modelli possono avere sui diritti fondamentali, nonché l’obbligo di registrazione in un’apposita banca dati europea con annessa documentazione tecnica che dimostri la conformità del prodotto.
Restano vietati i modelli AI atti a raccogliere dati biometrici, ad esempio il riconoscimento facciale, quelli che potrebbero raccogliere o dedurre dati sensibili (orientamento politico o religioso) o che potrebbero manipolare il comportamento umano.
La corretta gestione dei sistemi “a rischio limitato”
I sistemi classificati come “A rischio limitato” comprendono, ad esempio, le chatbot e prevedono l’interazione tra intelligenza artificiale e utente.
Per tale ragione, per questi sono previsti specifici obblighi di trasparenza, in modo da assicurare la piena consapevolezza degli utenti.
La corretta gestione dei sistemi “a rischio minimo”
Infine, i modelli classificati come “A rischio minimo” o “A rischio nullo” comprendono applicazioni e videogiochi, per i quali è consentito il libero utilizzo, ma è comunque previsto un monitoraggio da parte del fornitore e delle autorità in caso di malfunzionamenti.
Eccezioni all’utilizzo dei sistemi ad alto rischio
Sono state previste opportune eccezioni all’utilizzo dei sistemi di IA ad alto rischio, compatibilmente con le necessità di sicurezza e al fine di facilitare le operazioni delle forze dell’ordine, nel rispetto della riservatezza e dei dati sensibili dei cittadini.
Le forze dell’ordine, infatti, potranno all’occorrenza adoperare dei modelli non ancora approvati.
Tuttavia, si garantirà che i diritti fondamentali vengano protetti da eventuali violazioni causate da un utilizzo improprio dei sistemi di intelligenza artificiale.
In particolare, per quanto concerne l’uso di sistemi di identificazione biometrica, l’accordo provvisorio prevede i casi in cui il loro utilizzo è consentito e le autorità sono eccezionalmente autorizzate ad adoperarli.
L’accordo prevede ulteriori garanzie e limita queste eccezioni ai casi di vittime di determinati reati, alla prevenzione di minacce come attacchi terroristici, e alle ricerche di persone sospettate di gravi reati.
Le sanzioni in caso di violazioni
Qualora una persona fisica o giuridica riscontri una violazione della norma europea sull’intelligenza artificiale, potrà presentare un reclamo all’autorità di vigilanza.
In caso di accertata violazione del regolamento, l’azienda dovrà pagare una percentuale del proprio fatturato o un importo predeterminato pari a:
- 35 milioni di euro o il 7% del fatturato, in caso di utilizzo di applicazioni vietate;
- 15 milioni di euro o il 3% del fatturato, per violazioni degli obblighi di legge;
- 7,5 milioni di euro o 1,5% del fatturato, per la diffusione di informazioni false.
Altre sanzioni più contenute saranno applicate alle PMI e alle startup.