In un contesto di crescente consapevolezza riguardo all’impatto dell’intelligenza artificiale sulla società, le istituzioni europee si trovano attualmente al centro di un dibattito cruciale sulla regolamentazione dell’IA e, in particolare, dei suoi modelli di base. La discussione, tuttavia, è permeata da posizioni divergenti e contraddittorie, come evidenziato dai recenti sviluppi tra Italia, Francia, e Germania.
Il governo italiano, in sintonia con la Francia e la Germania, ha proposto di non regolamentare i modelli di fondazione dell’IA, suscitando preoccupazione tra organizzazioni della società civile e attori del settore tecnologico. Questa posizione, osteggiata da diversi esperti e gruppi di interesse, sottolinea la necessità di un approccio normativo serio e coraggioso per gestire le potenzialità e le implicazioni dell’IA generativa sulla società, i diritti fondamentali e la democrazia.
Indice degli argomenti
La proposta: l’integrazione dell’AI Act
L’Unione Europea ha risposto a questa sfida proponendo integrazioni al Regolamento sull’Intelligenza Artificiale (AI Act), che include specifiche regole per i fornitori di foundation models. Tra queste regole figurano l’obbligo di audit indipendenti, test di sicurezza e cybersecurity, misure di governance dei dati, valutazione dei rischi e sforzi per la loro riduzione. Tuttavia, il processo legislativo è attualmente bloccato, con alcuni paesi, tra cui l’Italia, che stanno facendo marcia indietro sulla regolamentazione dei foundation models.
Il dibattito si è intensificato a seguito del successo di modelli avanzati, come il GPT-4, portando le istituzioni europee a cercare un equilibrio tra regolamentazione e innovazione. Tuttavia, l’opposizione di Francia, Germania e, più recentemente, dell’Italia, riflette le pressioni delle lobby industriali, come la start-up francese Mistral e l’azienda tedesca Aleph Alpha. Queste aziende sostengono che una regolamentazione troppo stringente potrebbe danneggiare la competitività delle imprese europee rispetto ai concorrenti statunitensi e cinesi. C’è la preoccupazione che regole eccessivamente severe possano limitare l’innovazione e ostacolare l’adozione di tecnologie avanzate, mettendo così le imprese europee in difficoltà nel mercato globale dell’IA.
La mobilitazione
Nell’odierno contesto, diverse organizzazioni della società civile, tra cui The Good Lobby Italia, Hermes Center For Transparency and Digital Human Rights, GenPol: Gender & Policy Insights, e altre, si sono unite ad esperti di settore e organizzazioni pubbliche e private per sostenere una richiesta avanzata dall’Ada Lovelace Institute. Questa coalizione di gruppi si è mobilitata per sollecitare il governo italiano a motivare le ragioni del suo posizionamento in merito alla proposta normativa sull’Intelligenza Artificiale.
Tali preoccupazioni risaltano anche a livello europeo, dove più di 100 professori universitari da tutta Europa hanno sottolineato l’importanza di includere nell’AI Act un obbligo di valutare l’impatto sui diritti fondamentali (FRIA). Questa proposta, già presente nel testo del Parlamento europeo, è vista come una salvaguardia cruciale contro potenziali violazioni dei diritti fondamentali derivanti dall’uso dell’IA.
Fondamental Rights Impact Assessment (FRIA): i principi
La Fondamental Rights Impact Assessment (FRIA), che rappresenta una componente essenziale nella formulazione delle normative sull’Intelligenza Artificiale (IA) nell’Unione Europea, si basa su quattro principi cardine. Innanzitutto, esige la definizione chiara di parametri per valutare l’impatto dell’IA sui diritti fondamentali, spaziando attraverso una vasta gamma di scenari e applicazioni. Secondariamente, enfatizza la necessità di trasparenza, richiedendo la pubblicazione di sintesi significative dei risultati delle valutazioni d’impatto per instaurare fiducia e consentire una comprensione approfondita degli effetti dell’IA sui diritti fondamentali. Inoltre, sottolinea il coinvolgimento degli utenti finali, specialmente coloro in posizioni di vulnerabilità, nel processo di valutazione per ottenere una visione inclusiva degli impatti reali.
Infine, promuove il coinvolgimento delle autorità pubbliche nel processo di valutazione e audit, garantendo una supervisione indipendente e conforme agli standard stabiliti. La FRIA emerge come un elemento cruciale per proteggere i diritti fondamentali in un contesto in cui l’IA può influenzare aspetti vitali della vita quotidiana. Questo approccio, sottolineato da esperti in vari settori accademici, mira a garantire responsabilità, trasparenza e un uso etico delle tecnologie di IA.
Tuttavia, il processo decisionale è attualmente in stallo, con alcune nazioni europee che si oppongono alla regolamentazione dei foundation models, mettendo a rischio l’intero AI Act. Questa situazione, condivisa da vari attori politici e industriali, indica la necessità di affrontare le contraddizioni e trovare un terreno comune per garantire un quadro normativo efficace e rispettoso dei diritti fondamentali nell’era dell’Intelligenza Artificiale.