L’Europa compie un ulteriore grande progresso nell’ambito della creazione di una regolamentazione trasparente e sicura dell’intelligenza artificiale (IA) con il lancio della prima bozza del Codice di Condotta per l’AI per uso generale (GPAI).
Il documento è stato redatto nel contesto dell’AI Act, il primo quadro giuridico in assoluto sull’intelligenza artificiale, che affronta i rischi dell’IA e pone l’Europa in una posizione di leadership a livello mondiale.
Il Codice, agevolato dall’Ufficio Europeo per l’IA, stabilisce principi guida e obiettivi per i fornitori di modelli di IA Generica, incluso un focus particolare sui rischi associati a tecnologie avanzate individuandone quattro livelli:
- Minimal Risk
- Limited Risk
- High Risk
- Unacceptable Risk
Il lavoro degli Uffici Europei rappresenta uno strumento fondamentale per mantenere la conformità e sostenere lo sviluppo di sistemi di IA affidabili, in modo che vengano rispettati i diritti fondamentali e possano essere capaci di accompagnare l’Unione Europea verso uno sviluppo sempre più consistente nel panorama globale.
Indice degli argomenti
Le sfide applicative dell’AI Act
I modelli di IA Generica (General-Purpose AI) sono strumenti poliedrici utilizzati come fondamento per una vasta gamma di ambiti. Nonostante ciò, la loro laboriosità e l’ampia diffusione possono generare rischi sistemici, tra i quali: decisioni non chiare, discriminazione sugli algoritmi o vulnerabilità della sicurezza.
In particolare, i sistemi di intelligenza artificiale identificati come “ad alto rischio” riguardano la tecnologia AI utilizzata nei seguenti ambiti:
- delle infrastrutture critiche (ad esempio i trasporti), che potrebbero mettere a repentaglio la vita e la salute dei cittadini;
- della formazione, che può determinare l’accesso all’istruzione e alla carriera professionale della vita delle persone;
- delle componenti della sicurezza dei prodotti (es. applicazione AI nell’ambito della chirurgia robot-assistita);
- dell’occupazione come la gestione dei lavoratori e accesso al lavoro autonomo (ad esempio con software di selezione del CV per le procedure di assunzione);
- nell’ambito dei servizi privati e pubblici essenziali (ad esempio il credit scoring per ottenere un prestito);
- della gestione dell’immigrazione, dell’asilo e del controllo delle frontiere (ad esempio, esame automatizzato delle domande di visto);
- dell’amministrazione della giustizia e dei processi democratici (ad esempio soluzioni proposte dall’Intelligenza Artificiale per la pronuncia di sentenze giudiziarie).
Per superare tali sfide, l’AI Act, in vigore dal primo agosto 2024, ha il compito di stabilire obblighi per i fornitori di IA, che diverranno del tutto applicabili nell’agosto 2025.
Come è stato redatto il codice di condotta dell’AI
Il Codice viene redatto attraverso un processo, iniziato con una sessione plenaria di lancio il 30 settembre 2024, che mira a creare, rifinire e migliorare il progetto in questione.
Al progetto hanno partecipato quasi mille stakeholder, tra cui fornitori di modelli di IA generica, rappresentanti di Stati membri dell’UE, esperti indipendenti, organizzazioni della società civile e osservatori internazionali.
La bozza è stata elaborata da quattro gruppi di lavoro, ciascuno composto da esperti selezionati in base alla loro competenza e abilità.
Questi esperti provengono da diversi ambienti, quali: mondo dell’informatica, governance dell’IA e legislativo. Questi gruppi sono predisposti ad affrontare aree critiche come:
- “trasparenza e copyright”, riassumibile in regole per tutelare la chiarezza e il rispetto della proprietà intellettuale;
- “identificazione e valutazione dei rischi”, ossia strumenti in grado di classificare e misurare i rischi sistemici;
- “mitigazione tecnica dei rischi” quali misure per prevenire effetti negativi;
- “governance interna per i fornitori di IA” che rimanda alle strategie di gestione aziendale e conformità.
Gli esperti hanno selezionato vari contributi dai fornitori di IA attraverso workshop, e incentivando un dialogo costruttivo e trasparente.
Questi elementi, insieme a quasi 430 sottomissioni ricevute dalla consultazione pubblica, saranno utilizzati per perfezionare il documento.
La sessione plenaria della prossima settimana rappresenterà un momento importante dato che ogni gruppo di lavoro esporrà aggiornamenti e raccoglierà feedback dagli stakeholder. Tutte le osservazioni orali e scritte saranno incorporate in una seconda versione della bozza, prevista entro l’inizio del 2025.
Il ruolo dell’AI Board per l’attuazione dell’AI Act
L’Ufficio Europeo per l’IA, supervisore del progetto, ha designato l’importanza di avere un approccio equilibrato, che tenga in considerazione l’evoluzione tecnologica e la complessità delle esigenze del mercato. Inoltre, l’attenta partecipazione da parte dei rappresentanti degli Stati membri dell’UE, durante tutto il processo, tramite il Comitato per l’IA è fondamentale e garante della qualità del prodotto.
Questo Comitato, chiamato AI Board, comprende rappresentanti di ciascuno Stato membro dell’UE ed è sostenuto dall’Ufficio per l’intelligenza artificiale all’interno della Commissione Europea, che funge da Segretariato del Consiglio di Amministrazione.
L’ AI Board coordina e garantisce la cooperazione tra gli Stati membri dell’UE, con l’obiettivo di attuare ed applicare in modo funzionale la legge sull’intelligenza artificiale in tutta l’Unione Europea.
Inoltre, agevola la cooperazione delle autorità nazionali competenti responsabili dell’applicazione del regolamento e raggruppa e condivide le migliori competenze tecniche, normative, e pratiche.
Una responsabilità chiave dell’AI Board è quella di prestare consulenza e assistenza nell’attuazione della legge sull’IA, nella discussione di linee guida, progetti di atti delegati e atti di esecuzione. Con il suo lavoro, lo “European Artificial Intelligence Board”, questo il nome completo, contribuisce allo sviluppo di un quadro politico di IA coerente e lungimirante, garantendo che le tecnologie AI avvantaggino tutti i cittadini europei, pur mantenendo i più alti standard di sicurezza ed etica.
La versione finale del Codice sarà pubblicata nell’aprile 2025 e diventerà una guida per l’applicazione pratica dell’AI Act.
Approccio strutturato alla gestione responsabile dei modelli AI
La bozza del Codice dimostra un approccio strutturato da parte dell’Unione Europea per la gestione responsabile dei modelli di IA Generica.
Tra i contenuti principali si possono rinvenire anche la regolamentazione per la diffusione delle caratteristiche dei modelli e dei dati di addestramento; l’introduzione di una tassonomia dei rischi sistemici e strumenti di autovalutazione; diverse soluzioni tecniche e gestionali per la gestione dei rischi; regole per l’open source per implementare l’innovazione; ed anche misure per controllare e valutare l’efficacia delle regole applicate.
Questo quadro normativo si allinea ai principi dell’AI Act, fornendo opzioni di conformità semplificate per PMI e start-up, senza compromettere la sicurezza e la trasparenza.
Conclusioni
Con l’utilizzo di un Codice di Condotta per l’IA Generica, l’Europa fortificherà il suo ruolo nella governance etica dell’intelligenza artificiale.
Infatti, questo documento non solo favorirà lo sviluppo di tecnologie innovative, ma fortificherà la fiducia pubblica, consentendo che i benefici dell’IA siano distribuiti equamente e privi di rischi.
Attraverso un processo inclusivo e trasparente, il Codice si propone come punto di riferimento universale per lo sviluppo e l’implementazione responsabile dell’intelligenza artificiale.