A fine ottobre sono stati emessi due importanti documenti che segnano un passo in avanti nella regolamentazione dei sistemi di intelligenza artificiale (“IA”) a livello globale.
Infatti, se da una parte sono state pubblicate le linee guida per sistemi avanzati formulate nell’ambito del G7, dall’altra è stato firmato dal presidente americano Joe Biden l’“Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence”.
Entrambi i documenti si inseriscono in un contesto globale che vede diversi attori (tra gli altri, i legislatori, le autorità e gli stakeholder) coinvolti nel tentativo di trovare dei punti di riferimento e di inquadrare, per quanto possibile, il tema dell’IA.
L’IA e il rischio per le elezioni europee: la minaccia delle fake news e i possibili rimedi
Indice degli argomenti
Il codice di condotta del G7
Il processo sull’Intelligenza Artificiale di Hiroshima del G7 ha portato alla redazione di un documento[1] che invita le organizzazioni a non sviluppare sistemi di IA avanzati che possano indebolire le democrazie, che possano arrecare danni a individui o le società, o che possano facilitare il terrorismo e gli abusi criminali, determinando rischi per la sicurezza, la protezione e la tutela dei diritti umani.
Inoltre, il documento punta sulla condivisione da parte di coloro che sviluppano sistemi di IA delle informazioni utili a individuare capacità pericolose ed invita gli stessi soggetti a trovare metodi efficaci per distinguere l’operato dell’IA da quello umano.
Per raggiungere gli obietti sopra evidenziati, sono stati elaborati i seguenti principi:
- Adottare misure appropriate durante tutto lo sviluppo di sistemi avanzati di IA, anche prima e durante la loro distribuzione e immissione sul mercato, per identificare, valutare e mitigare i rischi lungo tutto il ciclo di vita dell’IA;
- Identificare e mitigare le vulnerabilità e, se del caso, gli incidenti e i modelli di uso improprio, dopo la distribuzione e l’immissione sul mercato.
- Comunicare pubblicamente le capacità, i limiti e gli ambiti di utilizzo appropriato e inappropriato dei sistemi avanzati di IA, per garantire una sufficiente trasparenza, contribuendo così ad aumentare la responsabilità;
- Lavorare per una condivisione responsabile delle informazioni e per la segnalazione degli incidenti tra le organizzazioni che sviluppano sistemi avanzati di IA, anche con l’industria, i governi, la società civile e il mondo accademico;
- Sviluppare, implementare e divulgare politiche di governance dell’IA e di gestione del rischio, basate su un approccio basato sul rischio, comprese le politiche sulla privacy e le misure di mitigazione;
- Investire e implementare solidi controlli di sicurezza, tra cui la sicurezza fisica, la cybersicurezza e le protezioni contro le minacce interne in tutto il ciclo di vita dell’IA;
- Sviluppare e distribuire meccanismi affidabili di autenticazione e provenienza dei contenuti, laddove tecnicamente fattibile, come il watermarking o altre tecniche per consentire agli utenti di identificare i contenuti generati dall’IA;
- Dare priorità alla ricerca per mitigare i rischi per la società, la sicurezza e la protezione e dare priorità agli investimenti in misure di mitigazione efficaci;
- Dare priorità allo sviluppo di sistemi avanzati di IA per affrontare le maggiori sfide del mondo, in particolare, ma non solo, la crisi climatica, la salute globale e l’istruzione;
- Promuovere lo sviluppo e, se del caso, l’adozione di standard tecnici internazionali;
- Implementare misure appropriate per l’inserimento dei dati e la protezione dei dati personali e della proprietà intellettuale.
Dal documento emergono alcuni punti che caratterizzano anche la proposta di Regolamento sull’IA dell’Unione europea, con particolare riferimento alla trasparenza e all’approccio che tiene conto dei rischi che possono derivare dall’utilizzo dell’IA stessa.
Seppur costituisca un documento importante, resta comunque soggetto all’adesione volontaria; a differenza dell’altro documento citato, ossia l’executive order del Presidente Biden.
Le preoccupazioni più comuni dei CISO sull’IA generativa: come stimolare un’adozione responsabile
L’executive order
Con la firma dell’executive order[2], infatti, gli Stati Uniti hanno fatto un passo in avanti introducendo uno strumento normativo che, seppur con i limiti propri dello strumento stesso, va oltre la soft law.
Infatti, l’ordine esecutivo del presidente, che non richiede l’approvazione del parlamento, per sua natura è suscettibile di modifica da parte dei presidenti che assumeranno il ruolo dopo Biden. Inoltre, non contiene indicazioni specifiche sull’enforcement.
Ciò premesso, l’executive order individua diversi temi correlati all’utilizzo dei sistemi di IA e, per ogni tema, detta delle azioni da intraprendere.
In primo luogo, con tale atto sono stabilite delle azioni per proteggere gli americani dai potenziali rischi dell’IA. In particolare, si fa riferimento: allo sviluppo di standard, tool e test per assicurare che i sistemi di IA siano sicuri e affidabili; alla definizione di standard e best practices per distinguere i contenuti generati dall’IA; a stabilire un programma di cybersecurity per sviluppare tool di IA per trovare e risolvere vulnerabilità nei software critici.
È interessante anche il richiamo al punto successivo del documento alla privacy, con l’invito al Congresso a far passare una legge sulla privacy per poter proteggere gli americani dai rischi che possono essere correlati all’IA.
Altri temi individuati riguardano la tutela dell’uguaglianza al fine di evitare discriminazioni che, com’è noto, possono verificarsi a seguito di bias insiti nell’algoritmo. Viene evidenziato che un uso irresponsabile dell’IA può portare ad abusi nell’ambito della giustizia e della sanità.
Vengono poi presi in considerazione soggetti quali consumatori, pazienti e studenti che possono sia trovare beneficio che essere danneggiati dall’utilizzo dei sistemi di IA, così come i lavoratori che possono essere interessati dagli strumenti dell’IA.
Oltre agli aspetti più incentrati sulla tutela dei diversi soggetti, l’executive order indirizza il focus anche sull’innovazione e vuole porre gli Stati Uniti nella posizione di leader mondiale in questo ambito attraverso: attività di ricerca, la promozione di un ecosistema competitivo e l’ampliamento delle possibilità per soggetti altamente qualificati e con competenze in settori critici di studiare e lavorare negli Stati Uniti.
Nella parte conclusiva, viene messa in evidenza la volontà di continuare a cooperare e collaborare a livello internazionale per lo sviluppo di un’IA sicura e affidabile.
L’executive order, inoltre, richiede al Dipartimento di Commercio di sviluppare linee guida per l’”etichettatura” dei contenuti generati da intelligenza artificiale per permettere agli americani di comprendere se un contenuto è stato generato dall’IA.
Un’ulteriore caratteristica dell’executive order riguarda l’enfasi posta sullo stabilire best practices e standards rispetto all’introduzione di meccanismi di enforcement per far rispettare gli stessi.
Alla luce di tutto ciò, risulta chiara la volontà degli Stati Uniti di ricoprire un ruolo di primo piano nella partita che si sta giocando a livello internazionale.
Chi deve controllare l’intelligenza artificiale? L’alternativa del modello open source
Conclusioni
Il documento emesso dal G7 e l’ordine esecutivo, se da una parte presentano alcuni aspetti in comune, tra cui l’attenzione ai rischi che possono derivare dall’utilizzo dei sistemi di IA, dall’altra sono due documenti molto diversi per vincolatività e per l’obiettivo che si prefiggono di raggiungere.
In ogni caso, entrambi intervengono in un momento in cui l’Unione europea non ha ancora approvato il testo definitivo dell’IA Act e si pongono come ulteriori elementi da tenere in considerazione nello sviluppo e nella commercializzazione di sistemi che utilizzano l’IA.
Sarà pertanto necessario per le aziende iniziare a valutare anche questi aspetti per essere pronte ad affrontare le sfide portate dall’IA.
Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems ↑
Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence ↑