Il 30 ottobre 2023 è una data che ha acquisito un’importanza significativa per i futuri sviluppi dei sistemi o prodotti basati sull’intelligenza artificiale: infatti, con un ordine esecutivo il presidente Biden ha emanato una serie di iniziative per costruire un impianto che permetta da un lato uno sviluppo sicuro e controllato mentre dall’altro si tutelano i cittadini dagli usi spregiudicati di tale strumento.
Intelligenza artificiale più sicura, i paletti del G7 e di Biden
Indice degli argomenti
Regolamentazione dell’IA: le linee guida USA
Spiccano, in tal senso, gli otto principi guida annunciati dalla Casa Bianca come introduzione all’ordine esecutivo:
- La sicurezza dell’intelligenza artificiale (IA) deve essere garantita da rigorose valutazioni, regolamenti e procedure. In questo tema sono considerati essenziali le seguenti tematiche: cybersicurezza, impiego di biotecnologie, protezione di infrastrutture critiche e monitoraggio post-implementazione.
- Incoraggiare l’innovazione consapevole, la rivalità e la cooperazione permetterà agli Stati Uniti di prendere la leadership nell’intelligenza artificiale e sfruttarne il potenziale. Questo sforzo richiede investimenti in ricerca, sviluppo, istruzione, formazione e capacità relative all’IA, oltre ad affrontare le nuove questioni di proprietà intellettuale (IP).
- L’impegno a sostenere i lavoratori americani è necessario per lo sviluppo e l’applicazione responsabile dell’IA. Tutti i lavoratori devono avere una voce nello sviluppo di nuove industrie e posti di lavoro creati dall’IA, anche attraverso la negoziazione collettiva.
- Le politiche di IA devono essere coerenti con la promozione dell’equità e i diritti civili.
- Tutelare gli interessi degli americani che, nella loro vita quotidiana, utilizzano, interagiscono o acquistano sempre di più prodotti che utilizzano l’IA.
- La privacy e le libertà civili degli americani devono essere protette mentre l’IA continua a progredire
- È importante gestire i rischi derivanti dall’uso dell’IA da parte del governo federale e aumentare la sua capacità interna di regolamentare, governare e sostenere l’uso responsabile dell’AI.
- Il governo federale dovrebbe guidare il cammino verso il progresso sociale, economico e tecnologico globale, come lo hanno fatto gli Stati Uniti in precedenti ere di innovazione e cambiamento.
Iniziative per uno sviluppo controllato e sicuro dell’IA
A partire da queste linee guida il governo statunitense mira a sviluppare un’architettura specifica per l’intelligenza artificiale che abbia dei chiari riferimenti normativi e istituzionali che guidino lo sviluppo controllato e sicuro di questa tecnologia.
Tra le diverse iniziative si segnala la creazione del “The United States AI Safety Institute” (US AISI), che, utilizzando il NIST AI Risk Management Framework come riferimento, si occuperà di creare linee guida, strumenti e pratiche per la valutazione e la mitigazione del rischio nell’utilizzo dell’IA.
L’istituto avrà come compito anche l’orientamento tecnico per gli enti regolatori, si occuperà di promuovere l’adozione di strumenti IA che preservino la privacy e infine intrecciare collaborazioni con istituzioni similari nel globo come l’AISI del Regno Unito.
A partire da questo primo tassello, vi è poi l’impegno per la stesura di una prima bozza di una normativa specifica sull’IA che raccolga e armonizzi da un lato i contenuti operativi sulla gestione del rischio sviluppati nel NIST AI Risk Management Framework, mentre dall’altro accolga i principi enunciati nel Blueprint for an AI Bill of Rights emanato nel 2022.
Principi di base per l’utilizzo dell’intelligenza artificiale
Quest’ultimo è il primo documento statunitense che si occupa di definire, ad ora senza obbligo vincolante, diversi principi legati all’utilizzo dell’IA che sono riassumibili in cinque categorie:
- Sistemi sicuri ed efficaci: gli utenti dovrebbero essere protetti da sistemi non sicuri o inefficaci.
- Protezione dalla discriminazione originata dagli Algoritmi: gli utenti non dovrebbero affrontare dei fenomeni di discriminazione da parte degli algoritmi e i sistemi dovrebbero essere utilizzati e progettati in modo equo.
- Data privacy: gli utenti dovrebbero essere protetti dall’utilizzo abusivo dei dati personali tramite protezioni integrate e avere il controllo nel modo in cui vengono utilizzati.
- Avviso e spiegazione: gli utenti dovrebbero sapere quando un sistema automatizzato viene utilizzato e capire come e perché contribuisce ai risultati che ti riguardano.
- Opzioni alternative: gli utenti dovrebbero essere in grado di fare opt-out, ove opportuno, e avere accesso a una persona che può rapidamente considerare e correggere i problemi incontrati.
Altre punti cardine dell’ordine esecutivo sull’IA
Tra le altre azioni contenute nell’ordine esecutivo vi è l’impegno nello sviluppo di una legislazione internazionale per l’utilizzo delle intelligenze artificiali e la creazione di standard interni per l’implementazione di pratiche responsabili e rispettose dei diritti nell’ambito dello sviluppo e nell’uso dell’IA da parte dei governi USA.
Nel documento è menzionata la dichiarazione per un uso responsabile dell’IA e dei sistemi a guida autonoma in ambito militare. Questa iniziativa, lanciata ad inizio 2023, prevede lo sviluppo di una cooperazione in materia tra gli stati che appoggiano i principi di uno sviluppo controllato e regolamentato dell’uso di queste tecnologie nel settore della difesa. Ad oggi 31 stati hanno aderito a questa iniziativa, di cui 23 europei, 3 africani, 2 asiatici più Canada e Australia.
Nell’ordine esecutivo è inoltre previsto che, prima di rilasciare un nuovo sistema di intelligenza artificiale al pubblico, i suoi creatori dovranno fornire al governo federale i risultati dei loro test di sicurezza.
Secondo il Defence Production Act, l’ordine richiederà alle aziende di notificare al governo federale se un modello di AI in fase di sviluppo comporta rischi per la sicurezza nazionale, per l’economia o per la salute pubblica.
Inoltre, creerà linee guida per fermare l’IA dalla produzione di materiali biologici pericolosi, ridurre le barriere di immigrazione per i lavoratori con competenze critiche di IA per studiare e rimanere negli Stati Uniti e creare le condizioni per ridurre la possibilità che l’IA sostituisca il lavoro umano.
L’implementazione di questa comunicazione diretta tra pubblico e privato, uno dei pilastri della nuova direttiva del presidente statunitense, si basa sugli impegni volontari, assunti in due ondate a luglio e a settembre, da 15 aziende tecnologiche, tra cui Microsoft, Google, Amazon, Meta e OpenAI.
Questo impegno permetterà l’effettuazione di test da parti terze dei loro sistemi IA prima del rilascio al grande pubblico e per sviluppare metodi per identificare chiaramente i contenuti generati da AI.
AI Safety Summit: le grandi potenze discutono di AI
Da rilevare come l’annuncio dell’ordine esecutivo giunga esattamente due giorni prima dell’AI Safety Summit, un importante evento internazionale sul tema dell’IA tenutosi a Bletchley, nel Regno Unito.
Nell’evento si sono incontrati rappresentanti di 24 nazioni più le due grandi potenze, Cina e Stati Uniti e l’Unione Europea. Il posizionamento statunitense sul tema è dunque aggiornato poco prima dell’incontro che stabilisce lo sviluppo di una cooperazione internazionale nello sviluppo di standard e pratiche per una crescita “in sicurezza” degli apparati IA.
Conclusioni
L’intera operazione ha determinato risposte contrastanti nell’establishment statunitense: infatti, ci sono diversi dubbi sull’effettiva implementazione di strumenti capaci di riconoscere i contenuti prodotti dall’IA, così come il mancato vincolo da parte di industrie e agenzie governative di utilizzo di questi ancora incompiuti strumenti.
Inoltre, il mancato obbligo da parte dei privati di aderire agli standard del NIST, sostituito da una più blanda cooperazione volontaria, fa emergere i limiti che questo provvedimento possa avere nell’effettivo “enforcement” di tale misura.
Non casualmente l’accoglienza delle grandi aziende del settore è stata entusiasta, mentre tra esperti e ricercatori vi è preoccupazione per gli scarsi vincoli normativi proposti da questa direttiva.
D’altra parte, l’inserimento delle tecnologie IA nel Defence production Act permette una certa flessibilità di intervento al governo federale nell’uscita sui mercati di nuovi prodotti IA; così come l’istituzione di agenzie dedicate al settore da un segnale di presa in considerazione delle problematiche poste da uno sviluppo senza freni.
In ogni caso per valutare l’efficacia di queste disposizioni bisognerà sicuramente aspettare del tempo, la vera domanda a questo punto riguarda il quanto ne è rimasto.
L’evoluzione sempre più rapida di questa tecnologia porta con sé il concreto rischio di un deragliamento socioeconomico che sarebbe devastante in un mondo che si riscopre fragile e diviso.
L’iniziativa del presidente Biden, unità a quelle sostenute in altre aree del mondo, potrebbe dunque essere la pietra di fondazione di un nuovo rilancio globale o un inefficiente argine contro la “marea” tecnologica montante.
Le azioni che verranno prese a riguardo nei prossimi mesi e anni saranno dunque di capitale importanza per la gestione di questo processo, ma nel frattempo un piccolo passo è stato intrapreso.