Costituire una governance federale in grado di saper gestire e affrontare le implicazioni derivanti dai progressi dell’intelligenza artificiale (IA) che possono minare la sicurezza nazionale e la proiezione del Paese in politica estera: è questo l’obiettivo dell’amministrazione Biden-Harris che ha annunciato di aver rilasciato il Memorandum per la Sicurezza Nazionale (National Security Memorandum) sull’intelligenza artificiale, il primo del suo genere.
Il National Security Memorandum dà seguito a quanto era stato richiesto nella sezione 4.8 dell’Executive Order 14110 del 30 ottobre 2023 Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence.
Indice degli argomenti
Diversità nella supply chain dei chip per l’IA
Nel Memorandum sono delineati degli indirizzi di policy precisi verso cui rivolgere le risorse e le attività governative, che nel testo sono definite come critical actions.
Il Centre for Strategic and International Studies individua tre obiettivi primari di policy di alto livello per la sicurezza nazionale:
- il mantenimento del ruolo di guida degli Stati Uniti per lo sviluppo di sistemi di IA;
- la riduzione di tempi di adozione di sistemi di IA da parte delle agenzie di sicurezza nazionale;
- lo sviluppo di un framework di governance robusto per rafforzare la sicurezza nazionale.
In merito al primo obiettivo, ossia relativo al ruolo di leadership degli Stati Uniti, il Memorandum sottolinea l’importanza di adottare politiche che consolidino la sicurezza e garantiscano una diversità nella supply chain dei chip per l’IA.
Sul tema si possono già osservare delle prime attività. Nell’agosto del 2022, il presidente Biden, aveva approvato il CHIPS and Science Act proprio con lo scopo di aumentare gli investimenti strategici nel settore dei semiconduttori, a cui si aggiunge la recente emanazione, avvenuta il 28 ottobre, del regolamento (Final Rule) per l’implementazione dell’Executive Order 14105 del 9 agosto 2023 di Biden sugli investimenti degli Stati Uniti in determinate tecnologie e prodotti per la sicurezza nazionale in Paesi a rischio, tra cui rientrano semiconduttori e microelettronica, tecnologie informatiche quantistiche e intelligenza artificiale.
Più cyber security per la protezione degli asset IA
Un secondo settore che riceverà molta attenzione è il controspionaggio industriale con un peso rilevante dato alla cyber security, per una maggiore protezione degli asset IA integrati con tecnologie innovative.
La Cina risulta essere il rivale sistemico per eccellenza anche in questo caso, infatti, tramite le operazioni di cyberspionaggio riesce a mantenere un elevato e avanzato patrimonio tecnologico a spese degli ingenti investimenti degli Stati Uniti.
Tuttavia, ci sono altri attori come i gruppi di cyber criminali che possono compiere devastanti attacchi informatici per esfiltrare informazioni sensibili e segreti industriali: a esempio, nel 2022, WIRED aveva riportato la notizia secondo la quale un gruppo di criminali informatici aveva violato i sistemi dell’azienda Nvidia riuscendo a rubare “una quantità significativa di informazioni sensibili sui progetti delle schede grafiche Nvidia, il codice sorgente di un sistema di rendering AI di Nvidia chiamato DLSS e i nomi utente e le password di oltre 71.000 dipendenti Nvidia”.
Adozione dei sistemi di IA nelle agenzie di sicurezza nazionale
Sul secondo obiettivo, cioè la riduzione di tempi di adozione di sistemi di IA da parte delle agenzie di sicurezza nazionale, i passaggi chiave, secondo l’analisi di Gregory Allen e Isaac Goldston del CSIS, includono:
- indirizzare le agenzie a riformare il loro capitale umano e le pratiche di assunzione per attrarre e trattenere i talenti;
- indirizzare le agenzie a riformare le loro pratiche di appalto per facilitare le aziende di IA a contribuire alla missione di sicurezza nazionale;
- indirizzare il Dipartimento della Difesa (DOD) e la Comunità di Intelligence (IC) ad esaminare come le politiche e le procedure esistenti relative agli obblighi legali esistenti (privacy e libertà civili) possano essere riviste per consentire un uso efficace e responsabile dell’IA;
- dare istruzioni alle agenzie federali di esaminare come le politiche e le procedure esistenti relative alla sicurezza informatica possano essere riviste per accelerarne l’adozione, ma senza aumentare i rischi di cyber security.
Un framework per la governance dell’IA
Per quanto concerne il terzo obiettivo, lo sviluppo di un framework di governance robusto per rafforzare la sicurezza nazionale, fondamentale è il Framework per far progredire la governance dell’IA e la gestione del rischio nella sicurezza nazionale, il quale fornisce i dettagli e le indicazioni per l’attuazione del National Security Memorandum, richiedendo anche meccanismi di gestione del rischio, valutazioni, responsabilità e trasparenza.
Questi requisiti richiedono alle agenzie di monitorare, valutare e mitigare i rischi dell’IA relativi a violazioni della privacy, pregiudizi e discriminazioni, sicurezza di individui e gruppi e altre violazioni dei diritti umani.
Inoltre, Allen e Goldston evidenziano che nel National Security Memorandum con governance si intende anche quale autorità debba prendere le decisioni in merito all’impiego dell’IA e quali processi adottare per tali decisioni.
Infatti, a quasi tutte le agenzie di sicurezza nazionale è richiesto di designare un responsabile dell’IA delle principali agenzie governative e questi faranno parte di un gruppo di coordinamento per la sicurezza nazionale dell’IA.
Infine, sul piano internazionale gli Stati Uniti si dedicheranno a collaborare con gli alleati e i partner per stabilire un quadro di governance conforme al diritto internazionale affinché la tecnologia sia sviluppata e utilizzata per proteggere i diritti umani e le libertà fondamentali.
IA e sicurezza nazionale degli USA: prossimi step
Gli analisti del CSIS evidenziano però che l’attuazione del National Security Memorandum potrebbe subire delle variazioni dal percorso programmato, soprattutto per le scadenze fissate a ridosso dell’inizio della nuova amministrazione.
Infatti, se è ragionevole esseri certi che Kamala Harris in caso di vittoria alle prossime elezioni mantenga una continuità con l’operato avviato da Biden, il discorso potrebbe risultare diverso nel caso in cui Donald Trump tornasse alla Casa Bianca: per esempio, il programma del Partito Repubblicano prevede l’abolizione dell’Executive Order 14110, lo stesso che ha disposto la costituzione del National Security Memorandum.
Tuttavia, più che a uno stravolgimento totale del Memorandum, è ragionevole ritenere che l’amministrazione Trump possa adottare politiche più a favore delle tecnologie invasive, andando incontro a quelle aziende che hanno sostenuto la campagna elettorale del candidato repubblicano, e meno conformi al diritto internazionale.
Dunque, un’ipotetica amministrazione Trump potrebbe rivedere alcune disposizioni del National Security Memorandum sull’Intelligenza Artificiale per poterlo adeguare a quanto esposto nel programma repubblicano.