Trasparenza sui sistemi di intelligenza artificiale (AI), miglioramento delle fasi di testing e condivisione delle informazioni sui potenziali danni e rischi: su questi punti Anthropic, Google, Inflection, Meta, Microsoft e Open AI, nel luglio del 2023, si erano impegnate su base volontaria a sviluppare in modo sicuro e affidabile l’AI.
A ciò fece seguito l’Executive Order del 30 ottobre 2023 del presidente degli Stati Uniti Joe Biden finalizzato a elevare gli standard di sicurezza e protezione dell’AI e a garantire la privacy dei cittadini americani.
In particolare, sul tema della sicurezza cibernetica, l’Executive Order fissava una serie di obiettivi tattici-strategici, quali:
- lo sviluppo di standard, tool e test sotto la supervisione del National Institute of Standards and Technology (NIST) che assicurino sistemi di AI sicuri e affidabili prima che siano rilasciati al pubblico;
- la redazione di un piano avanzato per lo sviluppo di tool di AI per la correzione di possibili vulnerabilità all’interno dei software;
- la protezione dei cittadi americani da possibili frodi e inganni tramite l’applicazione di filigrana digitale per il riconoscimento di contenuti generati da AI.
Indice degli argomenti
Lo sviluppo degli impegni presi dalle aziende di AI
A un anno di distanza, il MIT Technology Review ha sottoposto un questionario alle aziende di AI americane per avere maggiori dettagli sul lavoro svolto finora in relazione agli impegni presi.
Per quanto concerne il collaudo di sicurezza interno ed esterno prima del rilascio dei sistemi di AI, i red team di tutte le aziende ad eccezione di Inflection, la quale ha scelto di non rispondere, stanno svolgendo test per verificare la presenza di difetti e potenziali rischi cibernetici nei casi in cui un modello avanzato di intelligenza artificiale possa persuadere un utente a commettere azioni dannose verso altri.
Anthropic, per il lancio del suo modello Claude 3,5, è stato assistito da esperti esterni dell’AI Safety Institute del Regno Unito e ha consentito all’organizzazione no-profit Model Evaluation and Threat Research, che si occupa di valutare se i sistemi avanzati di AI possano comportare rischi catastrofici per la società, di effettuare una prima analisi del modello.
Anthropic mira a offrire i suoi sistemi di AI a governi e agenzie governative come strumento di supporto nel coordinamento della risposta alle catastrofi, migliorare le iniziative di salute pubblica od ottimizzare le reti energetiche, motivo per cui l’allineamento delle proprie policy di sicurezza cibernetica con i requisiti e standard dovrà essere completo su tutti gli aspetti.
Anche Microsoft è stata coadiuvata da esterni di NewsGuard, organizzazione composta da giornalisti per la verifica delle informazioni, per i test valutativi concernenti il rischio di abuso del deepfake.
Meta e Google hanno, invece, proceduto a test di red team per i loro modelli, rispettivamente Llama 3 e Gemini.
Il piano Microsoft contro le minacce interne
Sull’impegno a investire in piani per la sicurezza cibernetica e di prevenzione da minacce interne, le insider threat, Microsoft ha implementato la Secure Future Initiative nel novembre 2023 per dotarsi di un sistema di difesa adeguato all’aumento di attacchi cibernetici.
Il nuovo piano elaborato sui tre principi di sicurezza “secure by design”, “secure by default” e “secure operations”, prioritizza sei pilastri della sicurezza informatica: protezione delle identità e dei segreti, protezione dei fruitori dei servizi e dei sistemi di produzione, protezione delle reti, protezione dei sistemi ingegneristici, monitoraggio e rilevamento delle minacce, accelerazione della risposta e riparazione.
L’approccio di Google alla sicurezza dell’AI
Approccio diverso quello di Google tramite l’AI Cyber Defense Initiative, il quale prevede investimenti per formare studenti universitari e migliorare la ricerca nel settore della sicurezza AI, oltre a fornire un framework di sicurezza AI (Secure AI Framework).
Le nuove misure di cyber security di Open AI
A maggio, Open AI ha condiviso sei nuove misure attualmente in sviluppo per integrare le pratiche di cyber security esistenti, come ad esempio l’estensione della protezione crittografica all’hardware dell’intelligenza artificiale, auditing delle infrastrutture AI, integrazione dell’intelligenza artificiale nella difesa cibernetica.
A ciò si aggiunge il piano di sovvenzioni per la sicurezza cibernetica, che consentirebbe ai ricercatori di accedere ai propri modelli per costruire difese informatiche.
Gli sforzi maggiori per la protezione dati degli utenti
Lato privacy, le aziende sembrano aver accelerato i loro sistemi di protezione e risulta l’area in cui è stato compiuto il maggior sforzo.
Amazon ha immesso nel suo sistema Amazon Bedrock dei rilevatori che possono applicare protezioni rilevati alla privacy se minacciate.
Anthropic ha impiegato una squadra di ricercatori dedita alla ricerca sui possibili rischi per la privacy, nel dicembre 2023 è stato rilasciato un paper relativo all’utilizzo di modelli linguistici in Claude 2.0 in grado di rilevare possibili discriminazioni positive e negative.
Open AI, invece, ha allenato il proprio modello a gestire prompt che producano contenuti d’odio affinché questi non vengano generati. Inoltre, nell’ottobre 2023, Anthropic, Google Microsoft e Open AI hanno istituito l’AI Safety Fund con un capitale iniziale di 10 milioni di dollari per promuovere la ricerca nel Frontier Model Forum, un partenariato per promuovere un AI responsabile.
Conclusioni
Dunque, le aziende di AI americane stanno progredendo a velocità differenziate in relazione agli impegni presi, questo perché, sottolinea Brandie Nonnecke, direttore del CITRIS Policy Lab della UC Berkeley, in assenza di una legislazione federale completa, il massimo che gli Stati Uniti possono fare in questo momento è solo di chiedere alle aziende di rispettare questi impegni volontari.
Un discorso diverso per quanto concerne le attività di queste aziende nell’Unione europea nel prossimo futuro.
Infatti, il 12 luglio 2024, è stato pubblicato in Gazzetta Ufficiale UE il Regolamento AI Act, il quale rappresenta il primo framework normativo completo sull’AI, ed entrerà in vigore dal primo agosto 2024.
Gli aspetti chiave del Regolamento sono un approccio basato sul rischio dei sistemi di AI, i requisiti dei sistemi di intelligenza artificiale ad alto rischio, obbligo di trasparenza, rafforzamento della protezione dei dati prevista dal GDPR, applicazione di sanzioni fino al 6% del fatturato annuo o di 30 milioni di euro in caso violazioni gravi per le aziende non conformi al Regolamento.