Fornire agli sviluppatori una serie di utili indicazioni per un uso sicuro, responsabile ed etico dell’intelligenza artificiale: è questo l’obiettivo delle linee guida internazionali alle quali ha aderito anche l’Agenzia per la Cybersicurezza Nazionale (ACN) insieme ad altre 22 agenzie di 18 paesi in tutto il mondo.
Il documento congiunto, promosso dal National Cyber Security Centre del Regno Unito ed elaborato con la collaborazione della Cybersecurity and Infrastructure Security Agency (CISA) degli Stati Uniti, è stato realizzato da esperti governativi e del settore privato che hanno partecipato ai lavori del primo “AI Safety Summit”.
I Paesi che hanno contribuito alle linee guida sono: Australia, Canada, Cile, Corea del Sud, Estonia, Francia, Germania, Giappone, Israele, Italia, Nigeria, Norvegia, Nuova Zelanda, Polonia, Regno Unito, Repubblica Ceca, Singapore e Stati Uniti.
AI Act, c’è scontro in Europa: ecco i nodi che ne ostacolano l’approvazione
Indice degli argomenti
Innalzare i livelli di cyber security dell’intelligenza artificiale
Le linee guida internazionali offrono, dunque, alcune utili indicazioni generali destinate, in particolare, agli sviluppatori di qualunque sistema basato sulle tecnologie di intelligenza artificiale.
Tali sistemi, infatti, sono soggetti a nuovi rischi di sicurezza che devono essere considerati insieme alle minacce standard alla sicurezza informatica.
La cyber sicurezza, grazie ai principi essenziali di correttezza, affidabilità, privacy e resilienza diventa condizione pre-essenziale dell’intelligenza artificiale, garantendo così un cyberspazio più sicuro. Pertanto, gli sviluppatori che utilizzano modelli ospitati da un’organizzazione terza o interfacce di programmazione di applicazioni esterne (API), sono invitati a seguire tali direttive al fine di contribuire a creare un’IA responsabile, sicura ed etica.
In relazione a ciò, il direttore generale di ACN, il prefetto Bruno Frattasi, ha evidenziato quanto la partecipazione della stessa Agenzia sia di estrema importanza, affermando che “l’intelligenza artificiale è una sfida a cui l’Agenzia non vuole e non può sottrarsi. Per questo abbiamo aderito con convinzione a questa iniziativa. È una sfida che può essere vinta solo tutti assieme: dobbiamo mettere a disposizione le migliori energie, intellettuali e strumentali del nostro Paese e di tutti gli altri Paesi che si apprestano ad affrontare, a partire dal prossimo G7 a guida italiana, questa impresa così altamente impegnativa per l’intera umanità”.
La struttura delle linee guida sull’intelligenza artificiale
Le linee guida internazionali sono suddivise in quattro punti chiave (non vincolanti): progettazione sicura, sviluppo sicuro, implementazione sicura e funzionamento e manutenzione sicuri.
Per quanto riguarda il primo punto, Progettazione sicura, la sezione comprende i dettami dello sviluppo del sistema IA durante la progettazione del suo ciclo di vita. Copre la comprensione dei rischi e la modellazione delle minacce, nonché argomenti specifici e compromessi da considerare nella progettazione di sistemi e modelli.
Il secondo punto, Sviluppo sicuro, riguarda le linee da applicare durante la fase di sviluppo del ciclo di vita del sistema di Intelligenza Artificiale, inclusa la sicurezza della catena di approvvigionamento, la documentazione e la gestione delle risorse e del debito tecnico.
Implementazione sicura è, invece, una sezione che riguarda le disposizioni, da applicare in maniera schematica e precisa, elaborate per ridurre al minimo l’errore durante la fase di sviluppo del sistema e implementazione del ciclo di vita dell’IA, compreso lo sviluppo di processi di gestione degli incidenti e il rilascio responsabile e la protezione dell’infrastruttura e dei modelli di minacce o perdite che un uso sconsiderato ne potrebbe comportare.
Infine, la sezione Funzionamento e manutenzione sicuri fornisce le azioni che si applicano alla fase di funzionamento e manutenzione sicura del ciclo di vita di sviluppo del sistema IA. Le misure particolarmente rilevanti da quando il sistema è stato implementato, sono la registrazione, il monitoraggio, la gestione degli aggiornamenti e la condivisione delle informazioni.
Intelligenza artificiale al centro del dibattito europeo
La definizione di queste linee guida dimostra ancora una volta come l’argomento Intelligenza Artificiale sia uno dei temi centrali all’interno del dibattito europeo.
Da poco si è anche sostenuta una riunione trilaterale tra Italia, Francia e Germania, avente come snodo fondamentale della discussione, oltre alla transizione digitale, proprio l’IA, più nello specifico l’allineamento da mantenere nelle posizioni negoziali in corso sulla proposta dell’Artificial Intelligence Act, una prima legge sull’intelligenza artificiale che, in sede di discussione, sta riscontrando varie difficoltà, dovendosi coordinare e accordare il Consiglio europeo, la Commissione e il Parlamento.
Da questa aperta questione dipende il destino dell’Europa nel digitale e della protezione dei cittadini dai rischi scaturiti dallo sviluppo di una tecnologia così avanzata. In questo senso, l’affermazione del prefetto Frattasi, già ricordata in precedenza, riguardo alla “guida italiana del prossimo G7” rappresenterà, secondo quanto riportato dal Ministro delle Imprese e Made in Italy Adolfo Urso, uno snodo significativo.
Rafforzamento della cooperazione europea sull’intelligenza artificiale: una visione condivisa
Da dove nasce l’accordo sull’uso sicuro dell’IA
L’accordo sulle linee guida affronta la questione di come evitare che la tecnologia IA sia dirottata dai criminal hacker, e include una serie di raccomandazioni utili, come il rilascio dei modelli solo dopo determinati test di sicurezza.
In aggiunta a ciò, il documento contiene anche raccomandazioni generiche, come il monitoraggio degli abusi dei sistemi di Intelligenza Artificiale, la protezione dei dati da intrusioni o manomissioni e il controllo dei fornitori di software.
Tuttavia, non affronta temi ostici come, ad esempio, gli usi appropriati dell’IA o le modalità attraverso cui vengono raccolti i dati che alimentano questi modelli. Inoltre, l’assenza di vincoli potrebbe limitare l’impatto effettivo di questo documento. La necessità di regolamentazioni più stringenti e chiare per indirizzare queste sfide diventa quindi un ulteriore passo da compiere.
Primo passo verso un ambiente digitale sicuro
Per il momento, le linee guida internazionali per lo sviluppo sicuro dell’Intelligenza Artificiale rappresentano un passo significativo verso la promozione di un ambiente digitale più sicuro e responsabile, offrendo un quadro di riferimento prezioso per gli sviluppatori di sistemi IA ed evidenziando l’importanza cruciale della cyber security.
La loro attuazione richiederà uno sforzo congiunto e continuo da parte di governi, organizzazioni e sviluppatori al fine di promuovere un ambiente IA sicuro, etico e responsabile. La prossima guida italiana del G7 potrebbe giocare un ruolo fondamentale nell’evoluzione di questo dialogo per incentivare l’integrità e uno sviluppo sempre più responsabile dell’Intelligenza Artificiale a livello internazionale.
In questo contesto, l’Agenzia della Cybersicurezza Nazionale avrà il compito di rappresentare l’Italia, con l’obiettivo di promuovere una sicurezza informatica adeguata, dando così seguito alle linee guida alle quali ha aderito.