Nel sempre mutevole panorama tecnologico, la crescita esponenziale degli strumenti basati sull’intelligenza artificiale generativa ha portato opportunità senza precedenti per aumentare la produttività. Tuttavia, questo notevole avanzamento non è giunto senza la sua serie di sfide, soprattutto nell’ambito della sicurezza informatica.
Mentre strumenti come il Copilot di Microsoft e altre applicazioni di intelligenza artificiale generativa diventano comuni nei luoghi di lavoro di tutti i giorni, l’urgenza di comprendere e mitigare i potenziali rischi di sicurezza è diventata una preoccupazione primaria per i responsabili tecnologici all’interno delle aziende.
Come le AI generative renderanno più accurata la sicurezza informatica
Indice degli argomenti
Il panorama attuale: bilanciare potenziali ricompense e rischi
La rapida proliferazione degli strumenti basati sull’intelligenza artificiale generativa richiede vigilanza da parte dei leader aziendali, in quanto la bilancia vede da un lato un progresso tecnologico in rapido aumento e dall’altro una sempre più crescente esposizione alle minacce cyber.
Il panorama aziendale contemporaneo si basa fortemente sulla comprensione non solo di ciò che questi strumenti possono realizzare, ma anche sulla valutazione della loro conformità a rigorosi standard di sicurezza.
Un fattore significativo che contribuisce a questa urgenza è il concetto di “software bill of materials”. Analogamente a come le aziende si sono tradizionalmente basate su inventari per tracciare i componenti della loro catena di approvvigionamento, la necessità di un approccio simile sorge anche nel mondo digitale.
Ora i fornitori di software sono sollecitati a fornire elenchi dettagliati dei componenti del codice di un software, compresi gli elementi proprietari e open source. L’obiettivo è migliorare la capacità di tracciare e identificare le potenziali vulnerabilità di sicurezza, come quella nel software Log4j, e rispondere più rapidamente.
Tuttavia, lo sviluppo rapido dell’intelligenza artificiale generativa sta creando ostacoli nella gestione di questo inventario.
La complessità dei grandi modelli di linguaggio, come il riconosciuto ChatGPT, rende sempre più difficile condurre audit completi sul loro funzionamento interno. Jeff Pollard, un analista di sicurezza informatica presso Forrester Research, mette in evidenza il sentimento comune tra i rappresentanti della sicurezza informatica aziendale, esprimendo preoccupazioni per la mancanza di visibilità e chiarezza nel determinare tutte le effettive funzionalità dell’IA.
Minacce emergenti nell’ecosistema cyber potenziato dall’IA
L’intelligenza artificiale generativa introduce sfide uniche in materia di sicurezza informatica a causa della sua rapida evoluzione. Poiché questi modelli di IA vengono addestrati utilizzando codici esistenti, il rischio di ereditare vulnerabilità diventa una preoccupazione distinta. David Johnson, un data scientist presso l’Europol, sottolinea questo punto, evidenziando come le vulnerabilità presenti nel codice iniziale possano propagarsi al codice generato per l’IA.
Inoltre, dato che i modelli di IA vengono addestrati sui dati aziendali, le aziende devono essere ancora più consapevoli di dove tali dati potrebbero essere esposti nella catena di approvvigionamento, ha detto Robert Boyce, direttore generale dei servizi di resilienza cibernetica presso la società di consulenza Accenture.
Start-up come Protect AI stanno affrontando direttamente queste dinamiche, cercando di fornire soluzioni che aiutino le aziende a tracciare i componenti dei loro sistemi di intelligenza artificiale attraverso un “machine-learning bill of materials”. Questa piattaforma non solo identifica potenziali violazioni della sicurezza, ma anche attacchi di iniezione di codice maligno. Il panorama delle minacce emergenti include anche rischi nuovi come “iniezioni prompt”, dove gli hacker manipolano i sistemi di intelligenza artificiale generativa per divulgare informazioni sensibili.
Il ruolo dell’IA nella difesa
Mentre l’industria abbraccia strumenti di sicurezza informatica potenziati dall’IA, è essenziale trarre spunti sia dalle ricompense che dalle minacce rappresentate da questa tecnologia. L’utilizzo dell’IA per rafforzare gli sforzi di sicurezza offre una serie di vantaggi, dalla rilevazione più efficace delle minacce alla capacità di rispondere più rapidamente agli incidenti.
La capacità di identificare e rispondere alle minacce informatiche, in particolare gli attacchi zero-day, è fondamentale nell’era attuale. L’IA può permettere alle organizzazioni di individuare anomalie e modelli dannosi altrimenti non facilmente individuabili.
Tuttavia, l’utilizzo dell’IA per la sicurezza informatica non è privo di rischi. La trasparenza ed una struttura algoritmica chiara sono fondamentali, poiché la mancanza di approfondimenti su come operano i modelli di IA può ostacolarne la comprensione e l’eventuale miglioramento.
Inoltre, il pregiudizio incorporato nei sistemi di IA è una preoccupazione pressante. Garantire che i dati di addestramento siano rappresentativi è fondamentale per prevenire analisi distorte che potrebbero portare a decisioni dannose.
Mentre i CIO prioritizzano la protezione dei dati aziendali da falle o dall’uso per modelli AI di terze parti, un’altra preoccupazione sorge dal codice che gli assistenti AI aiutano i programmatori a generare. Strumenti come il CodeWhisperer di Amazon e GitHub Copilot suggeriscono frammenti di codice agli sviluppatori, aumentando la possibilità di generare codice inaccurato o rivelare involontariamente informazioni confidenziali.
In questo contesto, Shamim Mohammad di CarMax sottolinea la necessità di un modello di governance per supervisionare l’integrazione dell’AI e mitigare i rischi. Questo modello funge da guida, sfruttando il potenziale dell’AI e al contempo proteggendo contro codice maligno e violazioni della privacy.
Nel mentre le imprese navigano nel panorama in evoluzione delle sfide di cyber security guidate dall’AI, è evidente che un’attenta valutazione e analisi del rischio sono fondamentali per i CIO al fine di prendere decisioni informate in questo ambiente in rapida trasformazione.