L’intelligenza artificiale (IA) sta trasformando la società moderna a una velocità senza precedenti, anche relativamente agli ambiti della cyber security. Se da un lato ChatGPT e altri strumenti di IA generativa possono essere potenti forze per i difensori, dall’altro hanno scatenato uno tsunami di innovazione da parte degli attaccanti, con preoccupazioni in rapida crescita.
Concentrarsi su questo panorama di minacce in evoluzione aiuta a comprendere meglio l’eventuale impatto dei vettori di attacco IA emergenti sui programmi di sicurezza dell’identità e contribuire a dare forma a nuove innovazioni difensive.
Indice degli argomenti
I tre scenari di attacco dell’intelligenza artificiale
L’intelligenza artificiale sta cambiando il gioco offensivo in molti modi. Quasi tutti gli attacchi continuano a seguire una progressione nota, come illustrato nella matrice MITRE ATT&CK per le imprese, che si basa principalmente sulla compromissione dell’identità e sull’accesso ad alta sensibilità.
Ecco i tre scenari di attacco cyber che sfruttano l’intelligenza artificiale.
Una catena di attacco comune che segue le 14 tattiche definite dalla Matrice MITRE ATT&CK per le imprese.
Primo scenario dell’IA offensiva: il vishing
In qualità di dipendenti coscienziosi, si è diventati molto scettici nei confronti delle e-mail di phishing e si è consapevoli degli elementi a cui prestare attenzione.
Ma immaginiamo di essere seduti alla scrivania e di ricevere un messaggio WhatsApp dall’amministratore delegato dell’azienda che chiede di trasferire subito del denaro -con il suo avatar e la sua voce nel messaggio.
È un po’ strano perché non sono mai avvenute comunicazioni simili in questo modo, ma si procede a chiedergli dettagli su dove dovete inviare i fondi e lui risponde immediatamente con tutti le informazioni necessarie. Deve essere lui, giusto?
Non così in fretta. I modelli IA text-to-speech consentono ai cyber criminali di estrarre facilmente informazioni disponibili pubblicamente, come le interviste dei CEO, e utilizzarle per impersonare dirigenti aziendali, celebrità e persino presidenti degli Stati Uniti.
Creando un rapporto di fiducia con l’obiettivo, gli attaccanti possono accedere a credenziali e altre informazioni sensibili. Immaginiamo ora come una campagna di vishing di questo tipo possa essere realizzata su scala utilizzando la generazione automatizzata e in tempo reale di modelli di testo e testo-voce.
Queste falsificazioni profonde basate sull’intelligenza artificiale sono già comuni e possono essere molto difficili da individuare. Gli esperti di IA prevedono che i contenuti generati da questa tecnologia finiranno per essere indistinguibili da quelli creati dall’uomo, il che è preoccupante per i professionisti della sicurezza informatica, ma non solo.
Secondo scenario dell’IA offensiva: autenticazione biometrica
Passiamo ora agli attacchi agli occhi. Il riconoscimento facciale è un’opzione di autenticazione biometrica molto diffusa per l’accesso a dispositivi e infrastrutture che può essere ingannata dagli attori delle minacce che utilizzano l’intelligenza artificiale generativa per compromettere le identità e ottenere un primo punto d’accesso in un determinato ambiente.
In uno studio di rilievo, i threat researcher dell’Università di Tel Aviv hanno creato un “volto master” (o chiave master) che potrebbe essere utilizzato per aggirare la maggior parte dei sistemi di riconoscimento facciale.
Hanno utilizzato un modello di intelligenza artificiale chiamato GAN (Generative Adversarial Networks) per testare e ottimizzare iterativamente un’immagine vettoriale in modo che corrispondesse alle immagini facciali contenute in un ampio archivio aperto.
La ricerca ha prodotto una serie di nove immagini che corrispondevano a più del 60% dei volti presenti nel database, il che significa che un attaccante avrebbe avuto il 60% di possibilità di aggirare l’autenticazione del riconoscimento facciale per compromettere un’identità.
I modelli di IA generativa sono in circolazione da anni: perché tanto clamore proprio ora? In una parola, la scala. Quelli attuali possono apprendere su scala incredibile. Si consideri che ChatGPT-2 era in grado di digerire “solo” 3 miliardi di parametri (variabili di un sistema di IA i cui valori vengono regolati per stabilire come i dati di input vengono trasformati nell’output desiderato).
L’ultima versione, GPT-3, è in grado di digerire un numero di parametri 100 volte superiore. Questa crescita esponenziale è direttamente collegata ai progressi del cloud computing e ai nuovi ambienti senza perimetro che definiscono la nostra era digitale.
Man mano che i modelli di IA continuano ad apprendere diventeranno più bravi nella creazione di deep fake realistici, malware e altre minacce pericolose che ne cambieranno il panorama.
Terzo scenario dell’IA offensiva: malware polimorfo
Molti ricercatori e sviluppatori stanno sperimentando l’IA generativa per scrivere ogni tipo di codice, compreso il malware. Per le campagne offensive, questa tecnologia può essere incredibilmente efficace nelle prime fasi della catena di attacco, come la ricognizione, lo sviluppo del malware e l’accesso iniziale.
Tuttavia, non è ancora chiaro se le TTP (tattiche, tecniche e procedure) dell’IA siano utili dopo che l’attaccante sia entrato e stia lavorando per aumentare i privilegi, accedere alle credenziali e muoversi lateralmente. Queste tre fasi si basano tutte sulla compromissione dell’identità, sottolineando l’importanza di solidi controlli di sicurezza intelligenti dell’identità per proteggere sistemi e dati critici.
Sulla base della nostra ricerca, i CyberArk Labs osservano una nuova tecnica alimentata dall’intelligenza artificiale che potrebbe essere classificata nella fase di evasione della difesa del MITRE: il malware polimorfo.
Il malware polimorfo muta la sua implementazione mantenendo intatta la sua funzionalità originale. Fino a poco tempo fa, il malware veniva definito “polimorfo” se cambiava il modo in cui crittografava i propri moduli (rendendo particolarmente difficile per i difensori identificarlo).
Dopo che l’IA generativa ha introdotto la possibilità di mutare o generare moduli di codice con implementazioni diverse, il nostro team ha rapidamente iniziato a sperimentare ChatGPT per creare malware polimorfi. Non perché sia un ottimo modo per creare codice (non lo è), ma perché è così accessibile e divertente…
Abbiamo chiesto a ChatGPT di generare un info-stealer, un tipo di malware che recupera i cookie di sessione una volta eseguito su disco e possiamo sottolineare come ChatGPT sia uno sviluppatore entusiasta, ma ingenuo. Scrive rapidamente il codice, ma non coglie i dettagli critici e il contesto. Durante il nostro esperimento, la chatbot ha creato una password hard-coded e cercando di usarla per decrittografare i cookie di sessione: un flag per la sicurezza che ci ha fatto chiedere dove avesse imparato questa pratica rischiosa (e purtroppo molto comune).
Quindi, l’elusione delle difese utilizzando malware polimorfi generati dall’intelligenza artificiale è fattibile. Ad esempio, un attaccante potrebbe utilizzare ChatGPT per generare (e mutare continuamente) codice per il furto di informazioni da iniettare.
Infettando un dispositivo endpoint e prendendo di mira le identità – i cookie di sessione memorizzati localmente, nella nostra ricerca – potrebbe impersonare l’utente del device, aggirare le difese di sicurezza e accedere ai sistemi target rimanendo sottotraccia.
Con il miglioramento dei modelli di intelligenza artificiale e la continua innovazione dei cyber criminali, simili attacchi automatizzati basati sull’identità diventeranno parte integrante delle operazioni di malware.
Contrastare l’innovazione degli attacchi con una difesa alimentata dall’IA
Possiamo trarre tre conclusioni da questi scenari di attacco:
- L’intelligenza artificiale ha già avuto e continuerà ad avere un impatto sul panorama delle minacce: dal modo in cui vengono trovate le falle a quello in cui viene sviluppato il codice pericoloso. Offre agli attori nuove opportunità per colpire le identità e persino aggirare i meccanismi di autenticazione. Non ci vorrà molto perché l’intelligenza artificiale affini le sue capacità.
- Le identità rimangono i principali obiettivi di attacco. La loro compromissione continua a essere il modo più efficace ed efficiente per muoversi negli ambienti e raggiungere sistemi e dati sensibili.
- Le difese “malware-agnostiche” sono ancora più critiche. I livelli di sicurezza devono evolversi non solo per mettere in quarantena le attività dannose, ma anche per applicare pratiche preventive, come l’accesso con il minimo privilegio o condizionato alle risorse locali (come i cookie store) e a quelle di rete (come le applicazioni web).
È importante ricordare che l’intelligenza artificiale è uno strumento incredibilmente potente anche per i difensori informatici.
Sarà fondamentale, per contrastare i cambiamenti nel panorama delle minacce, migliorare l’agilità e aiutare le organizzazioni ad anticipare gli attaccanti.
Rappresenta inoltre un nuovo capitolo promettente in cui le implementazioni di cyber security sono più semplici, altamente automatizzate e di maggiore impatto.
Sfruttando l’intelligenza artificiale per ottimizzare i confini della sicurezza dove più necessari, ovvero intorno alle identità umane e non, le organizzazioni possono mitigare efficacemente le minacce oggi e in futuro.