Le tecnologie di intelligenza artificiale consentono anche di affinare i metodi e l’estensione degli attacchi informatici.
Per capirlo, bisogna ricordare che due decenni scorsi abbiamo assistito ad un importante cambiamento di paradigma nel rapporto tra dato e algoritmo: il crescente utilizzo di algoritmi di intelligenza artificiale, reti neurali, deep learning e via dicendo ha spostato il vantaggio competitivo per le aziende dalla conoscenza (e segretezza) dell’algoritmo alla disponibilità dei dati. Quegli stessi dati che sono prerequisito fondamentale per addestrare i sistemi neurali e metterli in grado di eseguire attività in qualche modo monetizzabili, quali riconoscere immagini, decodificare il parlato, fare ricerche testuali.
Per questa ragione già da alcuni anni, numerosi framework di programmazione per lo sviluppo di sistemi basati su tecniche dell’intelligenza artificiale sono stati resi gratuitamente disponibili: TensorFlow di Google, Microsoft CNTK o Caffe, per citarne solo alcuni, rendono relativamente semplice lo sviluppo di applicazioni basate su tecniche di machine learning o deep learning, democratizzandone l’impiego.
Indice degli argomenti
Minacce informatiche e intelligenza artificiale: un connubio pericoloso
Data la continua escalation fra attacco e difesa cyber, è ragionevole ritenere che queste tecniche possano venire utilizzate non solo dai difensori ma anche dai “bad actors” per potenziare i propri attacchi, con tre prevedibili effetti sulle minacce di tipo informatico: l’espansione delle minacce esistenti, l’introduzione di nuovi tipi di minaccia ed infine un cambiamento o evoluzione delle minacce stesse. Vediamoli nel dettaglio:
- espansione delle minacce esistenti: i costi degli attacchi potrebbero ridursi grazie alla scalabilità offerta dai sistemi di intelligenza artificiale, utilizzata per completare le attività che altrimenti richiederebbero l’impiego di persone. Un possibile effetto sarebbe quello di accrescere il numero di attori che possono effettuare attacchi, la velocità con cui questi attacchi possono essere eseguiti e l’insieme dei potenziali obiettivi;
- introduzione di nuove minacce: nuovi tipi di attacco potrebbero essere lanciati con l’aiuto di sistemi di intelligenza artificiale per eseguire attività che sarebbero altrimenti poco pratiche o troppo dispendiose per l’uomo. L’IA permetterà, inoltre, di aumentare l’efficacia di attacchi che sfruttino le vulnerabilità umane, ad esempio attraverso l’uso di sistemi in grado di riprodurre la voce o l’immagine delle persone (si pensi ai deep fake). Infine, gli attori malevoli potrebbero sfruttare le vulnerabilità dei sistemi di intelligenza artificiale schierati dai difensori, come mostriamo in un successivo articolo;
- evoluzione delle minacce esistenti: è lecito attendersi che l’uso di sistemi di intelligenza artificiale possa rendere le minacce già esistenti più efficaci, più mirate e più difficili da attribuire. L’uso dell’IA per automatizzare le attività necessarie alla realizzazione di attacchi informatici cambierà il compromesso esistente fra la scala e l’efficacia degli attacchi. In questo modo potrebbe estendersi la minaccia associata agli attacchi informatici che richiedono uno studio intenso dell’obiettivo, come è il caso dello spear phishing. In pratica il rischio è che sia possibile, per un attaccante, realizzare campagne di phishing su larga scala costituito da e-mail in qualche modo personalizzate.
Con riferimento alle fasi di un attacco informatico (cyber kill chain), che per semplicità abbiamo suddiviso in ricognizione dell’obiettivo, esecuzione, violazione dei sistemi ed espansione dell’attacco, vediamo dove è possibile prevedere che gli hacker possano mettere a frutto le tecniche dell’intelligenza artificiale, ed in che modo.
Attacchi informatici: la fase di ricognizione
Uno dei vantaggi offerti dall’intelligenza artificiale è il rapido riconoscimento di pattern. Questa capacità può essere impiegata nella fase di ricognizione, per automatizzare la scansione di vulnerabilità, introducendo maggiore flessibilità rispetto alla semplice ripetizione di una chek list.
L’IA può inoltre aiutare a selezionare il malware più idoneo a penetrare un particolare sistema, applicazione, infrastruttura o ambiente. L’IA può infine facilitare l’adattamento di un exploit al particolare ambiente-bersaglio più rapidamente di un essere umano, generando e testando velocemente numerose varianti dello stesso.
Alcuni analisti, inoltre, mettono in guardia dalla possibilità che i malware del futuro possano essere dotati di sistemi di riconoscimento automatico che potranno attivare un certo attacco in presenza di caratteristiche specifiche: una certa configurazione del computer o della rete, una posizione geografica o il riconoscimento di specifici pattern vocali.
Non si tratta di mere speculazioni, come ha dimostrato una ricerca presentata alla conferenza Black Hat USA nel 2018: IBM ha dimostrato la fattibilità di un attacco che sfruttava tecniche di riconoscimento del volto per scaricare un malware, nascosto all’interno di un programma di videoconferenza, solo sulla macchina di una persona precisa.
Attacchi informatici: la fase di violazione dei sistemi
La fase di esecuzione dell’attacco, ovvero il download del malware per infettare una prima macchina, è spesso effettuata mediante e-mail che invitano l’utente a scaricare un file, a cliccare su un link o a rivelare dati riservati, come ad esempio la propria password.
Questo tipo di attacco è il cosidetto phishing. Lo spear phishing ne costituisce la versione raffinata, nel quale l’e-mail destinata a fungere da esca è scritta specificatamente per trarre in inganno anche un utente più smaliziato, utilizzando come mittente una persona che il destinatario conosce e facendo riferimento ad argomenti che non suscitino sospetti.
Gli attacchi di phishing, per riuscire, richiedono una buona conoscenza del bersaglio ottenibile attraverso una preparazione meticolosa: gli hacker possono trascorrere mesi a studiare i loro obiettivi e a raccogliere informazioni.
L’intelligenza artificiale può ridurre considerevolmente questi tempi, automatizzando gran parte del processo, raccogliendo informazioni dai social media e da fonti online, individuando le correlazioni pertinenti che aiuteranno gli attaccanti a migliorare l’inganno.
In questo scenario, le tecniche di IA che si occupano dell’elaborazione del linguaggio naturale possono venire sfruttate dagli hacker per analizzare rapidamente grandi moli di dati non strutturati (articoli online, pagine web e social media post), estraendone informazioni utili, quali le abitudini e le preferenze del bersaglio di un attacco, che possono poi essere utilizzate per comporre mail di phishing estremamente dettagliate e su larga scala.
In aggiunta a questi scenari, vanno considerati anche gli utilizzi di sistemi di adversarial machine learning per sviluppare rapidamente messaggi di phishing in grado di superare i sistemi anti-phishing. Ad esempio, è stata dimostrata la possibilità di utilizzare un sistema basato su algoritmi di machine learning in grado di generare URL di phishing capaci di superare i sistemi di sicurezza. Il sistema utilizza il database phishtank, un database aperto che permette di verificare se una URL è legittima o meno come base per l’apprendimento. I ricercatori hanno creato un software per l’apprendimento automatico (DeepPhish), in grado di creare URL per pagine Web che sembrano essere legittime pagine di accesso per i siti Web reali. In realtà queste URL possono ingannare gli strumenti di sicurezza, pur se nascondono pagine Web in grado di raccogliere le credenziali di accesso – nome utente password – di utenti ignari.
Attacchi informatici: la fase di espansione
Le capacità dell’intelligenza artificiale possono essere utilizzate anche nella fase di esecuzione, nella quale l’attaccante cerca di estendere la propria presenza sulla rete. All’inizio del 2017, la società di sicurezza informatica Darktrace sosteneva di avere individuato un attacco di nuovo tipo ai danni di una società indiana. L’attacco utilizzava rudimentali tecniche di machine learning per osservare e apprendere l’andamento del traffico di rete. Il software ha quindi imitato, nelle sue comunicazioni verso l’esterno, i flussi di traffico appresi, probabilmente per meglio confonderli e rendere più difficile l’individuazione.
Questo tipo di analisi automatizzata può aiutare nella fase di espansione, permettendo ad esempio di mascherare le azioni utilizzate per attaccare altre macchine con il traffico che legittimamente si genera sulla rete, oppure per identificare più facilmente i bersagli più interessanti dal punto di vista dell’attaccante, ed infine per meglio nascondere il traffico di esfiltrazione dei dati all’interno di pattern di traffico legittimo.
Infine, è necessario citare rapidamente un ulteriore tema, quello della falsificazione della voce o delle immagini di persone reali (i cosidetti “deepfake”) che potrebbero essere utilizzati per rendere ancora più efficienti gli attacchi di social engineering, ad esempio chiamando un help desk o un collega con la voce stessa del proprio bersaglio, per convincere la persona all’altro lato del telefono a rivelare informazioni o eseguire un reset password.
Conclusioni
Benché gli esempi effettivi di attacchi che utilizzano tecnologie IA siano per ora limitati principalmente ad attività di ricerca, più che attacchi veri e propri, è lecito attendersi una crescita del fenomeno. Questo comporterà necessariamente la progressiva necessità di evolvere i sistemi di sicurezza tradizionale e di adottare sistemi di difesa che, a loro volta, siano muniti di sistemi di intelligenza artificiale capaci di rispondere con la necessaria flessibilità e rapidità alle minacce di nuovo tipo.
Assisteremo quindi, nei prossimi anni, ad una rinnovata escalation fra attacco e difesa cyber, nel quale entrambe le parti utilizzeranno tecniche di intelligenza artificiale per, rispettivamente, superare le difese o identificare ed arrestare gli attacchi. Un settore di ricerca molto attivo in questo ambito è rappresentato dall’Adversarial Machine Learning, dove un sistema di IA è disegnato per produrre dei risultati che possano ingannare un secondo sistema di intelligenza artificiale.
Questa prospettiva impatterà probabilmente non solo sul disegno dell’infrastruttura tecnologica di difesa, che dovrà essere adeguata ai nuovi scenari di minaccia, ma anche sull’organizzazione della sicurezza e sulla formazione delle persone, che dovranno saper riconoscere modalità di attacco più sofisticate e “personalizzate”. Per contrastare efficacemente questo particolare tipo di minaccia, sarà necessario estendere lo scambio di informazioni di sicurezza per segnalare tempestivamente l’apparire di, ad esempio, sofisticate tecniche di phishing “potenziato” grazie ad informazioni raccolte su questo o quel social network, o attacchi che includono messaggi vocali “di sintesi”, per permettere alle organizzazioni di allertare tempestivamente i propri dipendenti o i propri clienti.
In questo ambito i CERT (Computer Emergency Response Team), opportunamente potenziati, potrebbero giocare un ruolo molto importante.
L’espansione di questi fenomeni è probabilmente destinata ad aggravare la già evidente carenza di risorse specializzate nella sicurezza che non potrà che acutizzarsi quando la richiesta di specializzazione aggiungerà anche le competenze in ambito IA. Con tutta evidenza, questo è un tema di cui non possono farsi carico, autonomamente, le singole organizzazioni, ma necessita di un intervento a livello nazionale o sovranazionale per reperire e indirizzare le risorse economiche necessarie a preparare, sin d’ora, i futuri esperti di sicurezza e IA che saranno senza dubbio necessari nei prossimi anni.