Negli ultimi anni, sia i cyber criminali sia chi si occupa di contrastarli esplorano in modo sempre maggiore l’utilizzo dell’intelligenza artificiale e dei modelli linguistici di grandi dimensioni (Large Language Models, LLMs) per aumentare la produttività e sfruttare le piattaforme accessibili a vantaggio dei rispettivi obiettivi e tecniche di attacco e difesa.
La maggior parte degli LLMs disponibili in rete, come ChatGPT, implementa filtri per impedire l’inserimento di prompt dannosi da parte degli utenti. Tuttavia, una fonte di preoccupazione è costituita dalle “prompt injections“, attraverso le quali è possibile eludere tali filtri, spingendo il sistema a generare discorsi offensivi o propagandistici, divulgare informazioni riservate o comporre codici dannosi.
Vi è, inoltre, la possibilità di scaricare LLM gratuiti sui propri dispositivi e addestrarli su codice malevolo, dando luogo a modelli più sofisticati e pericolosi che possono essere implementati autonomamente.
Intelligenza artificiale, è sfida aperta tra chi attacca e chi si difende
Indice degli argomenti
Lo studio Microsoft e OpenAi sull’uso criminale dell’AI
Un recente report congiunto di Microsoft ed OpenAI mette in luce un altro aspetto nel panorama che interseca IA e hackers, e deriva dal lavoro eseguito dal Microsoft Threat Intelligence, sezione dell’azienda appositamente sviluppata, che monitora oltre 300 minacce informatiche, compresi 160 attori statali, 50 gruppi di ransomware e molti altri.
La conclusione a cui giunge questa attività sottolinea che, nell’ambito della ricerca con OpenAI, non sono stati individuati attacchi significativi che coinvolgano gli LLMs monitorati attentamente.
Questo elemento a prima vista sorprendente ha in realtà una ratio lineare; infatti, pur constatando che le motivazioni e la complessità dei diversi attori possano variare, è stato rilevato che queste convergono nell’esecuzione di attività quali:
- l’analisi condotta per acquisire informazioni sui bersagli come la posizione geografica o le relazioni personali;
- l’assistenza nella codifica, coinvolgendo miglioramenti agli script software e lo sviluppo di malware;
- il supporto nell’apprendimento linguistico.
La capacità linguistica di questi modelli è attraente per gli hacker che fanno uso dell’ingegneria sociale e di altre tecniche basate sulla comunicazione con il target, attraverso le quali possono fare leva sulle mansioni, sulle reti professionali e sulle relazioni interpersonali dei loro obiettivi.
I gruppi hacker che fanno uso dell’AI
Tra i gruppi hacker monitorati in questo report, ne spiccano alcuni la cui affiliazione è da collegarsi ad una serie di paesi che fanno un uso spregiudicato delle tecniche di attacco cyber.
Tra di essi ritroviamo:
- Forest Blizzard: si tratta di un collettivo apparentemente legato ai servizi segreti militari russi, è noto per aver mirato a vittime di interesse tattico e strategico in settori come difesa, trasporti, governo, energia e tecnologia dell’informazione. Microsoft ritiene che le sue operazioni siano di supporto agli obiettivi militari e di politica estera russi, con un particolare focus sulla guerra in Ucraina. L’utilizzo di LLMs da parte di Forest Blizzard include la ricerca su tecnologie satellitari e radar, con sovrapposizioni riscontrate con altri attori come APT28 e Fancy Bear.
- Emerald Sleet: gruppo nordcoreano, ha mantenuto un’elevata attività nel corso del 2023, concentrando le proprie operazioni su sofisticate campagne di spear-phishing. Attraverso l’impiego di LLMs, l’attore ha simulato identità di istituzioni accademiche e ONG autorevoli al fine di raccogliere informazioni da esperti con competenze sulla Corea del Nord. L’uso strategico dei LLMs ha compreso la ricerca su think tank ed esperti, la generazione di contenuti per campagne di spear-phishing e l’interazione per comprendere vulnerabilità e risolvere questioni tecniche.
- Crimson Sandstorm: è un collettivo iraniano collegato al Corpo delle Guardie Rivoluzionarie Islamiche (IRGC). Risulta attivo dal 2017 e ha preso di mira vari settori, inclusi difesa, spedizioni marittime, trasporti, sanità e tecnologia. Le sue operazioni si basano spesso su attacchi watering hole e ingegneria sociale per diffondere malware .NET personalizzato. L’uso di LLM) riflette comportamenti ampiamente osservati dalla comunità di sicurezza, con interazioni che includono richieste di supporto su ingegneria sociale, risoluzione di errori e sviluppo .NET, nonché modi per evitare la rilevazione su sistemi compromessi.
- Charcoal Typhoon: è un gruppo che si suppone affiliato allo stato cinese, noto per la sua vasta portata operativa che coinvolge settori quali governo, istruzione superiore, infrastrutture di comunicazione, petrolio e gas, e tecnologia dell’informazione. Le sue attività sono prevalentemente rivolte a entità situate a Taiwan, Thailandia, Mongolia, Malaysia, Francia e Nepal, ma mostrano interessi più ampi nei confronti di istituzioni e individui a livello globale che si oppongono alle politiche cinesi. Nelle operazioni recenti, è stato osservato l’interesse del gruppo nell’interagire con LLMs, utilizzandoli per sviluppare strumenti, scripting, comprendere strumenti di sicurezza informatica e generare contenuti per l’ingegneria sociale.
Contromisure per impedire l’uso criminale dell’AI
Dati i risultati dell’indagine di Microsoft, sembrerebbe comunque che l’IA non sia ancora arrivata ad un’integrazione completa con le attività di attacco dei gruppi hacker.
Per il momento, la startup OpenAI, per salvaguardare il proprio prodotto dall’utilizzo di questi cyber criminali, ha messo in atto delle contromisure, annunciando la sospensione dell’accesso ai profili assimilabili a tali attori malintenzionati una volta rilevatone l’uso improprio.
Un ulteriore passo compiuto da OpenAI corrisponde all’imposizione di restrizioni sulla registrazione degli account, limitandola a specifiche località. Questa soluzione ha evidenziato che soggetti organizzati come i gruppi osservati, possono facilmente eludere la rilevazione adottando diverse tecniche, come il mascheramento della propria posizione.
L’uso “convenzionale” delle chatbot basate sull’IA presenti sul mercato, non diminuisce la minaccia potenziale dell’uso malevolo di questi strumenti.
Infatti, diversi utenti starebbero utilizzando I’AI per sviluppare software dannosi, elaborare e-mail di phishing credibili e diffondere disinformazione online, come indicato dal massimo funzionario per la cyber security del Canada a Reuters. Modelli come il ChatGPT di OpenAI hanno reso possibile imitare un’organizzazione o un individuo in modo estremamente realistico, anche da parte di utenti con una comprensione basilare della lingua inglese.
IA e disinformazione: il World Economic Forum traccia le minacce alla stabilità globale
I provvedimenti di Meta contro la disinformazione online
Un nuovo sviluppo nell’ambito dell’IA generativa è emerso, inoltre, recentemente grazie all’intervento di Meta, importante gigante tecnologico statunitense. L’azienda ha preso provvedimenti contro diverse imprese italiane specializzate in spyware, tra cui Cy4Gate e RCS Lab, che hanno subito la cancellazione di centinaia di profili falsi su Facebook e Instagram.
L’azione di Meta è stata scatenata dalla scoperta che tali profili venivano impiegati per sorvegliare giornalisti e attivisti politici.
Circa 900 identità false sono state create utilizzando l’intelligenza artificiale per generare immagini del profilo, fingendosi manifestanti, giornalisti e donne giovani.
Meta ha dichiarato che queste false identità erano coinvolte in attacchi di ingegneria sociale, cercando di persuadere i bersagli a cliccare su link che avrebbero rivelato i loro indirizzi IP, indirizzi mail ed altre informazioni personali.
Conclusioni
Se, dunque, il problema dell’utilizzo malevolo dell’IA sembra ancora “relegato” all’uso classico di tale strumento, non bisogna sottovalutare gli effetti importanti che possono venire a crearsi con l’uso mirato delle capacità dell’IA sia per azioni di supporto, potenziando la produttività degli hacker, che per quanto riguarda settori quali la sorveglianza, l’acquisizione di informazioni, la disinformazione e la propaganda.