Fine anno è il tempo delle previsioni per individuare le tendenze che potrebbero caratterizzare il 2024. Una su tutte: l’intelligenza artificiale generativa (IAG) che si fa largo in ambito cyber security, sia sul fronte offensivo che su quello difensivo.
“L’intelligenza artificiale non rappresenta solo uno strumento di difesa per la sicurezza informatica”, commenta Federica Maria Rita Livelli, Business Continuity & Risk Management Consultant, BCI Cyber Resilience Committee e membro del Comitato scientifico Clusit, “ma può anche essere utilizzata come arma dai criminali informatici. È un rischio emergente che richiede monitoraggio costante e che indubbiamente caratterizzerà il 2024 e gli anni a venire. Pertanto, dobbiamo prepararci un trend in crescita di Ai cyber attack nel panorama delle minacce informatiche, con l’avvento di sofisticate tattiche di ingegneria sociale e strumenti di intelligenza artificiale generativa basati sul furto di identità che comporterà da parte di tutti noi una maggiore attenzione e preparazione per affrontare questo trend in crescita dei cyber attacchi basati sull’intelligenza artificiale”.
Intelligenza artificiale, è sfida aperta tra chi attacca e chi si difende
“L’AI sta diventando uno strumento concretamente utilizzato nell’ambito delle attività di cybercrime”, conferma Claudio Telmon, Senior Partner – Information & Cyber Security presso P4I – Partners4Innovation, “per esempio con l’utilizzo di deep fake per aumentare la credibilità delle comunicazioni fraudolente nell’ambito di attacchi anche sofisticati“.
Se si intensificano le minacce connesse all’AI da mitigare, al tempo stesso aumentano le opportunità da cogliere per rafforzare la difesa. “Nei prossimi mesi “, avverte Pierluigi Paganini, analista di cyber security e CEO Cybhorus, “continueremo ad osservate una rapida evoluzione dell’intelligenza artificiale che inevitabilmente condizionerà il panorama delle minacce”.
Ecco come mitigare i rischi, sapendo che “l’AI è una sfida, ma anche un’opportunità”, avverte Fabrizio Saviano, CISO in ambito bancario: “Se usata bene, può migliorare la protezione dei sistemi e la qualità della vita delle persone. Se usata male, può compromettere la privacy, la sicurezza e il funzionamento dei servizi essenziali alla sopravvivenza del genere umano. Per questo motivo, ognuno di noi deve mettere nel proprio calendario del 2024 l’uso responsabile dell’AI e deve cominciare a salvare la propria fetta di mondo”.
Indice degli argomenti
Intelligenza artificiale generativa: le sfide del 2024 nella cyber security
ChatGPT di OpenAI compie un anno ed è tempo di bilanci per capire l’impatto dell’intelligenza artificiale generativa nella sicurezza informatica, a partire dai rischi da mitigare. “L’AI non è materia nuova”, spiega Fabrizio Saviano, “ma negli ultimi anni è diventata sempre più sofisticata, economica e pervasiva in tutti i campi, dalla medicina all’industria, dall’istruzione all’intrattenimento. Nel campo della sicurezza l’AI permette di risparmiare tempo e denaro, ma “ancora è difficile stabilire ‘chi ne goda, se ‘il difensore o il criminale'”.
Qualche dato. Dal report di Deep Instict, dal titolo “Voice of SecOps Report” emerge che il 75% dei professionisti della security ha registrato un incremento degli attacchi nell’ultimo anno. Di questi l’85% va attribuito ad attori malevoli che sfruttano l’intelligenza artificiale generativa. La maggior preoccupazione riguarda la privacy (39%), la difficoltà a rilevare gli attacchi di phishing (37%), e un aumento del volume e della rapidità degli attacchi (33%).
“L’AI può automatizzare l’identificazione e la risposta alle minacce, individuando la causa principale dell’attacco o dell’infezione”, continua Saviano: “Allo stesso modo, può essere usata dagli hacker per cercare automaticamente e velocemente le vulnerabilità comuni come, per esempio, software progettati in modo non sicuro, errori di configurazione, scarsa igiene nella gestione degli utenti o delle password”.
Poiché l’intelligenza artificiale generativa permette la generazione di nuovi contenuti, come testo, immagini, musica e video, spalanca scenari in cui cyber criminali possono sfruttarla per sferrare cyber attacchi sempre più complessi e sofisticati.
“È una realtà con la quale dobbiamo fare i conti”, conferma Claudio Telmon, “adottando con ancora maggior rigore le pratiche di verifica che sono comunque la migliore protezione contro attacchi come la CEO fraud. Vuole dire che in caso di richieste di operazioni anomale, che siano per telefono o via mail, è importante verificare direttamente con il richiedente, su canali affidabili, se la richiesta sia stata effettivamente fatta. Questo tipo di controlli è molto più importante che cercare di capire ‘a orecchio’ se la chiamata sia autentica o meno”.
Attori malevoli potranno lanciare campagne di phishing, disinformazione e molteplici tipologie di attacchi cyber e di social engineering per carpire informazioni sensibili, credenziali comprese, sfruttando l’intelligenza artificiale generativa e i large language model (LLM). “Oltre a campagne di phishing e spear-phishing sempre più insidiose”, conferma Paganini, “preoccupa l’impiego dell’intelligenza artificiale in campagne di disinformazione da parte di attori nation-state”.
“Gli attacchi basati su AI sono in grado di adattarsi in tempo reale al contesto e persino alle contromisure adottate dalle vittime. Ma non serve un hacker per generare contenuti falsi o ingannevoli: chiunque può generare email personalizzate, deepfake e deepvoice praticamente perfetti usando semplicemente un chatbot o un cocktail di portali gratuiti e pronti all’uso. Ecco perché le Big Tech, normalmente in competizione tra loro, si sono unite nella lotta all’identificazione dei contenuti falsi”, avverte Saviano.
AI Act approvato, quali impatti sui diritti: tutti i punti chiave
I molteplici attacchi cyber via AI
Tra i vari scenari c’è quello in cui le applicazioni di intelligenza artificiale generativa, in seguito ad addestramento adeguato, permetteranno la realizzazione di contenuti testuali, vocali e video che all’apparenza sembrano legittimi, dunque risultano sfruttabili in schemi fraudolenti o in campagne di disinformazione.
“Attori malevoli di varia natura utilizzeranno l’intelligenza artificiale, nelle sue numerose accezioni, per condurre attacchi sempre più sofisticati”, spiega Paganini: “Google stessa, nel suo rapporto Google Cloud Cybersecurity Forecast 2024 asserisce che la crescita dell’intelligenza artificiale diventerà inevitabilmente fonte di nuove minacce”.
Ad avvantaggiarsi dell’AI generativa non saranno soltanto i contenuti, ma anche la capacità dei cyber criminali di sferrare campagne su larga scala. “L’intelligenza artificiale generativa, i modelli LLM e le reti GAN (Generative Adversarial Networks) diventeranno parte integrante delle catene di attacco che osserveremo nei prossimi anni”, mette in guardia Paganini.
“Le opportunità offerte dall’AI sono sotto gli occhi di tutti nei prodotti offerti dalle aziende e alle fiere di settore. Al contrario, le sfide serpeggiano nel silenzio del dark web”, stigmatizza Fabrizio Saviano: “Sperare che se ne occupi la Politica, la Polizia o il Team di Sicurezza non rallenterà gli automatismi che ci prendono di mira proprio in questo momento”.
I principali rischi legati all’uso dell’intelligenza artificiale in ambito cyber security
“Nel 2024, sicuramente, terrà ancora banco il tema dell’intelligenza artificiale”, conferma Pierguido Iezzi, Ceo di Swascan: “In particolare, la sua applicazione concreta nel campo della cyber security rappresenterà molto probabilmente un punto di svolta sia a livello privato sia a livello statale”.
Operazioni di phishing, smishing (via Sms) ed altre forme di ingegneria sociale rendono contenuti e materiali legittimi. Infatti saranno meno diffusi errori ortografici, errori grammaticali e la mancanza di contesto culturale in email e messaggi di phishing.
“I LLM saranno in grado di tradurre e migliorare le traduzioni, rendendo ancora più difficile per gli utenti individuare il phishing basato solo sulla formulazione del testo. Ad esempio consentiranno a un aggressore di inserire contenuti legittimi e generare una versione modificata che appare, scorre e si legge come l’originale, ma si adatta agli obiettivi dell’attaccante”, spiega Google Forecast, il rapporto del motore di ricerca di cui Alphabet è capofila.
I LLM potranno effettuare traduzioni e migliorarle, rendendo ancora più difficile riconoscere i casi di sospetto phishing sulla base esclusiva della formulazione del testo.
Consentiranno a un attaccante l’inserimento di contenuti legittimi per generare una versione modificata che sembra identica all’originale, ma solo in apparenza, perché in realtà aderisce agli obiettivi dell’aggressore.
Gli attaccanti sono in grado di addestrare i sistemi per trovare informazioni sui principali componenti di intere organizzazioni. In questo modo preparano contenuti da utilizzare in attacchi mirati di ingegneria sociale contro ciascun singolo membro.
Inoltre sistemi legittimi, fondati su LLM, possono agevolare gli attaccanti nell’implementazione dei loro attacchi in modo più efficace e con sforzi inferiori. I sistemi basati su intelligenza artificiale generativa, infatti, sono in grado di rendere le operazioni scalabili.
Ma ciò desta forte preoccupazione, perché questo fattore mette gli attaccanti in condizione di creare e quindi diffondere notizie fasulle. A partire da telefonate false e dall’abilitare interazioni con le potenziali vittime raggirati da testi, voci, video creati ad arte con l’AI generativa.
AI e cyber security, ecco che cosa possono fare l’una per l’altra
Le dinamiche geopolitiche e geoeconomiche globali
“L’IA in ambito cyber non si limiterà a salvaguardare gli interessi commerciali, ma si estenderà a influenzare le dinamiche geopolitiche e geoeconomiche globali”, mette in guardia Iezzi.
Preoccupa infatti la veloce diffusione di piattaforme in grado di erogare servizi che adoperano l’intelligenza artificiale generativa. “Nell’ecosistema criminale si moltiplicheranno servizi e prodotti basati su questa tecnologia che porteranno il livello di complessità degli attacchi e la loro scalabilità a livelli impensabili fino a qualche anno fa”, aggiunge Paganini.
“In questo scenario”, continua Iezzi, “prevediamo un incremento nell’uso strategico dell’IA per condurre operazioni di guerra informatica sofisticate, dove gli attacchi cyber serviranno a destabilizzare economie, influenzare le politiche estere e manipolare l’opinione pubblica. A livello tattico, l’IA potrà essere impiegata per sviluppare attacchi mirati su larga scala, colpendo infrastrutture critiche e sistemi di comunicazione e trasformando il tradizionale campo di battaglia in uno sempre più digitale“.
Secondo la divisione Security di Google, “è previsto il proseguimento delle attività di spionaggio, cybercrime e disinformazione da parte delle “big four” (Cina, Russia, Corea del Nord e Iran)”, avverte Enrico Morisi, ICT Security Manager. Che aggiunge: “Un incremento nello sfruttamento delle vulnerabilità zero-day, l’ascesa delle attività riconducibili al cosiddetto hacktivism, quali DDoS, data leak e defacement, l’introduzione dei wiper negli arsenali degli attori state-sponsored, un particolare interesse ai sistemi elettorali, alle infrastrutture ‘space-based’ e agli ambienti multicloud, il ricorso a tecnologie cloud serverless che garantiscono maggiore scalabilità e flessibilità, un consolidamento e una possibile crescita delle attività di estorsione (e.g. ransomware) e di spionaggio, il riemergere di tecniche ormai desuete al fine di evadere la detection dei sistemi di difesa, e così via”.
“A livello tattico”, spiega Iezzi, “l’IA potrà essere impiegata per sviluppare attacchi mirati su larga scala, colpendo infrastrutture critiche e sistemi di comunicazione e trasformando il tradizionale campo di battaglia in uno sempre più digitale“.
La modalità as-a-service
LLMs e altri strumenti di Gen AI adotteranno un modello as-a-service per aiutare, sempre più, gli attaccanti a svolgere attacchi mirati. “Questi servizi”, secondo Paganini, “saranno infatti disponibili con modello as-a-service e quindi fruibili anche da attaccanti privi di specifiche capacità”.
Nell’underground criminale, servizi in modalità as-a-service sono già WormGPT e FraudGPT. Per esempio WormGPT sui forum criminali spopola, pubblicizzato come strumento ideale per condurre raffinate campagne di phishing e attacchi BEC (Business Email Compromise). Questi ultimi attacchi BEC sfoggiano una grammatica corretta, tanto da ridurre la soglia d’attenzione nel rilevare le campagne. WormGPT può automatizzare la realizzazione di email malevole in grado di convincere il destinatario a cadere in trappola.
I consigli per mitigare i rischi relativi all’AI
Per mitigare i rischi legati all’intelligenza artificiale, “sia gli individui che le organizzazioni dovrebbero adottare un approccio olistico e proattivo”, suggerisce Federica Maria Rita Livelli, che è anche BeDisruptive Training Center Director: “Ecco alcuni utili raccomandazioni:
- effettuare controlli regolari sui sistemi di intelligenza artificiale utilizzati: monitorare periodicamente i sistemi per individuare e correggere eventuali vulnerabilità, coinvolgendo esperti di sicurezza informatica e intelligenza artificiale per test di penetrazione, valutazioni delle vulnerabilità e revisioni del sistema;
- limitare le informazioni personali condivise tramite l’automazione: prestare attenzione alle informazioni riservate condivise con l’intelligenza artificiale e comprendere i rischi per la privacy: evitare di inserire dati aziendali sensibili in strumenti di intelligenza artificiale come CHATGPT senza valutare i rischi in termini di sicurezza e violazione delle normative sulla privacy;
- garantire la sicurezza dei dati: proteggere i dati di addestramento dell’intelligenza artificiale da modifiche o avvelenamento, investendo in crittografia, controllo degli accessi e tecnologie di backup avanzate (proteggere le reti con firewall, sistemi di rilevamento delle intrusioni e password robuste);
- ottimizzare il software: mantenere il software e i framework di intelligenza artificiale aggiornati, insieme a sistemi operativi e applicazioni, per ridurre il rischio di sfruttamento e attacchi malware (utilizzare tecnologie antivirus avanzate per bloccare minacce dannose e implementare misure di sicurezza della rete e delle applicazioni per rafforzare le difese);
- adottare la formazione contraddittoria: utilizzare la formazione contraddittoria come misura di sicurezza specifica per rendere l’intelligenza artificiale più resiliente agli attacchi, esponendola a diversi scenari, dati e tecniche;
- formare il personale: fornire formazione al personale sulle pratiche di gestione del rischio legato all’intelligenza artificiale, come la verifica delle e-mail per individuare potenziali attacchi di phishing e l’evitare di aprire software non richiesto che potrebbe essere malware creato dall’intelligenza artificiale;
- gestire le vulnerabilità: investire nella gestione delle vulnerabilità dell’intelligenza artificiale per identificare, analizzare e valutare le vulnerabilità, riducendo la superficie di attacco legata alle caratteristiche uniche dei sistemi di intelligenza artificiale;
- avere un piano di risposta agli incidenti dell’intelligenza artificiale: prepararsi a un potenziale attacco alla sicurezza informatica legato all’intelligenza artificiale, sviluppando un piano di risposta agli incidenti che copra il contenimento, l’indagine e la riparazione per affrontare l’evento”.
L’AI nel mirino degli attacchi cyber
Ma l’intelligenza artificiale non è solo in grado di generare cyber attacchi di varia natura, ma è anche, a sua volta, nel mirino degli attacchi cyber. Attori malevoli provano a trarre in inganno i sistemi come ChatGPT allo scopo di far loro rivelare informazioni sensibili impiegate in fase di addestramento.
Questa tecnica si chiama attacco di inferenza: sottopone il modello di IA a una serie di interrogazioni specifiche per ottenere in risposta informazioni sensibili. Infatti scoprire il training-set, in particolari applicazioni, significa per l’azienda, che ha compiuto l’addestramento, esporre il patrimonio informativo della propria organizzazione.
Dalle domande fatte è infatti possibile risalire al dataset di origine di un’azienda. Ma un altro attacco consiste nel manipolare i dati di addestramento o modificare i criteri del modello per produrre un’interferenza nel comportamento di un sistema basato su AI. Cambiando i parametri dell’intelligenza artificiale generativa, se ne possono influenzare le scelte.
“Secondo l’ENISA Foresight 2030 Report“, illustra Morisi, “la top 10 delle minacce emergenti è rappresentata dalla compromissione della supply chain del software, dalle campagne di disinformazione, dall’ascesa dell’autoritarismo della sorveglianza digitale e di una conseguente perdita di privacy, dai rischi connessi con l’Operational Technology unitamente alla presenza di sistemi legacy e al cosiddetto ‘skill shortage’, da attacchi mirati e sofisticati grazie all’applicazione delle tecnologie di Intelligenza Artificiale all’ingente mole di dati disponibili attraverso l’uso degli ‘smart device’, e così via fino alla manipolazione degli algoritmi di IA e dei dati usati per l’addestramento, con l’obiettivo, per esempio, di creare disinformazione o esfiltrare dati sensibili”.
“Certamente i decision maker devono sviluppare standard tecnici e normativi per garantire l’uso etico e responsabile dell’AI, incluse le relative sanzioni”, continua Saviano: “Ma non è solamente una questione politica o tecnologica, perché nessuno può smarcarsi dalla propria responsabilità: istituzioni pubbliche, imprese private, organizzazioni della società civile, ricercatori e cittadini”.
Quando l’intelligenza artificiale diventa un prezioso alleato della cyber security
Secondo la ricerca di VirusTotal, presentata all’apertura del Google Safety Engineering Center, l’intelligenza artificiale può agevolare l’analisi e la mitigazione delle minacce informatiche.
“Sicuramente l’AI migliorerà e agevolerà le strategie di difesa e attacco nel mondo aziendale”, continua Iezzi, “ottimizzando la protezione dei dati e delle infrastrutture digitali. Ma è pur sempre cruciale osservare anche il suo possibile impiego – in particolare a livello governativo – all’interno della ‘quinta dimensione’ della guerra informatica; in particolare come questa stia diventando sempre più rilevante in un contesto più ampio”.
Secondo VirusTotal, l’AI può contribuire a rilevare e prevenire le vulnerabilità ed exploit comuni, anche con una precisione maggiore del 300% rispetto ai metodi tradizionali, in alcuni casi.
“Strategicamente”, mette in evidenza Iezzi, “l’IA diventerà fondamentale per analizzare e prevedere le mosse degli avversari a livello internazionale, offrendo la capacità di anticipare e neutralizzare minacce prima che diventino reali. Questo implica che l’IA non solo proteggerà le risorse digitali, ma diventerà uno strumento cruciale per comprendere e influenzare le dinamiche globali”.
Per proteggersi in questo contesto globale e complesso, “nazioni e organizzazioni dovranno sviluppare strategie cyber che integrino a pieno l’IA”, evidenzia Iezzi: “Questo non solo per difendersi da attacchi sofisticati, ma anche per comprendere e rispondere alle interazioni tra sicurezza digitale e politiche geopolitiche e geoeconomiche. Sarà necessario un approccio multidisciplinare che unisca competenze tecniche, politiche e strategiche, accompagnato da un forte investimento nella ricerca e sviluppo di nuove tecnologie IA“.
Tuttavia nessuno si salva da solo. Infatti “l’aumento della cooperazione internazionale nella condivisione di intelligence e migliori pratiche”, conclude Iezzi, “diventerà cruciale per combattere le minacce cyber in un contesto globale, riconoscendo che la sicurezza cyber è un elemento fondamentale per la stabilità e la sicurezza mondiale”.
L’uso incorporato negli strumenti: potenzialità e rischi
“Per quanto riguarda la difesa”, sottolinea Claudio Telmon, “l’utilizzo di strumenti di machine learning è in uso da tempo sia negli strumenti di rilevazione, che negli strumenti di analisi ad uso dei SOC. Si tratta di un utilizzo incorporato negli strumenti stessi, del quale l’utente ha poca visibilità. È un utilizzo che andrà ampliandosi, ma probabilmente più a supporto delle attività dei SOC che altro”.
Tuttavia “il rischio, diciamo così, di questi strumenti è quello che si è già visto in passato in strumenti con logiche simili, ovvero quello di un numero elevato di falsi positivi, vedi ad esempio le ‘euristiche’ degli antimalware“, avverte Telmon: “Falsi positivi che si traducono in alert indesiderati o addirittura blocco di strumenti o messaggi legittimi. Mentre questo non rappresenta un problema nelle attività di analisi di un SOC, lo sarebbe di più in strumenti che operino direttamente sul sistema informativo”.
“Un altro ambito di utilizzo”, conclude Telmon, “è quello dei meccanismi di autenticazione adattivi, che rilevino situazioni anomale per richiedere un’autenticazione più forte. Nel complesso l’utilizzo di AI potrebbe aumentare in modo significativo la capacità di rilevazione e risposta delle organizzazioni, ma probabilmente sarà all’interno degli strumenti e gli utenti ne avranno poca visibilità diretta, ne vedranno principalmente gli effetti”.
Conclusioni
Il modello di difesa, alla luce dell’evoluzione dell’intelligenza artificiale, dovrà necessariamente subire un’evoluzione. Infatti “sistemi basati su IA sono già oggi realtà e continueranno ad evolvere”, spiega Paganini: “Gruppi di ricerca sono all’opera per definire nuovi strumenti in grado di individuare e mitigare minacce apportate da sistemi basati su intelligenza artificiale”.
Minacce che, come sottolinea il Google Cloud Cybersecurity Forecast 2024, provocano “un incremento su vasta scala del social engineering, basato su testo, voce e video, sempre più difficile da intercettare e mitigare grazie all’IA generativa e ai Large Language Model, offerti anche ‘as a service, e alla proliferazione di tattiche orientate all’inganno e alla manipolazione facendo ricorso, ad esempio, a diverse forme di disinformazione, come le fake news”, mette in guardia Enrico Morisi.
Ma, per fortuna, “l’Intelligenza Artificiale è ovviamente a disposizione anche della ‘linea’ di difesa”, aggiunge Morisi, “per esempio per il rafforzamento delle attività di ‘detection & response’ o a supporto delle attività di threat intelligence e reverse engineering”.
“Le tecnologie evolvono molto rapidamente”, continua Morisi, “supportando l’Information Security da un lato ma estendendo la ‘superficie d’attacco’ dall’altro, le minacce sono sempre più sofisticate e gli attaccanti cambiano continuamente le loro TTP (Tactics, Techniques and Procedures) costringendo i professionisti della sicurezza delle informazioni ad adattarsi altrettanto velocemente ai nuovi scenari, adeguando opportunamente i framework di cybersecurity”.
“A giocare il ruolo più critico, come sempre, sarà l’essere umano che, da un lato, può apparire come l’anello debole della catena di difesa mentre dall’altro racchiude in sé il potenziale per fare la differenza“, conclude Morisi: “se adeguatamente formato e consapevole, l’essere umano rappresenta senza alcun dubbio il ‘baluardo’ più efficace, qualsivoglia soluzione tecnologica può fare ben poco se non ‘corroborata’ dal tanto sottovalutato ‘fattore umano'”.
Tuttavia, “preoccupa la deriva dell’utilizzo di IA che inevitabilmente porterà i conflitti cyber futuri ad un livello in cui la componente umana potrebbe assumere un ruolo marginale”, conclude Paganini: “Nei prossimi anni potremo diventare spettatori inermi di confronti tra sistemi AI-based attaccanti e difensori, e le conseguenze potrebbero essere imprevedibili“.