Negli ultimi mesi, una nuova minaccia sta emergendo nel mondo del cybercrime e si tratta di un potenziamento degli strumenti con l’intelligenza artificiale (IA): due nuovi strumenti, noti come FraudGPT e WormGPT, stanno attirando l’attenzione dei criminali informatici che cercano di migliorare l’efficacia delle loro attività dannose.
Questi “gemelli malvagi” di ChatGPT, il chatbot sviluppato da OpenAI, promettono funzionalità avanzate, come la scrittura di codice dannoso e la creazione di e-mail di phishing altamente convincenti.
Indice degli argomenti
FraudGPT e WormGPT: i chatbot per usi malevoli
Le scoperte dei ricercatori della società di sicurezza cloud Netenrich e di SlashNext hanno rivelato che un singolo attore sembra essere responsabile dello sviluppo di entrambi gli strumenti di intelligenza artificiale dannosi.
Questi bot sono commercializzati attivamente tramite i forum criminali, offrendo accesso attraverso un canone di abbonamento mensile di 200 dollari o un prezzo annuale scontato di 1.700 dollari, e hanno già raccolto una base di circa 3.000 utenti paganti.
Il canale Telegram di WormGPT ha raccolto più di 5.000 utenti attivi in una sola settimana dopo il suo lancio, dimostrando la rapida adozione dello strumento da parte degli attori delle minacce per eseguire operazioni e assalti illegali poco dopo il primo rilascio del programma.
Uno degli aspetti inquietanti di questi strumenti è la loro capacità di operare senza dover ricorrere a eventuali “jailbreak” o soluzioni simili per aggirare le restrizioni invece imposte da OpenAI sull’uso del loro modello di linguaggio naturale a scopi dannosi.
Questo rende più semplice ed efficiente l’utilizzo di queste IA malevole per perpetrare attacchi su larga scala, mettendo a rischio numerosi utenti e organizzazioni.
La cyber minaccia di FraudGPT e WormGPT
I rischi sono ulteriormente amplificati dalla recente scoperta di SoSafe, un’azienda di sicurezza informatica, che dimostra come i chatbot di intelligenza artificiale siano già in grado di scrivere e-mail di phishing più convincenti rispetto agli umani.
La ricerca ha rivelato che queste e-mail così prodotte non vengono riconosciute immediatamente come minacce, portando il 78% dei destinatari ad aprirle. Ancora più preoccupante, il 21% di questi destinatari fa clic su contenuti potenzialmente dannosi, come collegamenti o allegati, mettendo a rischio la sicurezza dei propri sistemi e dati.
Secondo John Bambenek, principale ricercatore di sicurezza di Netenrich, l’uso di strumenti di intelligenza artificiale generativa da parte dei criminali consente loro di creare comunicazioni sintetiche rapidamente e su larga scala.
Questo volume permette loro di condurre test sofisticati sulle campagne di phishing, identificando le strategie più efficaci contro diverse tipologie di vittime e migliorando così la precisione dei loro attacchi.
Come mitigare i rischi
Al momento, gli esperti di sicurezza informatica rimangono incerti sulla modalità di creazione di questi modelli di linguaggio naturale malevoli.
Potrebbero essere duplicati dal modello linguistico GPT originale o costruiti da zero, ma in entrambi i casi, richiederebbero un set di formazione sufficientemente ampio per sviluppare un modello funzionante.
Tuttavia, considerando che la costruzione di un modello generativo pre-addestrato richiede meno di poche centinaia di righe di codice, questa minaccia rappresenta un serio motivo di preoccupazione per la comunità della sicurezza informatica.
Mentre gli sforzi per combattere queste minacce informatiche potenziate dall’IA continuano, la necessità di adottare misure di sicurezza robuste diventa sempre più urgente.
È necessario un impegno da parte delle organizzazioni e gli individui sulla consapevolezza riguardo ai rischi dell’ingegneria sociale e del phishing, tenendo sempre presente che gli attaccanti stanno sfruttando nuove tecnologie per intensificare le loro attività criminali online.