Arrivano nuovi allarmi sui rischi cyber connessi a ChatGPT (acronimo di Chat Generative Pre-trained Transformer).
Si tratta, per chi non lo sapesse, di un nuovo popolare chatbot AI utilizzabile al momento gratuitamente che ha guadagnato una popolarità significativa in un breve periodo di tempo, superando il milione di utenti sulla piattaforma.
Sviluppata dalla società non-profit di ricerca sull’intelligenza artificiale American OpenAI, ChatGPT sfrutta enormi volumi di dati da Internet per rispondere alle domande in linguaggio naturale, attribuendo l’apparenza di autorità nelle sue risposte (non necessariamente la correttezza).
Si è visto però che ChatGPT e la sua popolarità rappresentano anche un rischio come potenziale strumento per i criminali informatici.
ChatGPT, perché ora l’intelligenza artificiale ci stupisce e spaventa
Indice degli argomenti
Ermes: spear phishing e siti ingannevoli
Una recente ricerca condotta da Ermes ha messo in luce come attraverso query specifiche e costruite ad arte, ChatGPT sia uno strumento perfetto che, nelle mani di un malintenzionato, aiuta a realizzare quelle che, nel mondo cyber, vengono chiamati attacchi di spear phishing. Attacchi di phishing altamente mirati che vengono operati mediante lo sfruttamento di informazioni ricavate mediante canali open source.
La ricerca evidenzia con maggiore enfasi quella che, allo stato attuale sembra essere la minaccia più rilevante: la nascita di siti di phishing che sfruttano l’hype su ChatGPT. Sono già centinaia solo nelle ultime settimane.
In particolare, i ricercatori di sicurezza hanno rilevato campagne che cercano di rendere credibile la frode sfruttando domini simili a quello ufficiale del progetto ChatGPT, aspetto delle pagine web o app pressoché identico e spesso traggono in inganno le potenziali vittime facendo leva su nuove integrazioni e funzionalità ovviamente inesistenti nella versione originale.
La motivazione che spinge queste campagne di phishing è la proposta di un nuovo servizio ChatGPT, integrato con un certo prodotto allettante, per convincere il destinatario a inserire le proprie credenziale al fine di rubarle e raccogliere account che, in un secondo momento, possono essere sfruttati in altri attacchi mirati.
Phishing, un pericolo costante
Come abbiamo visto, il phishing continua a esistere e cavalcare l’onda della popolarità di un certo prodotto, stavolta ChatGPT. Inoltre, lo strumento in sé può anche esso diventare un’arma per generare minacce. Come creatore di contenuti testuali infatti le chatbot possono creare il testo per il corpo di un’e-mail di phishing, tuttavia intestazioni, mittenti, allegati e URL sono tra i molti altri indicatori.
Una ricerca di Proofpoint a questo proposito afferma che “ChatGPT non sta cambiando le regole per gli attacchi di spear phishing più mirati. Sebbene sia in grado di creare testi estesi nello stile di autori famosi”, continuano i ricercatori, “non dispone di informazioni specifiche su come scrivono i colleghi, il che significa che è improbabile che possa migliorare attacchi di phishing già altamente mirati”.
Sembra che, quindi, ChatGPT possa aiutare nella stesura del testo dei messaggi utilizzati come esca, magari multilingua, con una grammatica priva di errori e più simile ad una comunicazione autentica dal punto di vista tecnico, ma la natura degli attacchi resta quella del phishing che conosciamo.
Essenziale, quindi, come sempre accade davanti a questo genere di truffe, saper riconoscere mittenti e intestazioni dei messaggi, nonché diffidare di comunicazione particolarmente urgenti e inattese.
ChatGpt e il malware polimorfico
Per concludere, in relazione alle recenti ricerche nei confronti dell’AI in ambito di criminalità informatica, evidenziamo anche quella di Cyberark che analizza come ChatGPT possa essere facilmente utilizzato per creare malware polimorfici.
Le funzionalità avanzate di tale malware possono facilmente aggirare i prodotti di sicurezza e renderne estremamente difficile la gestione, senza che l’avversario faccia molti sforzi o investimenti.
Il concetto di creazione di malware polimorfico con ChatGPT può sembrare complicato, ma in realtà la sua implementazione è relativamente semplice.
Utilizzando la capacità di ChatGPT di generare varie tecniche di persistenza, moduli Anti-VM e altri payload dannosi, le possibilità di sviluppo di malware sono molto ampie. Senza entrare nei dettagli tecnici della comunicazione con il server C&C (comando e controllo), è importante sapere che ci sono diversi modi per farlo in modo discreto e senza destare sospetti.
Un buon motivo in più per tenere sempre gli occhi aperti e alto il livello di guardia.