Abbiamo più volte riportato l’attenzione su ChatGPT come creatore di contenuti, anche malevoli, con esempi di sfruttamento in ambito criminale.
Tuttavia, gli esperti di sicurezza informatica si pongono ulteriori quesiti: è possibile che l’applicazione di OpenAI aiuti a riconoscere i collegamenti malevoli di phishing?
Indice degli argomenti
L’indagine di Kaspersky sul phishing
Arriva direttamente da Securelist, il centro di ricerca di Kaspersky, un primo risultato di questa nuova indagine e le conclusioni non sono certamente delle migliori. Nell’analisi si commenta infatti proprio il metodo utilizzato dall’intelligenza artificiale presa in esame, nell’affrontare il tema del phishing, partendo da un indirizzo Web.
I ricercatori hanno sottoposto a ChatGPT un campione di URL malevole, in una prima fase con l’intento di richiederne il riconoscimento al bot. Cercando proprio da parte sua, una conferma sulla liceità o meno dell’indirizzo preso in esame, apertamente malevolo.
Il team di ricerca ha passato al vaglio alcune migliaia di collegamenti URL che altre piattaforme già in uso presso Kaspersky, avevano precedentemente validato come phishing. Tecnicamente l’esperimento è stato fatto utilizzando le API di OpenAI per il modello di intelligenza artificiale chiamato “gpt-3.5-turbo”, che sarebbe il motore che sta dietro al ChatGPT comunemente utilizzato dagli utenti.
L’utilizzo delle API ha permesso di scansionare una grande quantità di indirizzi e avere delle risposte, una per ciascuno, in tempi brevi. Il motore in questione, infatti, è semplice e rapido.
Quello che preoccupa di più, una volta ottenuti i risultati di oltre 6000 interazioni, sono le metriche che Kaspersky ha misurato. Infatti, benché ci sia stato l’87,2% di rilevamenti, più del 23% costituisce falsi positivi che ChatGPT ha rilevato.
Quest’ultimo, riferiscono gli analisti, è il dato più allarmante, infatti, la percentuale di errore risulta essere ancora troppo elevata per un utilizzo in ambito sicurezza.
L’esperimento ha evidenziato però che lo strumento è utilizzabile per aiutare singoli utenti a riconoscere una frode, anche se non in ambito professionale (per via dell’errore dimostrato), ma per un’utenza consumer che ha un dubbio specifico su un caso nel quale fa difficoltà a riconoscere manualmente. Sicuramente ancora, non può sostituire le attuali piattaforme di rilevamento utilizzate da società specializzate in sicurezza.
La seconda parte dell’esperimento ha invece riguardato un’ulteriore domanda posta al chatbot in questo ambito, focalizzata sulla classificazione dei link. In questo caso non gli viene richiesto se il collegamento porta ad una pagina di phishing, ma se si tratta di un link sicuro.
In questo caso l’intelligenza artificiale riporta dei risultati ancora più scoraggianti del primo punto analizzato. In effetti i ricercatori hanno ottenuto, in questo caso il 93,8% come tasso di rilevamento della minaccia, ma con il 64,3% di falsi positivi.
Un risultato decisamente lontano da ogni aspettativa che possa garantire uno strumento solido di sicurezza.
ChatGPT per la sicurezza informatica
L’analisi che tuttavia ChatGPT conduce sulla sintassi dell’URL interrogata è molto interessante e si qualifica come uno strumento ottimo per l’identificazione di abusi sui nomi dei brand.
Tutti i principali marchi di social o big tech largamente utilizzati sono stati tutti identificati senza errore. Ovviamente, come abbiamo visto, nel prendere una decisione conclusiva spesso il sistema di machine learning si perde e arriva alla conclusione sbagliata, per allucinazioni o tentativi di produzione di risultati casuali.
Ma anche questa strada per lo sviluppo di ChatGPT e delle altre intelligenze artificiali sembra essere tracciata.
“L’uso di ChatGPT nell’aiutare gli analisti esperti a rilevare gli attacchi di phishing è sicuramente molto interessante, ma i modelli linguistici hanno ancora i loro limiti. Sebbene possano essere alla pari di un’analista di phishing di livello intermedio, quando si tratta di ragionare su questi attacchi e di estrarre i potenziali obiettivi, tendono ad avere allucinazioni e produrre risultati casuali. Quindi, anche se non rivoluzioneranno ancora il panorama della cybersecurity, potrebbero comunque essere strumenti utili per la comunità”, ha commentato Vladislav Tushkanov, Lead Data Scientist di Kaspersky.