I recenti sviluppi dell’intelligenza artificiale e, in particolare, l’introduzione di modelli avanzati come ChatGPT-4o stanno facendo aumentare le preoccupazioni per un loro uso improprio nelle truffe basate sulla voce.
Truffe che sfruttano proprio le capacità dell’intelligenza artificiale per condurre attività fraudolente, costituendo una seria minaccia sia per gli individui che per le aziende.
Indice degli argomenti
L’ascesa delle truffe vocali
I ricercatori dell’Università dell’Illinois Urbana-Champaign (UIUC) hanno dimostrato che ChatGPT-4o può essere sfruttato per automatizzare vari tipi di truffe, tra cui bonifici bancari, furto di gift card e raccolta di credenziali.
La capacità del modello nell’elaborare i comandi vocali gli consente di interagire con i sistemi bancari online e altre piattaforme, imitando efficacemente il comportamento umano durante le transazioni.
Questa capacità consente ai truffatori di eseguire operazioni complesse con una supervisione umana minima, aumentando significativamente la portata e l’efficienza delle loro attività fraudolente.
Esempi di truffe
- Truffe sui bonifici bancari: i ricercatori hanno scoperto che utilizzando ChatGPT-4o, i truffatori potrebbero avviare bonifici bancari con una percentuale di successo che va dal 20% al 60%. Hanno simulato interazioni con siti bancari reali, confermando che in alcuni casi il denaro poteva effettivamente essere trasferito con successo.
- Furto di credenziali: le truffe contro gli account Gmail hanno raggiunto un tasso di successo del 60%, mentre i tentativi di rubare credenziali da Instagram e di effettuare trasferimenti di criptovaluta hanno avuto successo circa il 40% delle volte. Queste truffe spesso comportavano la navigazione di siti Web complessi e la gestione di processi di autenticazione a due fattori.
- Truffe di impersonificazione: è stato inoltre evidenziato l’uso dell’intelligenza artificiale per impersonare entità fidate, come gli agenti dell’IRS. Questo tipo di truffa può instillare paura o urgenza nelle vittime, spingendole ad agire rapidamente senza verificare la legittimità della richiesta.
Rapporto costo-efficacia delle truffe basate sull’AI
L’aspetto finanziario di queste truffe è particolarmente allarmante. Il costo medio per portare a termine una truffa riuscita è di circa 0,75 dollari, il che rende economicamente fattibile per i criminali prendere di mira numerose vittime contemporaneamente.
Per le truffe più complesse, come i bonifici bancari, il costo può arrivare a circa 2.51 dollari, ancora una frazione del potenziale guadagno finanziario derivante da una frode riuscita.
Tutele e rischi continui
In risposta a queste minacce, OpenAI ha implementato varie misure di salvaguardia nei suoi ultimi modelli per mitigare gli abusi. Secondo quanto riferito, il nuovo modello “o1” incorpora migliori difese contro i tentativi di generare contenuti dannosi e limita la generazione vocale a voci pre-approvate per prevenire la rappresentazione.
Tuttavia, come sottolineato dai ricercatori, le garanzie esistenti non sono infallibili; semplici tecniche di jailbreaking tempestivo possono aggirare molte protezioni progettate per impedire la gestione di dati sensibili.
Nonostante questi progressi, rimane il rischio che gli autori malintenzionati continuino a sfruttare chatbot a comando vocale meno sicuri o modelli più vecchi privi di robuste funzionalità di sicurezza.
Il potenziale di danni diffusi attraverso queste tecnologie richiede una vigilanza continua e un miglioramento dei protocolli di sicurezza dell’IA.
L’emergere di truffe vocali guidate dall’intelligenza artificiale rappresenta una sfida significativa nel campo della sicurezza informatica. Con l’evoluzione della tecnologia, evolvono anche le tattiche utilizzate dai criminali informatici.
È fondamentale che sia gli sviluppatori che gli utenti rimangano consapevoli di questi rischi e lavorino in modo collaborativo per migliorare le misure di sicurezza che proteggono da tali attività fraudolente.