Le credenziali di accesso a ChatGpt di circa 100mila individui sono state compromesse e scambiate sul dark web. Con questi dati, trafugati dai criminali, è possibile accedere alla cronologia delle chat e quindi a informazioni riservate.
L’allarme è in rapporto di Group-IB, che evidenzia dubbi sulla sicurezza delle piattaforme AI, come appunto ChatGPT.
Unica buona notizia: per ora l’Italia non sembra nel mirino. L’India risulta essere il paese più colpito, seguita da Pakistan e Brasile.
Indice degli argomenti
ChatGpt, il furto di credenziali di accesso
La società di sicurezza informatica con sede a Singapore, Group-IB, ha identificato oltre 100.000 dispositivi infetti da malware (trojan e spyware) che hanno rubato le credenziali di accesso degli utenti a ChatGPT, consegnandole ai criminali dietro tali software malevoli, per poi essere collezionate e appunto, messe in vendita online. Questa rivelazione solleva nuovi interrogativi sulla sicurezza delle piattaforme AI e sulla necessità di regolamentazioni adeguate. Molti esperti, tra cui Elon Musk, avevano già espresso preoccupazioni sul possibile cattivo utilizzo di queste tecnologie.
Va tuttavia evidenziato che in questo caso, si sono sfruttati accessi malevoli ai dispositivi già precedentemente infettati, per rubare le credenziali di ChatGPT. Gli utenti che utilizzano 2FA (autenticazione a doppio fattore) sono sempre in minoranza rispetto allo standard, inoltre la piattaforma lo offre come opzione facoltativa all’iscrizione dell’utente, quindi gran parte evita di aggiungere questa seconda barriera protettiva nei propri account. Tra i dati analizzati dalla ricerca, è stato riscontrato che quasi l’80% di queste credenziali è stata esfiltrato con il malware Raccoon, seguito da circa 13 mila account rinvenienti da dispositivi compromessi con Vidar e 6700 con RedLine.
La scoperta delle credenziali di ChatGPT sul dark web dimostra chiaramente l’ampia portata e l’impatto di tali violazioni dei dati. Le credenziali rubate sono state prontamente commercializzate sui mercati del dark web, con un numero significativo proveniente dalla regione Asia-Pacifico, come condiviso da Group-IB nella classifica dei primi dieci paesi maggiormente interessati.
Perché è un problema
Questo evento mette in luce l’importanza di affrontare la sicurezza dei dati in un contesto in cui sempre più aziende e individui si affidano a piattaforme di intelligenza artificiale generativa come ChatGPT per aumentare la produttività. Infatti, compromettendo le credenziali, si accede al contenuto del profilo ChatGPT, che può contenere anche informazioni sensibili, se utilizzato a livello aziendale. Nonché tutta la cronologia delle “chat” intraprese con il bot che, per impostazione predefinita, vengono sempre automaticamente salvate e conservate. Anche in questo caso gli utenti che eliminano le proprie conversazioni passate sono sempre in minoranza, lasciando così esposte le informazioni trattate. Che possono contenere dati personali e informazioni riservate dell’azienda.
Il coinvolgimento di aziende di alto profilo come OpenAI, Microsoft e Google nel processo di regolamentazione dell’intelligenza artificiale, solleva interrogativi sulla priorità della sicurezza dei dati. Secondo una relazione di Time Magazine infatti, queste aziende hanno fatto pressioni per un regime regolamentare meno stringente nell’AI Act, recentemente introdotto dall’Unione Europea.
Le conseguenze di una violazione delle credenziali di accesso a ChatGPT sono significative. Gli utenti possono aver condiviso informazioni sensibili con l’IA generativa, rendendo i loro account un obiettivo appetibile per i criminali informatici. La divulgazione di tali dati può portare a gravi conseguenze per la privacy degli individui, il furto di identità e altri tipi di frodi mirate.
Quanto è pericoloso per la privacy ChatGpt?
L’emergere di queste preoccupazioni ha spinto molte aziende a vietare l’uso di piattaforme come ChatGPT da parte dei propri dipendenti, al fine di proteggere i dati sensibili interni. Mentre l’IA generativa offre enormi potenzialità in termini di produttività e creatività, è cruciale sviluppare soluzioni di sicurezza robuste per mitigare il rischio di violazioni dei dati.
La scoperta delle 100.000 credenziali di ChatGPT nel dark web è un segnale di allarme per la comunità tecnologica e politica. Rafforza la necessità di un dialogo globale sulla regolamentazione dell’IA generativa per proteggere la privacy degli utenti e prevenire il potenziale abuso di queste tecnologie. Questo va sicuramente associato anche ad un cambiamento sociale relativo alla consapevolezza di ciò che la condivisione di informazioni sensibili con strumenti tecnologici, comporta. In un mondo sempre più connesso e dipendente dall’IA, la sicurezza dei dati deve rimanere una priorità assoluta per garantire il progresso tecnologico responsabile.