I chatbot alimentati da grandi modelli linguistici (LLM), come ChatGPT, Google Bard e Bing Chat di Microsoft, hanno rapidamente guadagnato popolarità per le loro molteplici applicazioni in ambito sia sociale che lavorativo.
Questi chatbot basati sull’intelligenza artificiale sono progettati per aiutare gli utenti con varie attività, dalle risposte a domande complesse alla stesura di e-mail e alla generazione di contenuti creativi.
Tuttavia, recenti ricerche hanno evidenziato gravi preoccupazioni riguardanti la loro potenziale capacità di generare informazioni dannose, diffondere disinformazione e porre rischi per la privacy e la sicurezza dei dati.
FraudGPT e WormGPT, nuove cyber minacce sfruttano l’AI generativa: che c’è da sapere
In un rapporto pubblicato dai ricercatori dell’Università Carnegie Mellon e del Center for A.I. Safety, è emerso che le misure di sicurezza implementate dalle aziende di intelligenza artificiale per prevenire discorsi di odio, disinformazione e altri contenuti tossici erano suscettibili di compromissione.
I ricercatori hanno scoperto un metodo, tratto da sistemi di intelligenza artificiale open source, che consentiva a chiunque di sfruttare le vulnerabilità delle principali piattaforme di chatbot. Aggiungendo sequenze specifiche di caratteri alle richieste dei chatbot, gli individui potevano ingannare questi sistemi per generare informazioni parziali, false o tossiche.
Il dibattito riguardante l’uso dei modelli di intelligenza artificiale open source rispetto a quelli proprietari e chiusi esiste da tempo. I sostenitori dell’open source sostengono che la condivisione del codice favorisce la collaborazione, accelera la ricerca sull’intelligenza artificiale e promuove la trasparenza.
I critici, tuttavia, sollevano preoccupazioni riguardo alla mancanza di controllo, ai potenziali rischi per la sicurezza e alla possibilità di abusi. Le recenti scoperte suggeriscono che tali modelli open source possono effettivamente rappresentare rischi per i chatbot più utilizzati, ponendo domande sulla sicurezza complessiva e l’affidabilità dei sistemi di intelligenza artificiale.
Microsoft Security Copilot, il chatbot GPT-4 per la sicurezza: cos’è, come funziona, i vantaggi
Indice degli argomenti
Tante preoccupazioni sulla privacy dei dati
I chatbot, a causa della loro natura conversazionale, hanno il potenziale per raccogliere vasti quantitativi di dati personali. Ciò include testi, voci, informazioni sui dispositivi e persino dati che possono rivelare la posizione dell’utente, come l’indirizzo IP.
Come i motori di ricerca, i chatbot raccolgono dati come attività sui social media, che possono essere collegati all’indirizzo email e al numero di telefono degli utenti, afferma il dott. Lucian Tipi, decano associato presso la Birmingham City University. “Man mano che migliorano le tecniche di elaborazione dati, cresce anche la necessità di ulteriori informazioni e qualsiasi cosa dal web diventa di giusto interesse”, afferma il professore.
Mentre le aziende di sviluppo dei chatbot affermano che i dati sono necessari per migliorare i servizi, tali informazioni possono anche essere utilizzate per la pubblicità mirata. Ogni volta che si richiede aiuto a un chatbot, micro-calcoli alimentano l’algoritmo per profilare gli individui, spiega Jake Moore, consulente globale di sicurezza informatica presso l’azienda software ESET: “Questi identificatori vengono analizzati e potrebbero essere utilizzati per indirizzarci con annunci pubblicitari”.
Questo accade già. Microsoft ha annunciato di essere interessata a introdurre annunci in Bing Chat. È emerso anche di recente che il personale di Microsoft può leggere le conversazioni tra i chatbot e gli utenti e l’azienda statunitense ha aggiornato la sua politica sulla privacy per riflettere ciò.
La politica sulla privacy di ChatGPT “non sembra aprire la porta allo sfruttamento commerciale dei dati personali”, afferma Ron Moscona, partner dello studio legale Dorsey & Whitney. La politica “promette di proteggere i dati delle persone” e di non condividerli con terze parti, aggiunge l’informativa dell’azienda.
Tuttavia, mentre Google promette anche di non condividere informazioni con terze parti, la più ampia politica sulla privacy della società consente l’utilizzo dei dati per la pubblicità mirata agli utenti.
Proteggere la privacy degli utenti durante l’utilizzo dei chatbot può essere difficile, ma non impossibile. Una strategia consiste nell’utilizzare una Virtual Private Network (VPN) per mascherare gli indirizzi IP e migliorare la privacy online.
ChatGPT e le altre intelligenze artificiali stanno influenzando la cyber security: ecco come
Usare l’IA con intelligenza
Inoltre, le tecniche di ingegneria dei dati possono limitare le informazioni raccolte dai chatbot, riducendo i potenziali rischi per la privacy. Le aziende devono educare i dipendenti sull’uso responsabile dei chatbot, in linea con le politiche di sicurezza, al fine di minimizzare l’esposizione potenziale dei dati sensibili a tali sistemi.
Con l’evoluzione della tecnologia, garantire robuste misure di privacy e sicurezza sarà fondamentale per prevenire le violazioni dei dati e proteggere le informazioni degli utenti che operano online.
Lo sviluppo di tali tecnologie e di altri modelli di intelligenza artificiale generativa continua a evolversi rapidamente, presentando sia vantaggi promettenti che rischi significativi. Man mano che la tecnologia avanza aumentano anche le minacce potenziali, come gli attacchi di phishing abilitati dall’IA e i contenuti deepfake.
Sia gli individui che le organizzazioni devono rimanere vigili, utilizzando software di sicurezza, aggiornando regolarmente le difese e approfondendo la comprensione delle minacce abilitate dall’IA per proteggersi da potenziali rischi.
Bilanciando il potenziale innovativo dei chatbot con la responsabilità di salvaguardare i dati degli utenti, si crea una sfida sia per gli sviluppatori tecnologici che per i responsabili politici.
Sebbene i chatbot rappresentino uno strumento potente per varie applicazioni, portano anche rischi e sfide significativi legati alla privacy, alla sicurezza e alla conformità legale.
Mentre le aziende e i ricercatori si sforzano di migliorare le misure di sicurezza, è fondamentale che gli utenti siano vigili riguardo ai dati che condividono e ai potenziali rischi associati ai contenuti generati dall’IA.
Inoltre, i responsabili politici e gli organismi di regolamentazione devono collaborare con gli sviluppatori tecnologici per creare un solido quadro giuridico che tuteli i dati degli utenti, favorendo al contempo l’innovazione nell’industria dell’IA.