Un team composto da due ricercatori, appartenente alla società di sicurezza informatica Claroty Ltd., ha affermato di essere riuscito a vincere l’hackathon della Zero Day Initiative grazie al supporto di ChatGPT. Il bot sarebbe stato utilizzato per scrivere stringhe di codice atte a sfruttare le vulnerabilità nei sistemi industriali, risparmiando così una grande quantità di tempo, che sarebbe invece stata necessaria per sviluppare lo stesso codice manualmente. Ciò avrebbe permesso ai due ricercatori di riscuotere un enorme successo al concorso, vincendo una somma pari a 123.000 dollari.
Indice degli argomenti
ChatGPT può integrare il know-how dei criminal hacker
La competizione, in cui si sono sfidati esperti informatici, programmatori e sviluppatori di software, si è svolta nel mese di febbraio a Miami nell’ambito della Zero Day Initiative, un programma creato al fine di incentivare la segnalazione di vulnerabilità zero-day privatamente ai fornitori interessati, da ricercatori ricompensati finanziariamente.
Nel caso in questione, secondo quanto dichiarato dal ricercatore di Claroty, Noam Moshe, l’approccio adottato da lui e dal collega rivelerebbe come l’intelligenza artificiale generativa possa integrare il know-how degli hacker che se ne avvalgono.
I due ricercatori hanno affermato di aver rintracciato diversi potenziali punti deboli nei loro sistemi selezionati durante la fase operativa della competizione. Essi avrebbero usato ChatGPT per favorire la scrittura del codice e concatenare i bug, di modo da ricostruire la catena e assumere così il controllo del sistema.
Secondo le previsioni formulate dal docente di sicurezza informatica e sicurezza nazionale presso la Virginia Commonwealth University, Christopher Whyte, e riportate dal The Wall Street Journal, è possibile che diversi criminali informatici cerchino di “aggirare i limiti di cyber sicurezza insegnati ai bot”.
A parere del professor Whyte, piuttosto che istruire un bot a scrivere codice per prelevare dati da un computer senza che l’utente se ne accorga, un hacker potrebbe cercare di aggirarlo per scrivere codice dannoso formulando la richiesta senza che vi sia un innesco evidente.
L’abuso di ChatGPT per attività malevole
Come è ormai noto, numerosi criminali informatici stanno tentando di eludere le restrizioni poste da OpenAI, azienda produttrice di ChatGPT, al fine di utilizzare il bot per scopi dannosi.
Lo scorso 28 marzo, l’Ufficio Europeo di Polizia (Europol) ha diffuso un rapporto relativo al potenziale abuso di ChatGPT per attività malevole. Nello specifico, è stato sottolineato dagli analisti come sempre più organizzazioni criminali utilizzino il chatbot per condurre attacchi di social engineering, frodi, campagne di disinformazione e altre attività di natura informatica, come lo sviluppo di codice dannoso.
Attraverso una serie di workshop organizzati da Europol Innovation Lab, dedicati all’impatto di ChatGPT e alle possibilità di abuso di tale strumento, sono stati raccolti e analizzati numerosi casi d’uso pratici atti a fornire un’idea delle casistiche che Europol potrebbe trovarsi a dover fronteggiare. L’obiettivo era, altresì, quello di sensibilizzare l’opinione pubblica sull’impatto del bot e, più in generale, degli strumenti basati sull’intelligenza artificiale, nonché fornire raccomandazioni riguardo alle possibili azioni che possono essere messe in atto per fronteggiare i potenziali rischi derivanti da tali strumentazioni.
I possibili campi di applicazione di ChatGPT
Nonostante alcune voci autorevoli, tra cui l’esperto in sicurezza informatica di Zero Day Initiative Dustin Childs, ritengano che ChatGPT sia ad oggi ancora troppo “imprevedibile e suscettibile di errori” per essere considerata un’arma rapida ed efficace a disposizione dei criminali informatici, la preoccupazione nei confronti di questa tecnologia risulta essere ormai diffusa in diversi settori e non solamente fra i responsabili della sicurezza.
Il campo di applicazione di ChatGPT è in continua espansione e le possibilità di utilizzo risultano essere sempre maggiori.
Oltre alle note abilità nella stesura di codice per la programmazione informatica, il bot è in grado di comprendere e rispondere a input di vario genere, può creare o tradurre testi da una lingua all’altra, può essere utilizzato per riassumere lunghi brani in versioni più brevi, mantenendo un’estrema chiarezza espositiva.
Chat GPT è altresì capace di generare nuove idee e contenuti, i quali vengono successivamente trascritti dal bot o ancora, può essere utilizzato per generare un testo partendo da un audio, permettendo così di creare una sintesi vocale di contenuti scritti.
Gli elaborati prodotti risultano di una tale compiutezza da essere difficilmente individuabili e discernibili da quelli realizzati dall’azione umana. A fronte dell’enorme potere di tale strumento, a partire dalla sua diffusione hanno iniziato a sorgere preoccupazioni concernenti l’etica correlata al suo utilizzo in contesti come quello lavorativo, scolastico e della ricerca scientifica.
Se, infatti, risultano essere ben individuabili le attività illecite che possono essere svolte attraverso l’ausilio di ChatGPT, i confini di liceità di tale strumento risulterebbero essere meno chiari quando si tratta di applicare la prosa generata dal bot nei contenuti destinati ai contesti di cui sopra, come materiali di marketing, white paper o articoli.
Diverse istituzioni universitarie hanno iniziato ad impedire l’uso di strumenti basati sull’intelligenza artificiale nello svolgimento di saggi, compiti ed esami.
Secondo quanto dichiarato da Jenna Lyle, vice addetto stampa delle scuole pubbliche di New York, l’utilizzo di strumenti come ChatGPT, non svilupperebbe le capacità di pensiero critico e di risoluzione dei problemi, essenziali per il successo accademico e per molti aspetti della quotidianità.
In conseguenza delle maturate preoccupazioni per il possibile impatto negativo sull’apprendimento degli studenti e per la sicurezza dei contenuti, l’accesso a ChatGPT è stato quindi limitato sulle reti e sui dispositivi delle scuole pubbliche di New York.
Un approccio positivo all’uso dell’AI
Tuttavia, vi è anche chi cerca di adeguarsi positivamente all’avvento di tali strumenti, provando ad affrontarne i rischi e a trarne vantaggio. Secondo Hans Stokholm Kjer, project manager professionista e commentatore freelance, impedire agli studenti l’uso di ChatGPT, anche durante gli esami, rappresenterebbe una “dichiarazione di sconfitta”.
Soprattutto tra i Paesi scandinavi, si starebbe quindi sviluppando una linea di pensiero secondo la quale gli strumenti basati sull’intelligenza artificiale non dovrebbero essere banditi, quanto piuttosto adeguatamente regolamentati. Trattandosi di tecnologie che, secondo Kjer, saranno destinate a svilupparsi nei prossimi anni, è bene che gli studenti di oggi apprendano il loro funzionamento e che “possano guidarci attraverso gli sviluppi in sicurezza verso e oltre il 2050”.
Anche la professoressa danese Hanne Leth Andersen, rettore dell’Università di Roskilde e capo del comitato per le politiche educative presso Universities Denmark, si è espressa in merito, sottolineando l’importanza per le università di dotarsi di “regole e regolamenti univoci su come e quando l’uso di queste tecnologie è consentito e quando no”, in relazione agli obiettivi di apprendimento specifici di ciascun corso e programma.