Com’era facilmente prevedibile, l’uso dell’intelligenza artificiale si sta diffondendo sempre più nel dark web e ciò solleva enormi preoccupazioni.
In particolare, i progressi delle tecnologie di intelligenza artificiale e di apprendimento automatico se da una parte stanno fornendo nuovi modi alle aziende per mantenere i propri dati, dall’altra consentono ai cyber criminali di continuare a sferrare attacchi sempre più sofisticati alle organizzazioni.
Ad esempio, si prevede che queste stesse tecnologie saranno alla base dello sviluppo di strumenti in grado di mappare le reti e identificare i punti deboli di un sistema di sicurezza, per poi organizzare le risorse per un attacco.
AI Act, l’intelligenza artificiale rispetti l’umano: i punti salienti del regolamento UE
Indice degli argomenti
Potenziali problemi dell’uso dell’IA nel Dark Web
L’intelligenza artificiale sta diventando una tecnologia di base sempre più importante per i criminali informatici di tutti i settori. Gli attori malintenzionati possono sfruttare la loro capacità di apprendere e anticipare ciò che sta accadendo al momento o in futuro.
L’intelligenza artificiale entra in gioco perché anche gli strumenti di hacking più sofisticati richiedono un’intelligenza simile a quella umana per indirizzarli contro le potenziali vittime.
I criminali informatici possono rimanere inosservati all’interno della rete di un’organizzazione per lunghi periodi, consentendo loro di creare backdoor per le infrastrutture critiche, di origliare le riunioni, di estrarre dati, di creare account privilegiati e di lanciare attacchi all’azienda nel suo complesso.
Alcuni dei metodi con cui gli attori delle minacce utilizzano l’IA sono:
- creazione di malware migliori;
- attacchi furtivi;
- creazione di dati falsi profondi;
- exploit profondi;
- reti avversarie generative (GAN);
- identificazione di password e cracking di CAPTCHA supportati dall’intelligenza artificiale;
- strumenti di penetration testing basati su machine learning;
- personificazione umana su piattaforme di social network;
- utilizzo di framework di intelligenza artificiale per violare host vulnerabili.
Quindi, cosa succede quando gli LLM (Large Language Model) vengono addestrati sul dark web?
Gli attori delle minacce stanno escogitando modi creativi per sfruttare il potenziale dell’IA generativa. Il dark web è pieno di metodi creativi per sfruttare potenti strumenti basati sull’IA. L’uso improprio di GPT-4 e ChatGPT non dovrebbe far ridere.
Le organizzazioni e gli individui devono riconoscere i potenziali pericoli posti dagli algoritmi di IA, che continuano a evolversi e a guadagnare importanza.
Ad esempio, ChatGPT e l’IA generativa possono essere utilizzati per creare chatbot che truffano le persone, rubano informazioni personali e diffondono propaganda e disinformazione.
Le tecnologie basate sull’IA vengono utilizzate anche per creare deep fake non rintracciabili per la disinformazione, per diffamare persone o gruppi e per estorcere e ricattare persone.
Si prevede che l’IA sia alla base dello sviluppo di malware polimorfo.
L’intelligenza artificiale modificherà l’attuale approccio che prevede l’utilizzo di algoritmi precodificati per alterare le firme del malware al fine di evitare il rilevamento da parte degli strumenti anti-malware.
Gli approcci basati sull’intelligenza artificiale possono produrre più di un milione di varianti di un virus in un solo giorno. Il malware può anche creare nuove forme di attacco che colpiscono specificamente i punti deboli che l’IA ha identificato.
Infine, l’IA generativa sul dark web può avere conseguenze indesiderate che possono essere devastanti.
Queste tecnologie, se alimentate da dati, possono diventare altamente distorte e dannose a causa di dati errati e della mancanza di una supervisione rigorosa.
Le conseguenze indesiderate possono includere il rafforzamento dei pregiudizi, la creazione di stereotipi dannosi e la propagazione di discorsi di odio o disinformazione.
Ruolo dell’IA nella mitigazione dei rischi del dark web
I professionisti della sicurezza informatica e le organizzazioni devono rimanere vigili e adattare regolarmente le loro strategie per essere all’avanguardia nel panorama delle minacce in continua evoluzione.
L’intelligenza artificiale non può sostituire gli approcci tradizionali alla sicurezza. L’IA è uno strumento potente che può rafforzare le iniziative di cyber security e funziona meglio se utilizzato insieme ai metodi di sicurezza tradizionali.
I principali modi in cui le organizzazioni e i team di sicurezza utilizzano l’IA per difendersi dalle minacce:
- analisi comportamentale;
- mitigazione dei bot;
- simulazione di violazioni e attacchi;
- gestione dei rischi di conformità e privacy;
- individuazione e categorizzazione dei dati;
- rilevamento delle frodi;
- analisi dell’identità e rilevamento delle frodi;
- automazione delle politiche;
- orchestrazione della sicurezza;
- rilevamento delle minacce e delle anomalie in tempo reale.
Le organizzazioni e i professionisti della cyber security devono combattere il fuoco con il fuoco per mantenere le reti e i dati al sicuro.
Abbracciare l’IA e le sue possibilità ed evolversi insieme ad essa fornirà ai team di cyber security un vantaggio significativo sugli attori delle minacce. Devono sfruttare l’IA e il ML per creare soluzioni di cyber security all’avanguardia.
L’intelligenza artificiale, combinata con soluzioni automatizzate, può essere utilizzata per cercare nel dark web, individuare attività illegali e consegnare gli attori delle minacce alla giustizia.
Queste tecnologie possono essere utilizzate per l’intelligence delle minacce per analizzare grandi quantità di dati dal dark web e identificare modelli e tendenze nelle attività criminali. Una volta raccolte, le informazioni vengono utilizzate per informare le forze dell’ordine e sviluppare misure di sicurezza informatica altamente efficaci.
I ML vengono incorporati nell’intelligence delle minacce informatiche per valutare rapidamente e con precisione le minacce. L’implementazione di sistemi basati su AI e ML, come la gestione degli eventi di sicurezza (SEM), gestione delle informazioni e degli eventi di sicurezza (SIEM) e gestione delle informazioni di sicurezza (SIM) garantisce che i team di sicurezza rilevino le minacce e rispondano agli incidenti in modo più rapido ed efficace.
L’analisi del sentiment attraverso l’uso di strumenti di intelligenza artificiale può aiutare a identificare potenziali minacce analizzando il linguaggio usato nei forum del dark web e in altre comunità online.
L’analisi del sentiment individua il tono e il sentimento delle discussioni e dei thread in corso. Le informazioni raccolte possono essere utilizzate per informare le forze dell’ordine.
Conclusione
La combinazione di IA e di pratiche di cyber security ben realizzate e zero trust è il modo migliore per rafforzare le best practice e i piani di cyber security di un’organizzazione.
L’IA generativa e gli strumenti di LLM sono la prova dell’ingegno umano e dell’enorme potenziale dell’IA.
È responsabilità collettiva di tutti garantire che le capacità dell’IA siano utilizzate per il beneficio collettivo e non per ragioni nefaste.