L’IA generativa verrà probabilmente utilizzata per attività malevole nel corso del 2024, poiché continua a guadagnare popolarità. Le aziende devono essere preparate a contrastare questo uso improprio con un utilizzo equivalente, se non superiore, di questa tecnologia per rafforzare le loro difese.
L’IA generativa consente di affrontare proattivamente le minacce alla sicurezza più complesse, in quanto è in grado di adattarsi ai modelli di attacco in continua evoluzione e generare soluzioni in modo indipendente. Questa tecnologia innovativa ha il potenziale di massimizzare le prestazioni dei security team, sia in termini di capacità che di velocità.
Una piattaforma di sicurezza che abbia l’IA al centro e che, insieme all’expertise umana, possa proteggere gli asset critici sia negli endpoint che oltre è la risposta alle necessità dei security team, che dovrebbero essere sensibilizzati sui rischi associati all’adozione dell’IA generativa nella cyber security anziché esserne ostacolati.
Le aziende, dunque, dovrebbero prendere in considerazione le seguenti azioni quando introducono tecnologie di cyber security alimentate da IA generativa.
Indice degli argomenti
Evitare le allucinazioni dell’IA
Le “allucinazioni” dell’IA sono risposte imprecise e fuorvianti alle domande degli utenti. Tali “allucinazioni” nei prodotti con grandi modelli linguistici (LLM) per i consumatori possono variare da divertenti ad assurde, ma nel settore della sicurezza l’imprecisione non è affatto divertente.
Informazioni di sicurezza errate possono avere gravi conseguenze per un’organizzazione, dalle operazioni interrotte a un indebolimento della posizione di rischio fino a una compromissione della sicurezza che non viene rilevata.
Per questo motivo, è necessario utilizzare una soluzione di cyber security basata su IA generativa che adotti misure preventive per garantire che i sistemi IA forniscano risultati accurati e affidabili.
Ad esempio, un nuovo assistente basato su IA generativa per le operazioni di sicurezza dovrebbe essere progettato prima di tutto per essere accurato. Le misure di sicurezza per l’accuratezza di un prodotto come Charlotte AI derivano da tre aree chiave: l’architettura rivoluzionaria multi-modello, i dati su cui i modelli sono affinati e i dati a cui ha accesso.
Proteggere i dati dei clienti
La tecnologia IA generativa solleva anche questioni critiche sulla protezione dei dati. Gli utenti dovrebbero sapere quali dati, se presenti, vengono condivisi con terze parti.
Il trattamento dei dati personali da parte dell’IA generativa deve essere conforme a tutte le normative in essere sulla protezione dei dati. Charlotte AI, ad esempio, trasmette dati sensibili attraverso le tecnologie di partner fidati, come AWS Bedrock, che garantiscono la riservatezza e la sicurezza dei dati trattati.
In questo modo, i clienti ricevono la migliore risposta possibile alla loro domanda nel rispetto delle garanzie di protezione dei dati.
Prevenire la divulgazione non autorizzata dei dati
L’IA generativa può rappresentare rischi interni ed esterni per un’organizzazione. Le aziende si trovano ad affrontare una varietà di rischi interni; ad esempio, devono pensare a come prevenire la divulgazione non autorizzata di dati all’interno dell’organizzazione.
Inoltre, deve essere definito chi è responsabile delle azioni intraprese sulla base delle informazioni fornite dall’IA generativa.
Esternamente, le aziende dovrebbero considerare come proteggere i loro prodotti dalla manipolazione da parte degli avversari, come attraverso prompt injection o prompt leak.
Una combinazione di diverse misure aiuta a minimizzare la divulgazione non autorizzata di dati negli strumenti di IA generativa e garantisce il rispetto delle linee guida e degli standard di protezione dei dati.
Controlli di accesso basati sui ruoli
Le aziende devono implementare controlli di accesso basati sui ruoli (RBAC) per garantire che solo gli utenti autorizzati abbiano accesso ai modelli di AI generativa e ai dati associati, e che questi operino solo entro i permessi assegnati al loro ruolo.
Questo può essere ottenuto tramite autenticazione, autorizzazione e monitoraggio.
Un’analista come autorità
Sebbene gli esseri umani siano spesso considerati l’anello più debole nella struttura della sicurezza, la verità di base e il contesto forniti dagli analisti sono uno dei punti di forza più grandi della cyber security. In un SOC con IA nativa, l’analista continuerà a svolgere un ruolo importante nel rivedere, decidere e autorizzare le operazioni di sicurezza supportate dai risultati dell’IA generativa.
In definitiva, spetta agli analisti di sicurezza indirizzare l’esperienza di una soluzione di cyber security basata su IA generativa e decidere quali azioni strategiche devono essere intraprese nel loro ambiente.
Ad esempio, se un analista ha identificato un gruppo di host, l’IA può creare uno statement di azione consigliata, ma spetta all’utente rivedere ed eseguire tale statement.
Prevenire il prompt injection e il prompt leakage
Il prompt injection, un metodo per alimentare l’IA generativa con informazioni per confondere i dati di input con le istruzioni, ha attirato molta attenzione dai ricercatori di sicurezza che interagiscono con strumenti come il chatbot Sydney di Bing.
I ricercatori hanno anche evidenziato il rischio che gli attori di minacce espongano vulnerabilità negli ambienti degli utenti inducendo i sistemi di IA generativa a rivelare le loro istruzioni iniziali o meta prompt (conosciuto come prompt leakage), esponendo la configurazione del sistema interno e i dati.
Una soluzione di cyber security basata su IA generativa deve quindi essere progettata per fornire molteplici difese contro questo tipo di attacco.
Conclusione
Per tenere il passo con gli avversari, i professionisti della cyber security devono sfruttare l’IA generativa per massimizzare il valore dei loro strumenti di sicurezza esistenti, trasformando ore di lavoro in minuti o secondi mentre rispondono agli incidenti di sicurezza.
Questo è particolarmente importante considerando l’attuale divario di competenze nella forza lavoro nell’ambito cyber security.
Sebbene l’uso dell’IA generativa sia convincente, è importante considerare le sfide che ne derivano.
Come per qualsiasi tecnologia, il suo uso deve essere affrontato responsabilmente per mitigare i rischi e i potenziali abusi.