I recenti sviluppi applicativi nel campo dell’AI generativa dimostrano il grande potenziale di questa tecnologia per rivoluzionare il modo di lavorare al computer e aumentare la produttività, ma sollevano anche riflessioni sul tema dell’AI security. Il computer rende fruibili le informazioni digitali archiviate, produce abstract di documenti, genera e-mail, viste sui dati aiutando nelle presentazioni, cambia il rapporto che le applicazioni hanno con l’elemento umano.
Nell’uso su larga scala, i rischi che normalmente accompagnano l’introduzione di qualsiasi tecnologia si sommano con derivanti dall’interazione con le persone. Il computer svolge nuovi compiti ma non acquisisce nuove responsabilità e non sempre è permesso sbagliare. Il classico “è colpa del computer” ricorrente ai tempi della prima informatizzazione non è oggi una giustificazione quando in ballo c’è la sicurezza dei dati e dell’azienda.
Con l’adozione di nuove modalità di lavoro, di assistenti e chatbot intelligenti, è fondamentale considerare l’AI security per difendersi dalle vulnerabilità introdotte, oltre che dall’uso malevolo della stessa tecnologia di AI da parte del cybercrime per generare codice malware o fare social engineering. Rischi di cui pochi sono oggi al corrente e soprattutto preparati sul fronte della difesa.
Indice degli argomenti
Conoscere i nuovi rischi per comprendere l’AI security
Strumenti di AI generativa, come ChatGPT, Google Bard o MS365 Copilot, permettono oggi di fare velocemente i riassunti delle riunioni, sintesi di documenti così come di creare codice ad hoc per estrarre informazioni da fogli Excel e grandi database: capacità utilissime per migliorare la produttività, ma da vagliare sotto il profilo dell’AI security. Quali sono i rischi? “Tra i principali vi sono quelli di prompt injection, che consentono di manipolare i chatbot per accedere ai dati utilizzati per fare training del modello, potenzialmente riservati, o interagire in modo imprevisto con i sistemi aziendali integrati con queste soluzioni”, spiega Ruggero Strabla, head of offensive security di Horizon Security.
Un tema aperto per l’AI security è lo sviluppo di firewall AI capaci di evitare gli input malevoli ai sistemi di AI, oltre agli output che dovessero restituire informazioni vietate. “Se per difendersi dalle classiche minacce di database injection, bastava filtrare l’input (database e applicazioni comuni rispondono in modo deterministico, ndr) con le chatbot e il linguaggio naturale diventa complicato riconoscere le richieste malevole e, allo stesso modo, capire se una richiesta ha causato il rilascio di dati che non dovevano essere prodotti”, precisa Strabla.
“Le aziende devono inoltre valutare i rischi derivanti dall’utilizzo, da parte di dipendenti, di informazioni aziendali riservate con gli strumenti di AI generativa. Contenuti scambiati in call, e-mail, fogli elettronici, dati preliminari di vendita o di bilancio e altre informazioni riservate finiscono negli input dell’AI per mano degli stessi dipendenti che richiedono agli assistenti digitali estratti e sintesi. L’AI security necessita quindi anche di un’attenta valutazione delle piattaforme di AI in funzione dell’uso che ne viene fatto, sia verificando le garanzie fornite dal fornitore sia rendendo i dipendenti consapevoli di cosa possono e non possono dargli in pasto”.
L’AI al servizio dell’AI security e il valore dell’esperienza
L’AI security trova nell’AI generativa un nuovo fondamentale alleato. “Da tempo i sistemi di sicurezza più sofisticati usano l’AI per rilevare situazioni sospette e distinguere i pattern i d’uso degli utenti da quelli di un attacco – spiega Strabla -. Oggi con l’AI generativa si può fare di più, per esempio, aiutare l’analista di security ad avere immediatamente un quadro d’insieme più completo e comprensibile, quindi formulare suggerimenti su cosa fare nei casi specifici. Questo aiuta a colmare le lacune di competenze sul mercato del lavoro, anche se l’AI non serve per soppiantare i ruoli della sicurezza, ma per elevarne il livello dai compiti più operativi e ripetitivi consentendo maggior focalizzazione su quelli ingegneristici”.
“Non va infine sottovalutato il fatto che le AI generative sono già utilizzate da emergenti gruppi di cybercrime con fini malevoli. Ciò perché diventa possibile creare e-mail di phishing, malware e altri strumenti di attacco anche in mancanza di skill tecnici. Si prospetta quindi una sfida difficile, che può essere affrontata acquisendo consapevolezza dei nuovi rischi e aggiornando le difese, implementando su larga scala strumenti basati anch’essi sull’AI”, conclude Strabla.
Contributo editoriale sviluppato in collaborazione con Horizon Consulting