L’Intelligenza Artificiale (AI) è una delle tecnologie chiave della quarta rivoluzione industriale e come ogni tecnologia ha un’anima perfettamente duale perché può essere sfruttata sia da chi innova per realizzare un sano sviluppo nei vari ambiti di business.
Ma può essere utilizzata anche da quegli attori malevoli che puntano a danneggiare per tornaconto, lucro o destabilizzazione.
Quando si usa una o più tecniche di AI per potenziare le capacità di individuazione precoce di attacco e per migliorare la difesa nella cyber security è necessario che lo stesso codice abilitante degli algoritmi di AI sia protetto da tecniche di cyber security.
Non si tratta di un paradosso, bensì della sistematizzazione delle tecniche di sicurezza informatica ad ogni livello del ciclo produttivo di qualsiasi software, specialmente di quello che realizza gli algoritmi di AI.
Rafforzamento della cooperazione europea sull’intelligenza artificiale: una visione condivisa
Indice degli argomenti
AI per la cyber security
L’Intelligenza Artificiale (AI) può essere utilizzata per la protezione dei sistemi connessi a Internet rispetto al rischio di minacce informatiche, attacchi, accessi non autorizzati e danni correlati.
Per risolvere in modo intelligente le sfide di sicurezza informatica, esistono diverse tecniche di intelligenza artificiale.
Queste coinvolgono metodi di machine learning (ML), deep learning (DL), l’elaborazione del linguaggio naturale (NLP), la rappresentazione e ragionamento della conoscenza (KRR), la modellazione di sistemi esperti (ES), l’AI generativa con i modelli linguistici di grandi dimensioni (Gen AI LLM), le reti neurali artificiali (ANN) e basate su regole.
Rispetto ai sistemi di sicurezza convenzionali la modellazione dell’intelligence di cyber security impostato su una o più tecniche insieme, ha reso più efficiente ed efficace il processo di prevenzione e individuazione di eventi/incidenti di sicurezza. In questo contesto il ricercatore Iqbal H. Sarker ha pubblicato nel 2021 un paper sulla “AI-Driven Cybersecurity” spiegando la Modellazione della Security Intelligence e le successive direzioni della ricerca in questo campo.
Recentemente è Nunzia Ciardi che in occasione del Cybertech 2023 ha sottolineato come i vantaggi dell’uso delle AI per la Cyber security risiedano nella automazione di attività ripetitive di controllo, per il monitoraggio e l’analisi di sicurezza, nell’analisi e nell’elaborazione finalizzati a migliorare le capacità decisionali in ambiti e contesti complessi e nella velocità di analisi per l’identificazione di anomalie (anomaly detection).
Qualità e quantità dei dati come fulcro delle iniziative a seguire
Marco Catino, sales engineer manager in Zscaler osserva come le AI possano avvantaggiare i difensori se i loro algoritmi sono applicati ad una vasta mole di dati, perché di fatto possono contare su un set di apprendimento di tipo globale.
Al contrario agli avversari recuperano spesso a costo basso algoritmi di AI generativa ma gli manca una vasta mole di dati “da cui imparare”.
E se il principale svantaggio del di chi difende è che deve riuscire a farlo interamente e integralmente su tutto il perimetro di protezione, il vantaggio cruciale dell’attaccante è che gli basta trovare una singola breccia per entrare e potenzialmente espandersi.
Questo sbilanciamento fra buoni e cattivi esiste da sempre ma a parità di tecnologia applicata la base di dati sui cui far “ragionare” la AI diventa un elemento determinante.
Proprio la qualità dei dati nei data lake aziendali è la pietra angolare su cui basare gli interventi successivi secondo Paolo dal CIN, Accenture Security Global Lead.
Perché ancora prima di parlare di AI generative di security, quante azioni di pulizia, consistenza ed eliminazione degli “out of date” o dei dati fuorvianti sono state effettuate?
In altre parole, tolti gli interventi di data protection ereditati dal GDPR quanti “data lake” (repository centralizzato che permette di archiviare tutti i dati strutturati e non su qualsiasi scala n.d.r.) sono veramente in sicurezza?
O in sicurezza tale da evitare il poisoning (letteralmente avvelenamento n.d.r.) di quei dati con accessi abusivi per realizzare addestramenti distorti di AI? Il tema cruciale, quindi, diventa la sicurezza del dato di partenza.
Dello stesso avviso Michele Lamartina, country manager di Palo Alto Networks Italia e Malta secondo cui l’adozione di tecniche di AI migliora se e solo se si interviene in modo appropriato ad organizzare, integrare, razionalizzare i dati per permettere una analisi e correlazione efficace. Questo tipo di intervento permette quindi di identificare i problemi in modo preventivo.
Uso distopico delle AI
Quanto ai rischi distopici dell’intelligenza artificiale legati alle indesiderate derive che possano compromettere, comprimere e perfino violare la sfera dei diritti della persona, è stato Bruno Frattasi a ricordarli sempre in occasione del Cybertech 2023. Il numero uno dell’ACN ha invitato tuttavia a guardare al processo regolatorio Europeo che, con l’AI ACT, si propone di disciplinare l’uso di questa dirompente tecnologia, vincolandolo al rispetto di standard prescrittivi ispirati a una via umano-centrica.
Per concorrere in questa direzione alla corretta definizione dei sistemi algoritmici per l’indirizzo a fini etici dell’uso degli strumenti di intelligenza artificiale, l’Agenzia per la Cybersecurity Nazionale (ACN) ha avviato una sinergia con l’Accademia rappresentata dal CINI e con l’Autorità Garante per la protezione dei dati personali, concretizzando il progetto del Laboratorio di intelligenza artificiale con l’obiettivo di indirizzare le soluzioni di AI verso un livello significativo di equilibrio tra responsabilità̀ e opportunità̀, per il bilanciamento fra i diritti fondamentali e le esigenze della ricerca scientifica e tecnologica.
L’IA e il rischio per le elezioni europee: la minaccia delle fake news e i possibili rimedi
Uso malevolo delle AI
Anche gli avversari digitali hanno scoperto diverse modalità con cui abusare delle AI utilizzandole a loro vantaggio per potenziare la capacità di elusione di protezioni digitali e quindi di attacco e danneggiamento; hanno imparato come rendere gli attacchi più efficienti per individuare e sfruttare le vulnerabilità nei sistemi ICT o per introdurre nuove capacità che possono prolungare o addirittura espandere le pratiche di minaccia informatica esistenti.
Con l’intelligenza artificiale, queste funzionalità stanno gradualmente diventando automatizzate e più difficili da rilevare. Già dal 2018 il gruppo OPEN AI aveva pubblicato in proposito un paper dal titolo “Preparing for malicious uses of AI”, ammettendo preoccupazione per l’uso duale di questa tecnologia e dichiararono apertamente come l’intelligenza artificiale fosse una tecnologia capace di applicazioni immensamente positive e immensamente negative (come per altre tecnologie passate: dinamite e scissione dell’atomo n.d.r.).
Questa possibilità non dovrebbe sorprendere perché l’esperienza nei contesti IT e di sicurezza informatica di chi ci lavora fin dagli albori del codice digitale, insegna che qualsiasi codice digitale è “sicuro” e “al sicuro” solo fino a quando non si manifesta un soggetto capace di produrre un attacco di successo su quel codice.
Sviluppo responsabile dell’IA: così USA e Regno Unito provano a valutare e mitigare i rischi
Correre ai ripari con metodo: la cyber security per la AI
Per risolvere questo problema è necessario rendere il codice delle Ai più sicuro e metterlo al riparo da un uso distorto. Per farlo vi sono diverse iniziative fra cui una interessante pubblicazione dell’ENISA dal titolo: “Artificial Intelligence and Cybersecurity Research”, ma in particolare si va affermando l’AI Trust, Risk and Security Management (AI Trism), un’area di ricerca che cerca di garantire che i sistemi di Intelligenza artificiale siano sicuri e affidabili e che i rischi associati al loro utilizzo siano ridotti al minimo. (Fonte Gartner).
Tra gli addetti ai lavori le soluzioni possono passare anche per alcune buone prassi: secondo Marco Catino per proteggere le AI si deve ricorrere alle misure di sicurezza applicativa perché qualsiasi sofware connesso in rete e raggiungibile può essere studiato dagli avversari per capire come violarlo.
In particolare, per gli algoritmi di AI deve essere protetto anche il set di dati di addestramento che se manipolati possono portare sia a maggiori capacità di attacco ma anche a distorsioni cognitive delle AI (pregiudizi, decisioni non etiche, etc). In questo senso auspica che la filosofia della scienza abbia una rinascita importante.
Paolo dal Cin, global lead Accenture security, suggerisce di intervenire a livello di tutta la catena di supply chain per arrivare ad una cyber resilience sistemica. Infatti, la progressiva industrializzazione digitale nelle filiere di software life cycle e nei security operation center che erogano servizi comporta la possibilità di un impatto sistemico.
Quindi con le terze parti si dovrebbero fare esercitazioni sulla postura di sicurezza. Nello sviluppo del codice sarebbe necessario intervenire per l’individuazione precoce dei bug.
Imparando dal confronto internazionale sulla protezione delle AI, si osserva come negli USA che da sempre non regolamentano, ma si basano sulla adozione volontaria di standard, invitando alla loro attuazione, il presidente Biden abbia auspicato e sia prossimo a pubblicare standard su AI per un uso responsabile e affidabile di questa tecnologia e delle sue tecniche implementative.
Le Big tech che le adottano nelle loro infrastrutture hanno dichiarato di aderire e questo dovrebbe ripercuotersi su controlli e contromisure di sicurezza affinché il loro codice sia sicuro e quindi a cascata quello di tutti gli altri che si basano sui loro prodotti e servizi. In Europa dove è stato emesso l’EU AI ACT, è la compliancy la sfida da vincere e si può raggiungere mediante programmi di awareness e una organizzazione votata alla governance delle iniziative di Cyber security.
Umberto Pirovano, responsabile della prevendita in Palo Alto suggerisce per tutti una regola aurea: chi fa cyber security dovrebbe sempre applicare a se stesso servizi e prodotti che offre agli altri.
Seguendo questo criterio le metodologie di sicurezza applicate dal vendor, ma che sono suggerite per chiunque produca prodotti digitali, passano per per il potenziamento della ricerca e sviluppo sui modelli algoritmici, possibilmente con un team dedicato allo sviluppo e training di algoritmi di Ai da applicare alla propria produzione.
Tecniche di shift left della security (anticipare nella catena di produzione del codice i controlli di sicurezza n.d.r.) e di DEVSECOPS consentono di produrre codice testato in termini di sicurezza.
Ma se proteggere mediante le AI significa anche raccogliere tanti dati e elaborare analisi di telemetria per essere adeguati ad una analisi affidabile, lo stesso sistema di analisi può essere applicato agli algoritmi di AI affinché l’applicazione ricorsiva permetta di misurarsi, valutarsi e infine trovare i punti da fortificare.
Non era forse una massima di Sun TZU quella per cui se conosci il nemico e te stesso, la tua vittoria è sicura?