La fiducia nella sicurezza informatica dell’AI dipende dalle sue capacità tecniche e anche dalla sua capacità di analizzare in modo affidabile i dati in ambienti reali. In altre parole, l’AI sta trasformando la sicurezza informatica migliorando la capacità di rilevare, rispondere e monitorare le minacce realizzando una collaborazione uomo-macchina pienamente migliorata.
Ma nonostante i progressi dell’AI e la persistente crescita degli attacchi cyber, non è realistico affidare il pieno controllo delle decisioni sulla sicurezza all’AI. Piuttosto, combinare l’intelligenza artificiale (AI) con l’esperienza umana, crea sistemi di sicurezza più forti e adattabili: gli strumenti AI elaborano rapidamente grandi quantità di dati e individuano modelli che potrebbero indicare minacce, lavorando insieme a esperti umani che apportano una profonda comprensione e pensiero strategico.
Potremmo dire che la collaborazione umana è essenziale per risolvere alcune limitazioni dell’AI: gli esperti di sicurezza umana che possono guidare, supervisionare e valutare gli output degli agenti di AI.
Questa partnership migliora la capacità di rilevare e rispondere alle minacce, rendendo gli sforzi di sicurezza informatica più efficaci e resilienti.
In che modo questa collaborazione possa diventare un partenariato di lungo corso, sia sul fronte della difesa e protezione, sia per l’opportunità di crescita specialistica dell’essere umano nell’interazione operativa arricchita con gli agenti AI, lo spiega Dorit Dor, Chief Technology Officer di Check Point Software Technologies (CPST) che nella recente conferenza CPX2025 a Vienna ha fornito elementi di innovazione in questo senso e ha approfondito ulteriormente l’argomento con noi.
Indice degli argomenti
Il partenariato uomo-AI nella difesa e protezione di cyber security
Alla domanda se possa esistere una vera partnership tra esseri umani e AI per gli obiettivi di sicurezza informatica, Dor spiega che il termine “partnership è ampio e la sicurezza informatica comprende molte sfaccettature”.
Scarica la guida definitiva per la Cybersecutiry e gestione del rischio nel settore finanziario
Quindi suggerisce che “per analizzare efficacemente l’interazione tra IA e sicurezza informatica, sono da considerare cinque aspetti chiave: 1) attacchi basati sull’AI, ovvero come gli aggressori utilizzano e utilizzeranno l’AI per migliorare le proprie capacità e il conseguente impatto sul panorama delle minacce; 2) l’AI per la difesa che riguarda l’applicazione delle tecnologie di IA per proteggere in modo proattivo dagli attacchi informatici; 3) l’AI per le operazioni di sicurezza che sfrutta utilizzo dell’AI per semplificare le operazioni di sicurezza, inclusa la gestione degli indicatori chiave di prestazione (KPI), la generazione di report e la garanzia della conformità; 4) la protezione dei sistemi di AI stessi per la loro salvaguardia da attacchi e vulnerabilità; 5) la gestione dei rischi sui dati correlati all’AI per la mitigazione dei rischi sui dati associati allo sviluppo e all’implementazione dei sistemi di AI”.
Ad esempio, per il punto due in CPST i sistemi di AI sono usati per la ThreatCloudAI che rappresenta il cervello capace di alimentare oltre 40 motori AI collaborativi per fornire servizi accurati di prevenzione mediante monitoraggio di milioni di e-mail, siti Web, file, applicazioni mobili e moduli Web per creare un quadro degli attacchi di efficacia misurabile (99,7%).
Ma per chiunque voglia implementare agenti di AI security nei propri sistemi, la CTO fornisce la sua ricetta per approcciare questa opportunità da un punto di vista di nuova capacità aziendale suggerendo di “instaurare attività di ricerca, sviluppare e fare test, costruire capacità autonome e prendere in considerazione una base open source da migliorare autonomamente senza dimenticare di definire principi base per i data set di apprendimento”.
Nello sviluppo di capacità tramite entità esterne – spiega Dorit Dor – invece è consigliabile: “validare i fornitori di tali sistemi, considerare chi sta sperimentando e chi è maturo nell’uso di tali tecnologie per poi darsi una organizzazione interna appropriata di risorse e competenze, per governare il nuovo contesto”.
Quando le AI sono usate lato aggressore, possono costituire una leva altrettanto efficace per l’offesa, come ammette l’esperta: “È innegabile che gli aggressori sfrutteranno sempre di più l’AI per perfezionare le proprie tattiche, portando a un panorama delle minacce più sofisticato e dinamico”, suggerendo come “per anticipare attacchi mirati più massicci, si devono adattare le difese in modo proattivo e un approccio promettente prevede una collaborazione uomo-AI: combinando l’esperienza umana con la velocità, l’accuratezza e la scalabilità dell’IA, si possono ottenere difese più rapide e scalabili, maggiore accuratezza ed efficacia del rilevamento e della prevenzione, nonché una migliore risoluzione degli incidenti di sicurezza ed infine una attenuazione del divario di competenze nella sicurezza informatica”.
Potenziali elementi evolutivi potrebbero riguardare una collaborazione a supporto ‘alternato’ ovvero, chiarisce Dor, “in tutti gli aspetti di difesa della sicurezza informatica, l’AI svolge un ruolo cruciale. Di solito oggi l’AI assiste gli operatori umani, ma in futuro possiamo supporre che l’AI opererà in modo più autonomo e gli esseri umani assisteranno l’AI. Inoltre, la stessa collaborazione ha il potenziale per avere un impatto positivo su vari aspetti della nostra vita, portando a una società più sicura, efficiente e arricchita”.
A queste considerazioni si aggiunge David Gubiani, Regional Director Sales Engineering per EMEA Southern & Israel in Check Point Software Technologies che avverte come “l’AI sia utile ma con l’accorgimento di proteggerla, perché la tecnologia in sé non è buona o cattiva, ma cambia con ‘l’uso che se ne fa’ da parte degli esseri umani: da un lato ne possono beneficiare, ma dall’altro possono essere danneggiati dalle informazioni usate contro il singolo o la sua organizzazione. Quindi, la vera svolta è la consapevolezza dell’utente finale sia sulle potenzialità da usare sia sul valore dei loro dati”.
Opportunità per la crescita delle competenze specialistiche umane
Ovviamente anche a livello personale l’AI può aumentare le capacità di assistente e a supporto dell’essere umano; l’importante è che il singolo non si ‘adagi’ o ‘impigrisca’ o peggio ecceda nella delega alle AI per ‘non fare’ rifugiandosi in una pericolosa de-responsabilizzazione.
A questo proposito la dottoressa Dor crede che “tutta questa evoluzione delle AI rappresenti una fantastica opportunità per gli esseri umani, per abbandonare compiti noiosi e ripetitivi e concentrarsi su un lavoro più appagante e di impatto”.
In particolare cita il lavoro degli sviluppatori che potrebbero “ampliare la propria prospettiva per diventare architetti di sistema, supervisionando la progettazione e l’integrazione dei sistemi di intelligenza artificiale; sviluppare una comprensione più approfondita delle esigenze degli utenti e tradurre tali esigenze in soluzioni innovative basate sull’intelligenza artificiale” ma, a detta dell’esperta “si possono prevedere cambiamenti simili in vari ruoli tecnologici.
Sebbene sia vero che le attività di livello junior possano essere più suscettibili all’automazione, questo rappresenta anche un’opportunità per sfruttare l’intelligenza artificiale per accelerare il trasferimento delle conoscenze e facilitare uno sviluppo più rapido delle competenze; migliorare le competenze della forza lavoro fornendo accesso a percorsi di apprendimento personalizzati e programmi di formazione basati sull’intelligenza artificiale”.
In sintesi “accogliendo questi cambiamenti, possiamo creare un futuro in cui esseri umani e intelligenza artificiale lavorano insieme senza soluzione di continuità, sbloccando nuovi livelli di creatività, innovazione e potenziale umano”. Ma attenzione un consiglio per avviare i lavori suggerisce di darsi da fare rapidamente: “Start yesterday and keep on running!”.