Con lo sviluppo sempre maggiore dell’intelligenza artificiale (IA) e le nuove capacità di apprendimento automatico, è inevitabile che crescano anche rischi per la cyber security derivanti da usi malevoli di queste tecnologie.
Mediante l’utilizzo della IA i costi degli attacchi ai sistemi informatici, infatti, potrebbero essere ridotti significativamente, utilizzati per svolgere attività che normalmente richiederebbero lavoro umano, intelligenza e competenza, con l’inevitabile aumento della velocità alla quale possono essere effettuati gli attacchi.
Inoltre, come ci spiega AgendaDigitale nell’articolo Cyber security e intelligenza artificiale, così cambiano le minacce informatiche, è facile aspettarsi che gli attacchi abilitati dall’uso crescente dell’IA possano essere particolarmente efficaci, finemente mirati, difficili da attribuire e in grado di sfruttare anche le vulnerabilità proprio dei sistemi di Intelligenza Artificiale utilizzati dall’altra parte della barricata da chi è preposto alla difesa dei sistemi.
In risposta al panorama mutevole delle minacce è necessario che politici, ricercatori e tecnici collaborino per studiare, prevenire e mitigare i potenziali usi dannosi di IA. È altresì necessario che i ricercatori promuovano una cultura della responsabilità e considerino la natura a duplice uso (civile e militare) del loro lavoro, consentendo che le considerazioni relative all’uso improprio influenzino le priorità e le norme della ricerca, ripensando norme e istituzioni intorno alla ricerca open access, a partire dall’annoso problema della valutazione dei rischi di pre-pubblicazione in aree tecniche di particolare interesse o particolarmente sensibile.
Di contro, la nuova normativa europea sulla privacy (GDPR), come ci racconta l’articolo GDPR, cosa cambia per la sicurezza informatica su Digital4Trade, ha di base favorito l’avvento di sistemi di monitoraggio intrusioni con tecniche di intelligenza artificiale: negli ultimi anni, infatti, c’è stata molta innovazione nell’utilizzo di tale tecnologia, grazie soprattutto allo sviluppo delle tecniche di riconoscimento di immagini e ai motori di deep learning applicati a casi reali.
Questa innovazione si sta trasferendo dal riconoscimento immagini ad altri settori come ad esempio il monitoraggio per il riconoscimento in ambito sicurezza, che sembra essere uno dei maggiori beneficiari.
Il problema principale nel monitoraggio degli eventi di sicurezza è sempre stato il tema dell’analisi e correlazione, attività onerosa e svolta in generale da analisti specializzati: un maggiore supporto da parte di tecnologie evolute potrebbe portare, quindi, ad una maggiore diffusione ed efficacia degli strumenti.
Naturalmente, come sempre quando una tecnologia consuetudine, servirà una selezione efficace dei prodotti realmente efficaci, con un controllo delle effettive capacità dei sistemi senza farsi prendere dalla foga della moda e, soprattutto, cercando di ottenere il massimo ROI da soluzioni che possono realmente fare la differenza.
A cura di Manuela Santini, Information & Cyber Security Advisor presso P4I – Partners4Innovation e Gaia Rizzato, Trainee Information & Cyber Security presso P4I – Partners4Innovatio