Si chiamano deepfake i video nei quali alle immagini reali vengono sovrapposte immagini finte, spesso anche con un audio volutamente contraffatto. Quella che può sembrare una divertente postproduzione video è in realtà una tecnica di manipolazione delle immagini basata sull’uso di tecnologie di intelligenza artificiale e deep learning
Abbiamo tutti sorriso, ad esempio, vedendo il video di Matteo Renzi che parlava male dei propri alleati o di Mark Zuckerberg che affermava di avere il controllo sulle nostre vite pur sapendo che erano dei falsi. Sorridiamo un po’ meno se ci soffermiamo a riflettere sull’impatto che le metodologie e le tecnologie che hanno consentito di rendere così realistici questi video potrebbero avere sulle nostre aziende.
Indice degli argomenti
Deepfake: un grimaldello contro le principali misure di sicurezza
I deepfake, infatti, sono in grado di scardinare facilmente alcune delle principali misure di sicurezza che poniamo generalmente in essere, e tale riflessione dovrebbe imporci di correre ai ripari prima che il fenomeno esploda in tutta la sua potenziale drammaticità.
Da anni viene unanimemente evidenziato, con il supporto di dettagliate analisi e ricerche, che la componente umana (il cosiddetto Fattore H) è la principale causa di incidenti informatici, truffe e sottrazioni di dati personali o riservati.
I deepfake agiscono purtroppo proprio sui principali sensi (vista e udito) che maggiormente condizionano il comportamento umano e portano, più o meno inconsciamente, a stabilire cosa sia vero o falso.
Se pensiamo quindi che delle semplici e-mail ben fatte hanno consentito quest’anno di sottrarre ben 17 milioni di dollari alla Maire Tecnimont (e chissà quante altre truffe non sono venute alla luce), capiamo bene che se questi raggiri vengono supportati da credibili messaggi vocali o brevi video di persone apicali che invitano, in maniera più o meno imperativa, a inviare denaro o documentazione, aprire accessi al sistema informatico o compiere qualsiasi altra operazione con la massima urgenza, la possibilità di bloccare la cosa facendo leva solo sulla sensibilizzazione e formazione del personale è piuttosto modesta.
Formare e informare il personale per difendersi dai deepfake
Il primo esempio ce lo fornisce il recente rapporto di Deeptrace, team olandese specializzato nel settore, che rivela come a marzo 2019 un CEO di una azienda inglese avrebbe acconsentito ad inviare 243.000 dollari su un conto ungherese a seguito di una telefonata apparentemente proveniente dal CEO della casa madre tedesca la cui voce era stata presumibilmente clonata.
Tutto ciò non vuol dire che non si debba proseguire con percorsi formativi che sensibilizzino il personale a tutti i livelli e gli forniscano gli strumenti per riconoscere le diverse tecniche malevoli, che semmai dovrebbero essere intensificati, ma semplicemente riconoscere che non possono più essere ritenuti sufficienti e che l’azienda deve porre in campo misure organizzative e procedurali che aiutino il personale stesso a non essere ingannato.
Ci si riferisce a un piano organico che identifichi tutti i dati e le operazioni a rischio e preveda a tutti i livelli aziendali una doppia autorizzazione o validazione oppure procedure sicure, univoche e predeterminate per impartire le diverse disposizioni.
Le aziende più virtuose e/o più strutturate hanno già procedure di questo genere ma sono generalmente frammentate e focalizzate sui rischi facilmente percepiti e sui dati ritenuti ad altissimo valore (proprietà o segreti aziendali).
Misure tecniche e organizzative adeguate al rischio deepfake
L’entrata in vigore del Regolamento UE 679/2016 (GDPR) rende invece necessario estendere tale pratica a tutti i dati personali trattati e quindi a buona parte se non a tutta l’attività aziendale.
L’art. 32 del citato Regolamento impone, infatti, relativamente al trattamento di dati personali, di porre in essere misure tecniche e organizzative adeguate al rischio. Tenendo conto della velocità con cui si stanno evolvendo e diffondendo, il rischio connesso all’esistenza di tecnologie basate sull’intelligenza artificiale non può più essere trascurato.
D’altronde, chi ha definito correttamente la compliance alla normativa sul trattamento dei dati personali non dovrà partire da zero; potrà ampliare il registro dei trattamenti includendo i dati non personali, identificare le fasi in cui potrebbe essere sferrato un attacco di social engineering basato su tecnologia deepfake e porre in essere misure di controllo e convalida adeguate al rischio connesso ad una eventuale violazione.
Un’ altra attività malevole da cui già si deve guardare un’azienda e che riceverà un grosso aiuto dall’utilizzo di deepfake è certamente la creazione di falsi profili sui social.
La realizzazione o manipolazione di immagini fotografiche e filmati sempre più credibili da poter postare aumenterà la possibilità di potersi accreditare come personaggi del tutto attendibili e tentare di carpire dati come nel caso della falsa giornalista di Bloomberg citato dal suindicato rapporto.
In questi casi, l’unica difesa che può essere adottata, salvo l’utilizzo di idonei software ancora poco diffusi, è la sensibilizzazione del personale ad elevare il grado di diffidenza ed effettuare verifiche e controlli anche in questo caso commisurati al rischio di violazioni.
Anche le granitiche certezze che noi tutti abbiamo sin qui riposto sulle tecniche di riconoscimento basate sulla biometria rischiano di vacillare vista la già citata velocità di sviluppo dell’intelligenza artificiale.
Tenendo presente che GAN (Generative Adversarial Network, in italiano: rete generativa avversaria), la più utilizzata classe di algoritmi con cui vengono realizzati i deepfake, risulta essere stata avviata solo nel 2014 possiamo ancora escludere che non ci sarà ben presto qualcuno in grado di riprodurre le caratteristiche biometriche in maniera tale da poter ingannare anche i sistemi informatici?
Una seria minaccia per la reputazione societaria
Ma il campo dove i deepfake possono esercitare i maggiori effetti negativi per le aziende è probabilmente quello degli attacchi alla reputazione societaria o dei relativi manager.
Se, come abbiamo posto in evidenza, le organizzazioni possono evitare conseguenze negative subordinando l’operatività del personale a procedure che possono portare alla luce eventuali inganni, non esistono misure preventive che possano essere messe in campo per evitare gli impatti dei deepfake sulla pubblica opinione, ma solo semmai per contenerne i danni.
Ciò che ormai un’azienda non può più permettersi, è di gestire la comunicazione esterna come avveniva solo pochi anni fa.
Posto che i deepfake appaiono sempre più reali, che i tempi di diffusione sulla Rete sono sempre più veloci come altresì è scarsa la propensione delle persone ad approfondire, verificare o anche solo riaffrontare i medesimi temi a distanza di tempo, reagire con uno scarno e magari tardivo comunicato stampa può comportare pesanti conseguenze negative che possono protrarsi per periodi anche molto lunghi.
Occorre, in questi casi, analizzare preventivamente i rischi, prevedere le possibili minacce e predeterminare le migliori strategie di comunicazione da mettere in campo nel minor tempo possibile.