Il 13 ottobre la Commissione dell’Unione Africana ha fatto sapere di essere stata vittima di un’offensiva Deepfake il cui prodotto è stato una serie di dialoghi tra il presidente Moussa Faki e alcuni leader UE i cui nomi non sono trapelati. Al di là della connotazione politica dell’episodio, ciò che interessa è il modo in cui sono stati presi i contatti preliminari utili a organizzare le videochiamate e, di conseguenza, comprendere come arginare il problema, reso ancora più serio dalle capacità conferite dalle IA generative.
I pericoli intrinseci sono persino inimmaginabili e non solo sul piano politico. Facile immaginare come, grazie al deepfake, un personaggio di rilievo possa creare scompiglio sui mercati pronunciando frasi allarmanti. Un episodio reale risale al mese di marzo del 2020 quando, nel pieno della pandemia, delle uscite poco felici della presidente della Banca Centrale Europea, Christine Lagarde, ha fatto crollare la borsa italiana del 16,92% nel giro di poche ore.
Facendo leva sul deepfake si potrebbero simulare interventi lampo, mirati e lapidari capaci di sconvolgere equilibri internazionali.
Deepfake in tempo reale: cosa sono, come funzionano e quali tutele per prevenire la minaccia
Indice degli argomenti
Il deepfake e Moussa Faki
Le videoconferenze sono state organizzate usando indirizzi email riconducibili al dominio @africa-union.org che l’Unione africana ha sottolineato non essere legittimi e ha fatto sapere che, in futuro, chiederà colloqui soltanto mediante lettere ufficiali.
Non è chiaro quale siano state le entità dei colloqui intrattenuti durante le videochiamate manipolate né, al momento almeno, sono note le finalità dei cyber criminali. Può essere stato un atto puramente dimostrativo, una prova generale oppure un tentativo di appropriarsi di dati.
Ad aprile del 2021 si è verificato un altro caso passato alla cronaca che ha visto coinvolti diversi legislatori europei, indotti con l’inganno a parlare con un falso Leonid Volkov, aiutante del leader dell’opposizione russa incarcerato Alexey Navalny.
Come ridurre il rischio dei deepfake
C’è quindi da chiedersi come sia possibile ridurre il rischio di deepfake ma c’è anche da apprendere dai diversi casi che si sono verificati. Ne abbiamo parlato con Pierluigi Paganini, esperto di cyber security e intelligence.
Cominciamo dal mezzo usato per concordare i video colloqui, ovvero le email. Gli aggressori sono in grado di emulare gli indirizzi di una qualsiasi organizzazione affinché agli occhi dei destinatari tutto sembri essere normale. Viene da chiedersi se la posta elettronica debba essere declassata, possibilità che Pierluigi Paganini scarta a priori: “Pure riconoscendo nell’email un vettore privilegiato per diverse tipologie di attacco non possiamo demonizzare questo prezioso strumento di comunicazione. Esistono diverse pratiche e tecnologie che possono consentire un uso sicuro delle email, è fondamentale diffondere perciò conoscenza su di essi. L’utilizzo di crittografia end-to-end può consentire di proteggere il contenuto dei messaggi da occhi indiscreti, mentre metodi di autenticazione come DKIM e SPF (acronimi di DomainKeys Identified Mail e di Sender Policy Framework) possono consentire di verificare l’autenticità di un indirizzo email del mittente e metterci al riparo da mail fasulle (attacchi di spoofing)”.
Rispetto al tema della conoscenza dei rischi: “Fondamentale è anche la formazione degli utenti sulle best practice da seguire per una corretta postura di sicurezza, ad esempio come l’evitare di aprire allegati sospetti o cliccare su link ed immagini nel corpo delle mail che si ricevono”, aggiunge Paganini.
C’è da comprendere anche come riconoscere ciò che è falso e ciò che invece non lo è: “Riconoscere un deepfake ben fatto è davvero complesso e può richiedere sofisticate tecniche di analisi forense. Esistono software ad hoc che agevolano questo tipo di indagini. Va comunque detto che, spesso, è possibile ancora riconoscere deepfake mediante l’analisi visiva del video prestando attenzione a dettagli come distorsioni nei bordi della figura (per esempio i capelli, gli occhi o la bocca), movimenti anomali di oggetti o persone nel video, e sbalzi di luminosità o contrasto delle immagini”.
“Anche l’analisi dell’audio può fornire preziose indicazioni: distorsioni della voce o problemi di sincronizzazione audio-video ci forniscono indicazioni di chiare alterazioni dei video. È utile inoltre verificare le fonti, comprendere l’origine del video ricostruendo la storia delle condivisioni dello stesso su piattaforme attendibili”.
Non si tratta, quindi, di accorgimenti veri e propri, conclude Paganini: “Più che accorgimenti, farei tesoro delle tecniche descritte prima, occorre essere scettici dinanzi a qualunque video sospetto che ci arriva ed analizzarne con attenzione ogni aspetto, soprattutto se non si dispone di capacità tecniche e di software specifici”.