Il Garante per il trattamento dei dati personali, il 12 ottobre 2022, ha aperto un’istruttoria su The Storyteller Company – Fakeyou, società che ha immesso sul mercato una app di deepfake vocali.
Indice degli argomenti
Cos’è FakeYou
Fakeyou consentirebbe, secondo notizia di stampa, di riprodurre voci di personaggi noti, anche italiani e pubblici come Giorgia Meloni, mediante file di testo.
La app, in pratica, recepisce un testo e lo rende sonoro con la voce del vostro attore, calciatore o giornalista preferito.
I timori e le richieste del Garante privacy su FakeYou
Il Garante si preoccupa, correttamente, dell’uso improprio di un dato personale identificativo qual è, appunto, la voce di ciascuno di noi.
Come per il deepfake video, l’allarme parte dai personaggi noti, ma si estenderà prestissimo a ciascuno di noi (vedremo poi meglio perché).
Nel comunicato stampa del Garante, si legge che “l’Autorità ha dunque chiesto alla società “The Storyteller Company – Fakeyou” di trasmettere con urgenza ogni possibile elemento utile a chiarire l’iniziativa. La società dovrà, tra l’altro, fornire le modalità di “costruzione” della voce dei personaggi famosi, il tipo di dati personali trattati, nonché le finalità del trattamento dei dati riferiti ai personaggi noti e agli utenti che utilizzano l’app”.
In altri termini, viene chiesto apertamente quale sia l’algoritmo alla base dell’intelligenza artificiale che riproduce le voci.
Interessante, infine, la richiesta di indicare con precisione l’esatta l’ubicazione dei data center che archiviano i dati personali e le misure tecniche ed organizzative adottate per garantire un livello di sicurezza adeguato al rischio.
Sarà stata anche richiesta, quasi certamente, la valutazione di impatto.
Il deepfake è già realtà
Il problema di Fakeyou non consiste tanto nella “clonazione” della voce di un soggetto, noto o meno, quanto piuttosto nel fatto che la app sia stata pensata per essere proposta ad un pubblico quanto più ampio possibile, utilizzando le voci di personaggi noti come “esca”.
L’intelligenza artificiale di Google è in grado di fare la stessa cosa con la voce di ognuno i noi da tempo: il punto è che il servizio viene erogato solo a condizioni strettissime, per i rischi che comporterebbe una divulgazione “aperta”.
Per quanto autori anche noti – su tutti: Marco Camisani Calzolari – sostengano che il Metaverso non esiste, perché si tratta solo di infrastrutture digitali con tecnologia 3d e non un mondo a parte, l’ipotesi di un nostro avatar virtuale in tre dimensioni che parla con la nostra stessa voce in tutte le lingue del mondo non è remota, anzi.
Basterà accedere ad una app che propone il “Metaverso”, far creare un avatar e far campionare la nostra voce per accogliere innumerevoli visitatori virtuali in modo realistico.
Non solo: con un software 3d e dei programmatori virtuali di livello, sarà possibile anche creare un ambiente in cui…far rivivere i morti.
Una riproduzione tridimensionale con la voce campionata di una persona deceduta potrà essere alla portata di molti, se non di tutti.
Il tema è chiaramente quanto l’imitazione digitale di parti del nostro sé – la voce, il volto- siano da tutelare in quanto dati personali. Perché il loro abuso può portare a conseguenze negative per la nostra persona.
Conclusioni
Il Garante è intervenuto tempestivamente ed ha fato bene: un argine va messo ed anche in fretta.
Già il deepfake nella sua precedente forma video ha fatto danni: era necessario imporre uno stop immediato e non scherzare sulla clonazione delle voci.
Vedremo l’esito: di certo il Garante ha segnalato il problema sia all’opinione pubblica che al legislatore.