Il diavolo sta nei dettagli e i dettagli si scrivono nei tavoli tecnici: Politico ha raccolto l’allarme su un utilizzo “cinese” dei software di intelligenza artificiale per il riconoscimento biometrico nel “nuovo” testo dell’AI Act, così come “trapelato” dal tavolo tecnico a tre che ne sta discutendo (ossia Parlamento, Consiglio e Commissione UE).
Cerchiamo di capire la situazione.
IA, privacy a rischio? Come tutelarla, le strategie UE e USA
Indice degli argomenti
AI Act: dove eravamo rimasti
Nella prima metà di dicembre Il Consigli europeo, la Commissione europea ed il Parlamento europeo avevano trovato un “accordo politico”, il cui contenuto era apparso subito vago ma che, già ad una prima lettura, indicava chiaramente che il testo più rispettoso dei diritti civili, ossia quello del Parlamento, sarebbe stato rivisto in modo restrittivo.
Da qui in poi, la palla era passata al tavolo tecnico, dove tutte e tre le parti del processo legislativo europeo (il cosiddetto trilogo) hanno discusso – e stanno tuttora discutendo – gli aspetti più specifici e “testuali” della bozza.
Cosa sappiamo
Il tema più scottante, per quanto riguarda i diritti civili, è il riconoscimento facciale c.d. “successivo” quello, cioè, che non viene effettuato in tempo reale (come avviene, ad esempio, quando si “sblocca” lo smartphone).
Il riconoscimento facciale successivo viene impiegato per verificare l’identità di un soggetto ripreso da una fotocamera o da una videocamera mediante un software di intelligenza artificiale in un momento diverso e, appunto, successivo, alla ripresa.
Per invasività, questo strumento viene equiparato alle intercettazioni di conversazioni e flussi di dati tramite telefono o smartphone: anche di questo si è già ampiamente parlato.
Il tema, quindi, non è tanto l’impiego di questa tecnologia, quanto piuttosto i limiti che vengono posti al suo utilizzo.
L’allarme lanciato da alcune associazioni per i diritti civili, quindi, riguarda l’eccessiva ampiezza e discrezionalità di impiego dello strumento, per fini di indagine, attribuito alla polizia giudiziaria o alle autorità statali in generale.
A detta dell’europarlamentare tedesco Hahn, le modifiche introdotte nel testo in tema di utilizzo di dati biometrici per riconoscimento facciale sarebbe eccessivo anche in relazione all’accordo politico del dicembre 2023.
Sarebbe previsto, in altri termini, un impiego di questa tecnologia che va oltre la ricerca degli autori di gravi reati e che non prevederebbe l’autorizzazione da parte di un’autorità giudiziaria per essere impiegata.
Entrambi punti, questi, oggetto dell’accordo di dicembre.
Conclusioni
Il passaggio è interlocutorio ma interessante, perché non è chiaro se “l’allarme” sia fondato o meno: in altri termini, non è chiaro se il problema sia reale o se non si tratti piuttosto, di una boutade finalizzata a sensibilizzare l’opinione pubblica e a creare un braccio di ferro interno agli organi dell’Unione.
Certo è che il testo definitivo dovrebbe essere consegnato agli organi competenti tra il 24 gennaio ed il 10 febbraio 2024 e allora si potrà verificare in concreto se davvero c’era un problema sul riconoscimento facciale successivo.
In linea di principio, l’utilizzo di questo strumento dovrebbe essere limitato al massimo, con un ampliamento significativo di ogni garanzia possibile per il cittadino.
Il parallelo già proposto è con le intercettazioni di conversazioni: se per intercettare è necessaria l’autorizzazione – preventiva – di un magistrato o di un’autorità indipendente dalla pubblica accusa., analogo discorso dovrebbe valere per il riconoscimento facciale.
Ceto è che l’AI Act è un regolamento strategico per l’Unione, oggi e in prospettiva futura, quindi, è comprensibile che vi siano discussioni molto accese sul punto.
Continueremo a seguire l’iter approvativo del documento per aggiornarvi su ulteriori sviluppi.