Il 17 maggio 2023, il Comitato europeo per la protezione dei dati (EDPB) ha pubblicato la versione finale delle sue Linee Guida 05/2022 sull’uso di tecnologie di riconoscimento facciale nel settore del Law Enforcement, a fini di cooperazione giudiziaria e di polizia.
Le linee guida si rivolgono ai legislatori a livello dell’UE e degli Stati membri dell’UE, nonché alle autorità preposte all’applicazione della legge e ai loro funzionari che implementano e utilizzano tecnologie di riconoscimento facciale.
AI Act, super limiti al riconoscimento facciale, “ma in Italia il rischio c’è ancora”
Indice degli argomenti
Riconoscimento facciale: i limiti al trattamento dati
Secondo quando dichiarato dall’EDPB nell’Exectuive Summary del documento finale, sempre più autorità preposte all’applicazione della legge (LEA) applicano o intendono applicare le tecnologie di riconoscimento facciale (FRT), le quali vengono utilizzate per autenticare o identificare una persona e possono essere applicate a video (ad esempio, TVCC) o fotografie.
Il riconoscimento facciale si basa sul trattamento di dati biometrici; pertanto, comprende il trattamento di categorie speciali di dati personali. Spesso l’FRT utilizza componenti di intelligenza artificiale (AI) o di apprendimento automatico (ML). Se da un lato ciò consente un’elaborazione dei dati su larga scala, dall’altro comporta il rischio di discriminazione e di falsi risultati.
Il documento è costituito da un corpo principale in cui vengono delineate le Linee Guida e da tre allegati che comprendono:
- un modello per valutare la gravità dell’interferenza con i diritti fondamentali causata dalla tecnologia di riconoscimento facciale;
- una guida pratica per le autorità che desiderano procurarsi e utilizzare la tecnologia di riconoscimento facciale;
- una serie di scenari ipotetici e considerazioni pertinenti basate su alcuni usi delle FRT.
L’EDPB prende in considerazione il quadro giuridico applicabile, concentrandosi sulla Carta dei diritti fondamentali dell’UE (la “Carta”) e sulla direttiva 2016/680 sull’applicazione della legge (la “direttiva”). Per quanto riguarda la Carta, ad esempio, l’EDPB esamina l’interferenza con la Carta causata dal trattamento dei dati biometrici e il modo in cui l’interferenza può essere giustificata ai sensi dell’articolo 52 della Carta.
Secondo l’articolo 52, paragrafo 1, della Carta, qualsiasi limitazione all’esercizio dei diritti e delle libertà fondamentali deve essere prevista dalla legge e rispettare l’essenza di tali diritti e libertà.
Quindi, secondo l’EDPB, nell’attuazione del diritto dell’Unione, devono essere rispettate le disposizioni della Carta dei diritti fondamentali dell’Unione europea (cfr. articolo 52 della Carta). Il quadro e i criteri che la LED (Law enforcement Directive) fornisce devono quindi essere letti alla luce della Carta.
Di fatto, l’EDPB, all’interno delle Guidelines, risalta la necessità per le autorità giudiziarie e di polizia di beneficiare dei migliori strumenti possibili per identificare rapidamente gli autori di atti terroristici e altri reati gravi. Tuttavia, tali strumenti dovrebbero essere utilizzati in stretta conformità con il quadro giuridico applicabile e solo nei casi in cui soddisfino i requisiti di necessità e proporzionalità, come stabilito dall’articolo 52, paragrafo 1, della Carta.
La legittimità del trattamento dati
Per quanto riguarda la direttiva, l’EDPB esamina diverse aree, tra cui la legittimità del trattamento di categorie speciali di dati a fini di applicazione della legge e l’interazione tra la tecnologia di riconoscimento facciale e le norme relative al processo decisionale automatizzato.
L’EDPB osserva che “comprende la necessità per le autorità di contrasto di beneficiare dei migliori strumenti possibili per identificare rapidamente gli autori di atti terroristici e altri reati gravi”, ma che “tali strumenti dovrebbero essere utilizzati nel rigoroso rispetto del quadro giuridico applicabile e solo nei casi in cui soddisfano i requisiti di necessità e proporzionalità”.
Il documento individua, inoltre, diversi usi potenziali della tecnologia di riconoscimento facciale che considera ad alto rischio per le persone e la loro vita privata, o “altamente indesiderabili”, come l’identificazione biometrica a distanza di persone in spazi pubblicamente accessibili e l’uso del riconoscimento facciale per dedurre le emozioni di un individuo.
Timori per l’uso indiscriminato delle tecnologie di sorveglianza
L’attualità e la rilevanza di tale argomento richiamano un recente report pubblicato da Amnesty International relativamente all’uso da parte di Israele di tecnologie di sorveglianza intorno alla Città Vecchia di Gerusalemme per monitorare e controllare i palestinesi, rafforzando le pratiche discriminatorie esistenti di polizia, segregazione e limitazione della libertà di movimento, violando i diritti fondamentali dell’uomo.