Il Ministro dell’Interno Matteo Piantedosi in un’intervista ha affermato di voler introdurre i sistemi di videosorveglianza con riconoscimento facciale nei luoghi pubblici, installando telecamere biometriche in stazioni, ospedali e zone commerciali di Milano, Roma e Napoli.
Una decisione spinta anche da recenti notizie su stupri e aggressioni avvenute in luoghi pubblici.
Circolano commenti anche a mezzo stampa secondo cui non si può fare riconoscimento facciale per via di una moratoria (DL Capienze 2021), ma Agendadigitale.eu e Cybersecurity360 sono state tra le prime testate a denunciare il forte limite di quella moratoria: di fatto autorizza l’uso di riconoscimento facciale a scopo di sicurezza; previo però parere favorevole del Garante Privacy.
Riconoscimento facciale, perché la moratoria non basta: tutti i nodi della norma italiana
Indice degli argomenti
Ministro dell’Interno per il riconoscimento facciale in pubblico
In un’intervista al Quotidiano Nazionale, il ministro dell’Interno Piantedosi, parlando di crimini commessi da persone di origine straniera, ha affermato che le tecnologie di riconoscimento facciale sarebbero utili per mitigare ed arginare questi reati.
A livello statistico, il ministro dell’Interno ha ammesso la maggior sicurezza delle città italiane rispetto al resto d’Europa e agli Usa. Tuttavia ha associato l’emergenza a questo tipo di criminalità, al fine di introdurre la videosorveglianza.
“Temo che dietro a questo tentativo di resuscitare il riconoscimento facciale ci sia soltanto la faccia feroce: una strizzata d’occhio sulla percezione della sicurezza, ma non una serie di provvedimenti seri per la sicurezza dei cittadini. Non potendo mettere nuove forze sulle strade, accendo una telecamera. Ma è più l’ammissione di una impotenza che non una risposta efficace ed efficiente”, dice a Cybersecurity360, Filippo Sensi, deputato PD, impegnato su questi temi.
La moratoria del 2021
La moratoria è in vigore dal 2021 e scade nel 2023.
Si legge nel DL Capienze: che è valido il riconoscimento facciale per “i trattamenti effettuati
dalle autorita’ competenti a fini di prevenzione e repressione dei reati o di esecuzione di sanzioni penali di cui al decreto
legislativo 18 maggio 2018, n. 51, in presenza (…) di parere favorevole del Garante reso ai sensi dell’articolo 24, comma 1, lettera b), del medesimo decreto
legislativo n. 51 del 2018″. Il parere non serve qualora “si tratti di trattamenti effettuati dall’autorita’ giudiziaria nell’esercizio
delle funzioni giurisdizionali nonche’ di quelle giudiziarie del pubblico ministero”.
Da allora il Garante della Privacy ha impedito tutti i tentativi di introduzione di videosorveglianza da parte di comuni e forze dell’ordine di ottenere l’installazione di sistemi di riconoscimento facciale in pubblico.
La polizia di Stato aveva cercato di installare il sistema di sorveglianza biometrica Sari Real Time, ma proprio nel 2021 l’Autorità ha respinto il tentativo.
Nello stesso anno il Garante ha bocciato il progetto Argo del comune di Torino. E nel 2022 ha bloccato il sistema biometrico di sicurezza urbana del comune di Lecce e di Arezzo.
Perché bisogna preoccuparsi per il riconoscimento facciale
“Non c’è comunque da festeggiare per questa moratoria. L’eccezione è molto ampia e quindi il progetto di Piantedosi probabilmente sarà fattibile”, dice l’avvocato Diego Di Malta di Privacy Network. Se non ora dal 2024, quando scade la moratoria; “il Governo probabilmente farà un’altra legge per evitare il vuoto normativo”.
A quel punto bisognerà vedere se eliminerà l’ok del Garante privacy.
Il limite del riconoscimento facciale in pubblico ha una giustificazione: questi sistemi producono spesso falsi positivi con maggior frequenza fra le minoranze etniche. La videosorveglianza rischia di generare violazioni del diritto alla privacy, alimentando condotte discriminatorie che vanno a sommarsi alla retorica sui crimini commessi da persone di origine straniera.
Ci sono almeno cinque casi di afroamericani accusati ingiustamente dal riconoscimento facciale e per questo arrestati di fronte alla famiglia; uno di questi sta facendo causa allo Stato. Si chiama Robert Williams e vive nell’area di Detroit, nel Michigan. È stato arrestato nel giardino di casa sua, davanti alle due figlie molto piccole e alla moglie. La polizia di Detroit lo ha tenuto in carcere per 30 ore e lo ha interrogato per un reato di taccheggio con cui non aveva nulla a che fare. Infatti, al momento dell’incidente stava tornando a casa dal lavoro a chilometri di distanza dalla città. Eppure la polizia ha preso il risultato di una ricerca di riconoscimento facciale che lo ha identificato in modo errato e si è basata su di esso per ottenere un mandato di arresto.
Sul tema c’è ormai ampia letteratura scientifica.
Questa tecnologia è pericolosa quando commette errori, come nel caso dei falsi arresti, ma lo è anche quando riesce a identificare correttamente le persone.
- C’è prima di tutto un problema di bias algoritmico basato sui dati. Questi algoritmi sono stati testati dal National Institute of Standards and Technology e da numerosi ricercatori indipendenti, che hanno scoperto che gli algoritmi di riconoscimento facciale hanno tassi significativamente più alti di false identificazioni quando vengono usati per cercare di identificare persone di colore, in particolare neri. Ciò è dovuto in parte al fatto che gli algoritmi vengono addestrati fornendo loro enormi serie di coppie di foto diverse dello stesso volto, e queste serie di dati di addestramento sono state storicamente composte in modo molto sproporzionato da volti di persone bianche, il che significa che gli algoritmi sono più bravi a identificare i bianchi che le persone di colore. I problemi sono dovuti anche alle impostazioni predefinite di contrasto del colore nelle fotocamere digitali, che sono ottimizzate per le persone con la pelle più chiara. Ciò significa che i dettagli dei volti delle persone di carnagione più scura sono spesso meno distinguibili, per cui i sistemi hanno meno dati da elaborare e quindi il tasso di false identificazioni è più elevato.
- Ci sono molte ricerche che dimostrano che gli esseri umani hanno una minore capacità di identificare persone di altri gruppi razziali. Quindi, se è un impiegato di polizia bianco a cercare di capire la presunta corrispondenza del computer con un sospetto nero, avrà maggiori probabilità di sbagliare lui stesso. Non correggeranno l’errore con l’AI, ma lo peggioreranno. E’ il tema dell’amplificazione del bias razzistico umano a causa dell’uso della macchina. Anche perché altri studi dicono che si tende a dare una eccessiva fiducia alla valutazione fatta da una macchina.
- A ciò si aggiungono tutti i pregiudizi già presenti nel nostro sistema di applicazione della legge penale. Quando i dipartimenti di polizia locale acquistano l’accesso a un algoritmo di riconoscimento facciale, in genere lo usano per cercare di confrontare le foto delle persone che vogliono identificare con il loro database fotografico. Di quale database fotografico dispone un dipartimento di polizia locale? Di solito le foto degli arresti. Sappiamo che i dipartimenti di polizia esercitano in modo sproporzionato un’eccessiva attività di polizia nelle comunità di colore, quindi questi database di foto segnaletiche saranno composti in modo sproporzionato da persone di colore e marroni, il che significa che il database di corrispondenza non è rappresentativo della popolazione generale. Questo crea la prospettiva di un’errata identificazione delle persone e, in particolare, delle persone di colore. Anche in questo caso c’è il tema dell’amplificazione del bias sociale a causa dell’uso dell’AI. L’AI non solo riflette ma persino amplifica il bias rendendolo sistematico perché scavalca ogni possibile filtro umano.
- La prospettiva più temibile è il riconoscimento facciale applicato a videocamere che seguano e quindi tracciano tutti i movimenti di tutte le persone, a cominciare dalle comunità che sono già svantaggiate, creando un clima di sorveglianza di massa e ulteriore divisione sociale.
Il principale rischio legato all’utilizzo del riconoscimento facciale riguarda insomma ulteriori discriminazioni a danno delle persone già colpite dalla discriminazione delle tecnologie in esame. La sicurezza non può ledere diritti delle persone, ma dovrebbe tutelare le comunità nel loro complesso.
“L’iniziativa del Ministro Piantedosi di introdurre il riconoscimento facciale in una serie di luoghi pubblici , appare in linea con la necessità delle pubbliche amministrazioni, più volte rappresentata, di garantire un ambiente a maggior tutela per i cittadini, ed un intervento più rapido nelle situazioni di emergenza. Tuttavia, la tematica del riconoscimento facciale nei luoghi pubblici rappresenta, per le autorità garanti, una sfida dall’elevata complessità, in quanto caratterizzata da rischi discriminatori ad oggi non eliminabili” conferma l’avvocato Marina Carbone.
“Dette problematiche erano state poste in rilievo, in particolare, con riferimento al caso Sari real Time: il sistema, che consentiva di generare un alert sulla base delle immagini riprese dalle videocamere, non solo non trovava una idonea base giuridica, ma soffriva di tutte le criticità tipiche delle intelligenze artificiali. Più nel dettaglio: scarsa chiarezza e definizione sui criteri di individuazione dei soggetti da inserire nella watchlist; presenza di falsi positivi e scarsa chiarezza sulle possibili conseguenze di detti falsi positivi ( si pensi ad un uomo arrestato sulla base di un falso positivo, ed alle gravi conseguenze che detta circostanza può portare sulle libertà personali di detto individuo); rischio di errori e discriminazioni nei confronti delle persone appartenenti a minoranze etniche”.
“Dette criticità appaiono ad oggi non adeguatamente risolte, e passibili di determinare, anche con riferimento alle ipotesi di riconoscimento facciale avanzate dal Ministro Piantedosi, rischi troppo elevati per le persone che transitano in quei luoghi, pur a fronte di un obiettivo – quale quello della sicurezza pubblica – assolutamente meritevole di condivisione”.
Il riconoscimento facciale preoccupa il Parlamento europeo
Per tutti questi motivi il Parlamento europeo con l’AI ACT, come l’ha modificato nell’ultima bozza, arriva a bandire il riconoscimento facciale. Già in una risoluzione del 2021 puntava a vietare l’uso di sistemi di riconoscimento facciale automatico, obbligando gli operatori umani a prendere le decisioni finali sui soggetti monitorati, al fine di combattere e prevenire pericolosi fenomeni discriminatori e difendere il fondamentale diritto alla privacy dei cittadini.
Le versioni dell’AI Act volute da Commissione e Consiglio UE prevedono però l’eccezione ai fini della sicurezza, per il riconoscimento facciale. Ci sarà insomma scontro sul testo finale.
Ci sarà il riconoscimento facciale in Italia?
In conclusione non riponiamo troppe speranze nell’UE per il divieto di riconoscimento facciale ai fini di sicurezza. In Italia l’unico baluardo a riguardo è il Garante Privacy, ma nemmeno l’Autorità è superiore alle leggi che questo Governo ha tutta la facoltà di modificare per motivi securitari, che però – come visto – portano con sé rischi gravissimi.