Prevedere espressamente il divieto assoluto dell’uso di sistemi di riconoscimento facciale automatico delle persone sul suolo e negli spazi pubblici e imporre che gli operatori umani prendano sempre le decisioni finali sui soggetti monitorati, al fine di combattere e prevenire pericolosi fenomeni discriminatori e difendere il fondamentale diritto alla privacy dei cittadini. Questi gli obiettivi della risoluzione a tema videosorveglianza e AI, adottata dal Parlamento Europeo il 6 ottobre, con 377 voti a favore, 248 contrari e 62 astensioni.
Ricordiamo che una risoluzione non è vincolante; è purtuttavia importante che il Parlamento UE prenda posizione su un tema così critico.
Il Parlamento puntava a evidenziare quali siano i rischi e i pregiudizi che possano derivare dall’utilizzo di strumenti di IA, specialmente nel contesto della sorveglianza pubblica a fini di applicazione della legge vigente o di controllo alle frontiere. Come spiegato dal relatore Petar Vitanov, “i diritti fondamentali sono incondizionati. Per la prima volta in assoluto, chiediamo una moratoria sull’implementazione di sistemi di riconoscimento facciale a fini di contrasto, poiché la tecnologia si è dimostrata inefficace e spesso porta a risultati discriminatori. Siamo chiaramente contrari alla polizia predittiva basata sull’uso dell’IA e a qualsiasi elaborazione di dati biometrici che porti alla sorveglianza di massa. Questa è una grande vittoria per tutti i cittadini europei”.
La risoluzione non è vincolante ma è utile per capire la posizione del Parlamento nel corso dei negoziati per l’AI ACT, che nella sua forma attuale vieterebbe i sistemi di “social scoring” basati sull’intelligenza artificiale.
Indice degli argomenti
Videosorveglianza e AI, opportunità e pericoli
La risoluzione del Parlamento Europeo parte da una serie di premesse di natura storica e tecnica. Nel testo, infatti, si prende inizialmente atto di come stiano evolvendo le tecnologie digitali e dei trattamenti di dati ad esse connessi. L’intelligenza artificiale, in particolare, ha fatto un grande balzo in avanti negli ultimi anni, divenendo una delle tecnologie strategiche del XXI secolo, con il potenziale di generare “benefici sostanziali in termini di efficienza, accuratezza e convenienza, portando così cambiamenti positivi all’economia e alla società europee, ma anche grandi rischi per i diritti fondamentali e le democrazie basate sullo stato di diritto”. Tuttavia, il Parlamento Europeo evidenzia che l’IA, nonostante le sue grandi possibilità, debba essere sempre vista come uno strumento “al servizio delle persone”, il cui obiettivo finale deve essere, quindi, quello di aumentarne il benessere, le capacità e la sicurezza, non quello di costituire un minus nella tutela dei loro diritti.
Dati biometrici e privacy, ecco come vanno trattati in ambito lavorativo
Non solo: gli stessi sistemi di IA dovrebbero essere progettati per la protezione e il beneficio di tutti i membri della società, tenendo in debito conto anche le popolazioni e le minoranze più vulnerabili e marginalizzate. Ne consegue che l’IA non deve essere discriminatoria, deve essere non discriminatoria, sicura, trasparente, “spiegabile” (i suoi processi decisionali devono poter essere compresi dall’interessato), rispettare l’autonomia umana e i diritti fondamentali, come descritto nelle “Ethics Guidelines of the High-Level Expert Group on Artificial Intelligence”.
La tutela delle libertà
Tutte le soluzioni di IA destinante alle forze dell’ordine e la magistratura devono inoltre rispettare pienamente “i principi della dignità umana, della non discriminazione, della libertà di circolazione, della presunzione di innocenza e del diritto alla difesa, compreso il diritto al silenzio, la libertà di espressione e di informazione, la libertà di riunione e di associazione, l’uguaglianza di fronte alla legge, il principio della parità delle armi e il diritto a un ricorso effettivo e a un processo equo, conformemente alla Carta e alla Convenzione europea dei diritti dell’uomo”. Quando incompatibile con detti diritti fondamentali, l’uso di applicazioni di IA dovrebbe essere vietato.
Infatti, sebbene si sia assistito ad un avanzamento dei sistemi digitali, non ci sono ancora, ad oggi, programmi che riescano a presentare il medesimo carattere di flessibilità e adattabilità umana. Ciò nonostante, si rileva nella Risoluzione, alcune nazioni hanno fatto largamente uso di applicativi basati sull’IA anche allo scopo di far valere la legge o all’interno di ambiti giudiziari. Ciò è dovuto prevalentemente a lacune normative e differenze regolamentari che consentono o vietano l’utilizzo dell’IA per determinati scopi. Sono ben noti, peraltro, i casi in cui l’utilizzo dell’IA ha portato a distinzioni e discriminazioni nei confronti di gruppi etnici minoritari o soggetti dotati di determinate caratteristiche fisiche. L’utilizzo di tali sistemi, pertanto, in ambiti pubblici così delicati, non può che suscitare molta preoccupazione (si pensi ai database privati di riconoscimento facciale come Clearview AI, alla polizia predittiva e ai sistemi di punteggio sociale come il sistema di credito sociale cinese).
L’individuazione delle distanze tra le persone
Il Parlamento è preoccupato anche per l’uso di dati biometrici allo scopo di identificare a distanza le persone. Ad esempio, i varchi di controllo delle frontiere che utilizzano il riconoscimento automatizzato e il progetto iBorderCtrl (un “sistema intelligente di rilevamento delle bugie” per l’ingresso dei viaggiatori nell’UE) dovrebbero essere interrotti, affermano i deputati, esortando anche la Commissione ad aprire procedure di infrazione contro gli Stati membri, ove sia ritenuto necessario.
L’utilizzo dell’AI nella pubblica sorveglianza
All’interno della Risoluzione, si rileva come l’intelligenza artificiale sia oggi utilizzata dalle forze dell’ordine mediante le tecnologie di riconoscimento facciale, per molteplici finalità: interrogare i database dei sospetti, identificare le vittime della tratta di esseri umani o dello sfruttamento e dell’abuso sessuale minorile, riconoscere in modo automatico le targhe, identificare gli altoparlanti, l’identificazione vocale, la lettura delle labbra, la sorveglianza uditiva (cioè algoritmi di rilevamento degli spari), la ricerca autonoma e l’analisi dei database identificati, le previsioni (polizia predittiva e analisi degli hotspot criminali), il rilevamento del comportamento, autopsia virtuale avanzata per aiutare a determinare la causa della morte, strumenti autonomi per identificare frodi finanziarie e finanziamenti terroristici, monitoraggio dei social media (scraping e raccolta di dati per connessioni minerarie) e, financo, sistemi di sorveglianza automatizzati che incorporano diverse capacità di rilevamento (come il rilevamento del battito cardiaco e le telecamere termiche).
Le suddette applicazioni possono avere gradi molto diversi di affidabilità, accuratezza e impatto sulla tutela dei diritti fondamentali e sulle dinamiche dei sistemi di giustizia penale. Sebbene, come detto, molti di questi strumenti, siano già utilizzati in Paesi terzi, all’interno dell’unione, in virtù della normativa vigente e della giurisprudenza maggioritaria in materia di protezione dei dati, sarebbero da ritenersi illegali.
Il rischio di pregiudizi e falsi allarmi
Anche l’impiego di algoritmi con un basso tasso di falsi positivi potrebbe comportare, come giustamente evidenziato dal Parlamento Europeo, la generazione di falsi allarmi che superano di gran lunga le segnalazioni corrette. Senza contare l’elevatissimo rischio connesso alla generazione di biases (pregiudizi) nelle decisioni rese dall’IA. “Molte tecnologie di identificazione basate su algoritmi attualmente in uso”, si legge nella Risoluzione, “identificano e categorizzano in modo sproporzionato e quindi causano danni a persone razzializzate, individui appartenenti a determinate comunità etniche, persone LGBTI, bambini e anziani, nonché donne”.
Ciò vale a maggior ragione nei casi di cui si discute: l’uso dell’IA ai fini di applicazione della legge comporta numerosi “rischi potenzialmente elevati, e in alcuni casi inaccettabili, per la protezione dei diritti fondamentali delle persone, come un processo decisionale opaco, diversi tipi di discriminazione ed errori inerenti all’algoritmo sottostante che possono essere rafforzati da cicli di feedback, nonché rischi per la protezione della privacy e dei dati personali, la tutela della libertà di espressione e di informazione, la presunzione di innocenza, il diritto a un ricorso effettivo e a un processo equo, nonché i rischi per la libertà e la sicurezza delle persone”. Non solo: i sistemi di intelligenza artificiale sono vulnerabili ad attacchi informatici o di data-poisoning, che potrebbero compromettere i set di dati allo scopo di produrre risultati c.d. biased, ossia resi sulla scorta di pregiudizi discriminanti.
L’asimmetria informativa
Importante è anche il rilievo che viene conferito all’asimmetria di potere tra chi fa uso dell’IA e chi ne subisce gli effetti: all’interno di un contesto pubblico o giudiziale, “è imperativo che l’uso degli strumenti di IA da parte non diventi un fattore di disuguaglianza, frattura sociale o esclusione”. Si sottolinea altresì “l’impatto dell’uso degli strumenti di IA sui diritti della difesa degli indagati, la difficoltà di ottenere informazioni significative sul loro funzionamento e la conseguente difficoltà di contestare i loro risultati in tribunale, in particolare da parte delle persone indagate”. Per tali ragioni, è essenziale che, come detto precedentemente, l’IA rappresenti uno strumento, le cui decisioni devono essere contestate e verificate allo scopo di non determinare l’insorgenza di pregiudizi e fenomeni discriminatori nei confronti dei cittadini,
“Se gli esseri umani si affidano solo ai dati, ai profili e alle raccomandazioni generati dalle macchine” si legge nella Risoluzione, “non saranno in grado di condurre una valutazione indipendente”, con “conseguenze negative potenzialmente gravi, in particolare nel settore dell’applicazione della legge e della giustizia”, che si verificano “quando le persone confidano eccessivamente nella natura apparentemente oggettiva e scientifica degli strumenti di IA e non considerano la possibilità che i loro risultati siano errati, incompleti, irrilevanti o discriminatori”. È importante, in tale contesto, “avere aspettative realistiche su tali soluzioni tecnologiche e non promettere soluzioni perfette per l’applicazione della legge e l’individuazione di tutti i reati commessi”.
Nel settore legale e giudiziale, “la decisione che ha un effetto legale o simile deve sempre essere presa da un essere umano, che può essere ritenuto responsabile delle decisioni prese”. Ai sensi della normativa europea vigente, l’interessato ha il diritto di non essere sottoposto a decisioni che producono effetti legali nei suoi confronti e sono basati solamente sul trattamento automatico di dati, specie se tali decisioni si basano sulla raccolta ed analisi di dati c.d. particolari.
Il futuro dell’IA: garanzie normative a tutela dell’interessato
Il Parlamento Europeo, rilevati i rischi connessi all’utilizzo dei sistemi di IA, richiede che la “spiegabilità” algoritmica, la trasparenza, la tracciabilità e la verifica siano una parte necessaria dell’attività di sorveglianza, “al fine di garantire che lo sviluppo, la diffusione e l’uso di sistemi di IA per il sistema giudiziario e le forze dell’ordine siano conformi ai diritti fondamentali e siano considerati affidabili dai cittadini, nonché al fine di garantire che i risultati generati dagli algoritmi di IA possano essere resi comprensibili agli utenti e a coloro che sono soggetti a tali sistemi, e che vi sia trasparenza sui dati di origine e sul modo in cui il sistema è giunto a una certa conclusione”.
Tutta la documentazione inerente ai sistemi di IA “dovrebbe essere fornita in un linguaggio chiaro e comprensibile in merito alla natura del servizio, agli strumenti sviluppati, alle prestazioni e alle condizioni in cui ci si può aspettare che funzionino e ai rischi che potrebbero causare”, secondo un principio di “trasparenza proattiva e piena” per le imprese private che forniscono sistemi di IA; si raccomanda pertanto l’uso di software open source, ove possibile.
Il Parlamento Europeo chiede, inoltre, “la tracciabilità dei sistemi di IA e del processo decisionale che ne delinei le funzioni, definisca le capacità e i limiti dei sistemi e [la tracciabilità] dell’origine degli attributi che definiscono una decisione, attraverso una documentazione obbligatoria”. La documentazione completa dei c.d. training data, del loro contesto, della finalità, dell’accuratezza e degli effetti collaterali, nonché del loro trattamento da parte dei costruttori e degli sviluppatori degli algoritmi e del loro rispetto dei diritti fondamentali dovrebbe essere conservata.
I principi
Inoltre, si afferma che l’utilizzo di sistemi di riconoscimento facciale dovrebbe essere limitato a finalità chiaramente garantite, nel pieno rispetto dei principi di proporzionalità e necessità, oltre che della legge applicabile. Non solo: “come minimo, l’uso della tecnologia di riconoscimento facciale deve essere conforme ai requisiti di minimizzazione dei dati, accuratezza dei dati, limitazione della conservazione, sicurezza e responsabilità dei dati, oltre ad essere lecito, equo e trasparente e seguire una finalità specifica, esplicita e legittima chiaramente definita nel diritto degli Stati membri o dell’Unione”.
In virtù di tali ragioni, nella risoluzione si chiede la proibizione permanente dell’uso di analisi automatizzate e/o sistemi di riconoscimento, in spazi accessibili al pubblico, di caratteristiche umane, come l’andatura, le impronte digitali, il DNA, la voce e altri segnali biometrici e comportamentali. Si chiede, inoltre, una “moratoria sull’impiego di sistemi di riconoscimento facciale a fini di contrasto che hanno la funzione di identificazione, a meno che non siano strettamente utilizzati ai fini dell’identificazione delle vittime di reato, fino a quando gli standard tecnici non possano essere considerati pienamente conformi ai diritti fondamentali, i risultati derivati non saranno parziali e non discriminatori, il quadro giuridico fornisca garanzie rigorose contro l’uso improprio e un rigoroso controllo e controllo democratico, e vi siano prove empiriche della necessità e della proporzionalità per la diffusione di tali tecnologie”. Qualora i criteri di cui sopra non siano soddisfatti, i sistemi basati sull’IA non dovrebbero essere utilizzati o distribuiti.
La necessità di una Governance solida
Da ultimo, nella Risoluzione si sottolinea che “solo una solida governance europea dell’IA con una valutazione indipendente può consentire la necessaria operatività dei principi dei diritti fondamentali”, con espressa previsione di un audit periodico obbligatorio per tutti i sistemi di IA utilizzati dalle autorità di contrasto della criminalità e dalla magistratura, “laddove vi sia il potenziale per incidere in modo significativo sulla vita delle persone, da parte di un’autorità indipendente, per testare e valutare i sistemi algoritmici, il loro contesto, scopo, accuratezza, prestazioni e portata e, una volta in funzione, al fine di rilevare, indagare, diagnosticare e correggere eventuali effetti indesiderati e avversi e garantire che i sistemi di IA funzionino come previsto”. I risultati di tali audit, inoltre, “dovrebbero essere resi disponibili in registri pubblici in modo che i cittadini conoscano i sistemi di IA utilizzati e quali misure siano adottate per porre rimedio a qualsiasi violazione dei diritti fondamentali”.
Nella Risoluzione, pertanto, si rileva espressamente la necessità di definire a tal fine un preciso e chiaro quadro istituzionale, che assicuri la piena attuazione dei principi fondamentali a tutela dell’interessato e garantisca “un dibattito democratico pienamente informato sulla necessità e la proporzionalità dell’IA nel settore della giustizia penale”.