Dopo la sbornia degli applausi all’AI Act è il momento della lucidità. E cominciano ad affiorare le voci critiche di associazioni per i diritti civili, come Amnesty International e Access Now.
Il succo delle critiche: se l’AI Act è una vittoria per l’industria e le forze dell’ordine, per i diritti umani rischia di essere (stato) un fallimento.
Nonostante i nobili intenti e gli sforzi di proteggere massimamente i diritti delle persone, il testo approvato, se letto con una lente critica, rischia di essere un atto legislativo ricco di scorciatoie ed eccezioni. Tradotto in altri termini, non tutelerà a sufficienza le persone, i loro diritti specialmente dagli usi più pericolosi derivanti dall’uso dei sistemi di AI.
Se ripensiamo all’intero iter legislativo, ricorderemo che nel 2021 è stato proposto e soltanto nel dicembre del 2023 ha visto il raggiungimento di un accordo (politico). In pratica, è arrivato con un disegno di legge testuale molto forte, ma scivolato all’ultimo miglio, dal momento che le salvaguardie dei diritti umani sono state di molto attenuate se non anche del tutto rimosse.
Indice degli argomenti
L’AI Act e i nodi irrisolti – Access Now
Ricca di obiezioni è una dichiarazione congiunta pubblicata da Access Now e firmata da varie associazioni.
L’AI Act, si legge, è “carente nell’area vitale della migrazione, non riuscendo a prevenire i danni e a fornire protezione alle persone in movimento”.
“Nella sua versione finale, la legge europea sull’AI crea un pericoloso precedente. La legislazione sviluppa un quadro giuridico separato per l’uso dell’IA da parte delle forze dell’ordine, del controllo dell’immigrazione e delle autorità di sicurezza nazionali, fornisce scappatoie ingiustificate e incoraggia persino l’uso di sistemi pericolosi per la sorveglianza discriminatoria delle persone più emarginate della società. La presente dichiarazione illustra le principali lacune nella protezione dell’IA nel settore della migrazione”.
“Sebbene la legge sull’IA compia passi positivi in altre aree, la legislazione è debole e consente persino sistemi pericolosi nella sfera della migrazione”.
I migranti nell’AI Act
Molti punti critici, per Access Now, riguardano i migranti.
I divieti sui sistemi di IA non si estendono al contesto migratorio. La legislazione introduce divieti (limitati) per gli usi dannosi dell’IA.
- I legislatori dell’UE si sono rifiutati di vietare sistemi dannosi come i sistemi di valutazione del rischio discriminatorio nella migrazione e l’analisi predittiva se utilizzata per facilitare i respingimenti.
- Inoltre, il divieto di riconoscimento delle emozioni non si applica al contesto migratorio, escludendo quindi i casi documentati di macchine della verità IA alle frontiere.
- L’elenco dei sistemi ad alto rischio non tiene conto dei numerosi sistemi di IA utilizzati nel contesto della migrazione e che, eventualmente, non saranno soggetti agli obblighi del presente regolamento. L’elenco esclude sistemi pericolosi come i sistemi di identificazione biometrica, gli scanner di impronte digitali o gli strumenti di previsione utilizzati per prevedere, bloccare e limitare la migrazione.
- L’IA utilizzata come parte di banche dati su larga scala dell’UE in materia di migrazione, come Eurodac, il Sistema d’informazione Schengen e ETIAS, non dovrà essere conforme al regolamento fino al 2030.
- Esportazione di tecnologie di sorveglianza dannose: la legge sull’IA non ha affrontato il modo in cui i sistemi di IA sviluppati da aziende con sede nell’UE hanno un impatto sulle persone al di fuori dell’UE, nonostante le prove esistenti di violazioni dei diritti umani facilitate dalle tecnologie di sorveglianza sviluppate nell’UE in Paesi terzi (ad esempio, Cina, Territori palestinesi occupati). Pertanto, non sarà vietato esportare un sistema vietato in Europa al di fuori dell’UE.
Un pericoloso precedente: consentire una sorveglianza dannosa da parte delle autorità di polizia e di migrazione.
L’eccezione a favore della sicurezza
“L’aspetto forse più dannoso della legge europea sull’IA è la creazione di un quadro giuridico parallelo quando l’IA viene impiegata dalle autorità di polizia, di immigrazione e di sicurezza nazionale. Grazie alle pressioni esercitate dagli Stati membri, dalle forze dell’ordine e dalle lobby dell’industria della sicurezza, queste autorità sono esplicitamente esentate dalle norme e dalle salvaguardie più importanti della legge sull’IA”.
In particolare, si parla di:
- Esenzioni alle garanzie di trasparenza e supervisione per le autorità di polizia. La legge introduce garanzie di trasparenza che impongono alle autorità pubbliche che utilizzano sistemi di IA ad alto rischio di registrare le informazioni sul sistema in un database accessibile al pubblico.
- La legge sull’IA introduce un’esenzione a questo requisito per le autorità preposte all’applicazione della legge e all’immigrazione, garantendo la segretezza per alcuni degli usi più dannosi dell’IA. Ciò renderà impossibile per le persone colpite, la società civile e i giornalisti sapere dove vengono impiegati i sistemi di IA.
- “L’esenzione sulla sicurezza nazionale consentirà agli Stati membri di esimersi dalle norme per qualsiasi attività che ritengano rilevante per la “sicurezza nazionale”, in sostanza un’esenzione generalizzata alle norme della legge sull’IA che potrebbe in teoria essere utilizzata in qualsiasi questione di migrazione, polizia e sicurezza”.
“Queste esenzioni codificano di fatto l’impunità per l’uso illimitato della tecnologia di sorveglianza, creando un pericoloso precedente per l’uso della tecnologia di sorveglianza in futuro. In effetti, i legislatori dell’AI Act hanno limitato notevolmente il controllo cruciale delle autorità di polizia e hanno permesso un uso sempre maggiore della sorveglianza razziale e discriminatoria. In primo luogo, queste scappatoie danneggeranno i migranti, le comunità razziali e altre comunità emarginate che già sopportano il peso del targeting e dell’eccessiva sorveglianza da parte delle autorità”.
I firmatari: Access Now, European Digital Rights (EDRi), Platform for International Cooperation on Undocumented Migrants (PICUM), Equinox Initiative for Racial Justice, Refugee Law Lab, AlgorithmWatch, Amnesty International, Border Violence Monitoring Network (BVMN), Digitalcourage, EuroMed Rights, European Center for Not-for-Profit Law (ECNL), European Network Against Racism (ENAR), Homo Digitalis, Privacy International, Statewatch, Dr Derya Ozkul, Dr. Jan Tobias, and Dr Niovi Vavoula.
È fondata dunque la preoccupazioni di un testo che di fatto rafforza esimenti istituzionali, potendo talune istituzioni svolgere una “sorveglianza oppressiva” minando palesemente alcuni diritti fondamentali che invece dovrebbero essere alla tutela di tutti, senza discriminazioni alcune.
Amnesty International e AI Act
Tra le voci critiche citiamo anche Mher Hakobyan, consulente per l’advocacy sull’intelligenza artificiale di Amnesty International, il quale ha dichiarato che “Mentre i politici dell’UE acclamano l’AI Act come un modello globale per la regolamentazione dell’IA, la legislazione non riesce a tenere conto dei principi fondamentali dei diritti umani” e aggiunge “L’AI Act offre solo protezioni limitate alle persone colpite ed emarginate. Non vieta l’uso sconsiderato e l’esportazione di tecnologie draconiane di intelligenza artificiale, ma non riesce nemmeno a garantire pari protezione a migranti, rifugiati e richiedenti asilo”.
Ne consegue che difettano adeguate disposizioni in materia di responsabilità e trasparenza, aggravando gli abusi dei diritti umani.
E conclude: “I paesi al di fuori dell’UE dovrebbero imparare dall’incapacità del blocco di regolamentare adeguatamente le tecnologie di intelligenza artificiale e non devono soccombere alle pressioni dell’industria tecnologica e delle autorità di contrasto mentre sviluppano la regolamentazione. Gli Stati dovrebbero invece mettere in atto una legislazione solida e vincolante sull’IA che dia priorità alle persone e ai loro diritti”.
AI Act e le libertà civili: un primo bilancio
Alla luce del testo definitivo, non possono mancare alcune riflessioni critiche palesandosi come una occasione mancata per proteggere le libertà civili. Molte dei nostri diritti (dalla partecipazione a una protesta, alla possibilità di accedere all’assistenza sanitaria riproduttiva ecc.) potrebbero essere messi a repentaglio da una pervasiva sorveglianza biometrica.
Ciò in quanto le restrizioni sull’uso del riconoscimento facciale saranno minime e non si applicheranno alle società private o alle autorità amministrative.
Sul famoso “riconoscimento delle emozioni” e le pratiche di categorizzazione biometrica, nel testo finale siano vietati solo in casi d’uso molto limitati, con significative lacune.
In pratica, l’AI Act consentirà molte forme di questo tipo, come ad esempio l’utilizzo da parte della polizia di sistemi di intelligenza artificiale per prevedere chi sta o non sta affermando il vero, nonostante questi sistemi siano privi di credibili basi scientifiche: spaventevole se ci pensiamo bene.
Non solo, sarà consentito alle forze dell’ordine di classificare le persone nei feed delle telecamere a circuito chiuso in base al colore della pelle, con stupore dal momento che la legislazione europea vieta con forza la discriminazione; ma, evidentemente, se questa è compiuta da una macchina, ecco che è accettata o meglio considerata accettabile.
In sostanza, “saremo colpevoli secondo un algoritmo fino a prova contraria”AI Act e il tentativo fallito di fermare la proliferazione delle tecnologie abusive
Altra critica che si può muovere di primo acchito all’AI Act risiede nel non essere (stato) abbastanza efficace nel contrastare la proliferazione delle tecnologie abusive basate sui sistemi di intelligenza artificiale.
Infatti, non è ancora del tutto chiarala definizione di “AI” e ciò rende difficile l’applicazione della legge a tecnologie specifiche.
L’AI Act non copre tutte le tecnologie emergenti come l’intelligenza artificiale generativa (IAG), che può essere utilizzata per creare contenuti deepfake, ben potendo questi essere utilizzati per creare video o immagini falsi utilizzabili per diffondere disinformazione o propaganda. Scarseggiano i requisiti di interoperabilità, il che rende difficile la collaborazione tra diversi sistemi e lo sviluppo di soluzioni di AI più etiche e responsabili. Le sanzioni così come previste rischiano di non essere sufficientemente dissuasive da alcuni critici.
In conclusione, forse l’aspetto più dannoso dell’AI Act è la creazione di un quadro giuridico ancora troppo debole con la lente ai diritti delle persone, per “accontentare” lobby del settore della sicurezza e le forze dell’ordine.