Ci sarà un’interrogazione parlamentare su Giove, il sistema predittivo della polizia che solleva interrogativi e perplessità, dopo i divieti introdotti dall’AI Act, il regolamento UE su intelligenza artificiale. “Vorrei saperne di più”, conferma a CyberSecurity360 Filippo Sensi, Senatore Pd, primo firmatario dell’interrogazione parlamentare su Giove, depositata in Senato.
“Prima di tutto, mi sembra più che opportuno che ci sia un’interrogazione su un tema così delicato“, conferma Claudio Telmon, Senior Partner – Information & Cyber Security at P4I – Partners4Innovation, ma bisogna “stare attenti alle generalizzazioni“. Ecco perché non bisogna fare di tutta un’erba un fascio. Ma al contempo occorre stare attenti. Ev capire come mitigare i rischi, mentre l’Europa, con l’AI Act, va dalla parte opposta.
Indice degli argomenti
Giove, sistema predittivo della polizia: cosa sappiamo
Nei giorni scorsi il Dipartimento di pubblica sicurezza del ministero dell’Interno ha annunciato Giove, il software italiano di polizia predittiva, basato sullo sviluppo di un algoritmo di intelligenza artificiale (AI), controllato e gestito, in teoria, da operatori della Polizia di Stato, per supportare le indagini preliminari.
L'AI Act impone nuove regole. Rischi sanzioni fino al 7% del fatturato? Scopri come evitarle nel White Paper!
Il software Giove punta a “prevedere” i cosiddetti crimini predatori, furto e rapine in primis, che, nella realtà, “sono in costante calo dal 2012”, quasi dimezzati dai 42.631 casi (rapine in strada) di dieci anni fa alle 22.093 del 2021.
Già attivo nella precedente legislatura sul tema dell’AI, Filippo Sensi ha firmato l’interrogazione parlamentare, dopo aver letto le “anticipazioni di stampa che il Viminale non escluderebbe di utilizzare sistemi di – cosiddetta – polizia predittiva. Tutto questo mentre l’Europa ci dice (attraverso il semaforo verde all’AI Act, ndr) che la polizia predittiva è una pericolosa chimera da mettere al bando”.
L’opposizione vuole “saperne di più, porre degli interrogativi non solo sui diritti, ma sulla efficienza e l’efficacia di queste tecnologie”, conferma il Senatore Pd. In particolare capire se ci sono già altri software in uso e quali aziende stiano implementando la tecnologia,
“perché la sicurezza dei cittadini ha bisogno di risorse, strategia, lavoro”, ma “non di scorciatoie che non funzionano”, conclude Filippo Sensi.
“Sistemi di questo genere rappresentano cambi di strategia importanti“, infatti, conferma Claudio Telmon, che al contempo enfatizzano “rischi importanti, e non possono passare come semplici ‘evoluzioni tecnologiche'”. Fatta questa premessa, “dobbiamo però stare attenti alle generalizzazioni”.
Vantaggi e criticità del software: come mitigare i rischi
“I sistemi basati su machine learning sono strumenti di uso generale, sono ‘motori'”, mette in guardia Telmon, convinto sostenitore dell’interrogazione parlamentare. Significa che “possono essere utilizzati in modi e contesti molto diversi”, continua Claudio Telmon: infatti “pensare che, siccome uno di questi usi è pericoloso, discriminatorio o vietato, allora tutti gli usi lo sono, è una grave approssimazione”.
“Prendiamo ad esempio la proposta di Regolamento europeo sull’intelligenza artificiale”, spiega Telmon. “Il Regolamento all’art. 5 vieta, fra l’altro, l’uso di sistemi di identificazione biometrica remota ‘in tempo reale’ per le attività di contrasto al crimine”. Permessi quelli su video registrati ma solo per reati gravi (e con l’autorizzazione del giudice).
Vietata espressamente la polizia predittiva: “based on profiling, location or past criminal behaviour”;
Tuttavia “Giove non è neanche lontanamente un sistema di questo tipo. Per quanto vedo, segue la logica di Keycrime, che non è né un sistema di sorveglianza né un sistema di identificazione di aree ad alto rischio di criminalità (hotspot), altro tema particolarmente critico dal punto di vista dei ‘pregiudizi'”.
Il rischio vero sono i bias e non l’identificazione biometrica remota in real time, tuttavia non mancano le criticità. Infatti Giove è “uno strumento di correlazione, basato sull’idea che se, come normalmente è, crimini come le rapine non sono occasionali, ma chi le compie generalmente lo fa ripetutamente e in modalità simili”.
Analisi delle denunce alle autorità, immagini o video di eventi criminosi, posizione geografica e collocazione temporale. Sono tutti input. Elementi che vanno ad alimentare il sistema Giove.
Dunque “dall’analisi delle rapine passate in un territorio, dovrebbe riconoscere delle analogie che permettano di ricollegare quelle riconducibili allo stesso attore“. Da queste correlazioni, “sperabilmente, si cerca di capire dove potrebbe colpire di nuovo. Quindi, un supporto all’attività di indagine“, sottolinea Telmon.
“Questo tipo di utilizzo rientra, direi, fra quelli ad alto rischio di cui all’allegato III (punto g della bozza più recente dove sono citati tanti casi d’uso), e quindi non è vietato”, evidenzia Telmon. Ma, “essendo ad alto rischio, è opportuno da una parte che si adottino tutte le misure di controllo per assicurare che i rischi siano mitigati“.
Soprattutto bisogna che a giustificare un tale rischio sia “un’efficacia che dovrebbe essere oggetto di misura e controllo“. Dunque, servono check and balances, per ricorrere a tali strumenti.
Infatti, comunque “i sistemi di AI ad alto rischio devono essere limitati all’effettiva necessità“, conclude Telmon evidenziando le criticità legate a Giove, il sistema predittivo polizia.
L’Europa infine prevede un’unica eccezione nell’AI Act: l’uso in caso in cui sia compromessa la sicurezza nazionale. Non certo la criminalità predatoria in ambito urbano.