L’intelligenza artificiale (AI) è la teoria e lo sviluppo di sistemi informatici in grado di svolgere compiti che normalmente richiedono l’intelligenza umana. Con questo termine, tuttavia, si indica anche la capacità di un computer digitale o di un robot controllato dal computer di eseguire compiti comunemente associati agli esseri intelligenti.
Il termine è spesso applicato al progetto di sviluppare sistemi dotati dei processi intellettuali caratteristici degli esseri umani, come la capacità di ragionare, scoprire significati, generalizzare o imparare dall’esperienza passata. A causa del rapido ritmo di crescita della tecnologia sono emerse preoccupazioni per l’etica, la privacy e la sicurezza nell’IA, ma non hanno ricevuto la massima attenzione fino ad oggi.
Intelligenza artificiale e cyber security: sfide e opportunità
Una delle principali aree di preoccupazione riguarda la distorsione dell’apprendimento nei sistemi di intelligenza artificiale, che può cambiare in modo inappropriato l’output dell’IA a favore di determinati set di dati.
Ne abbiamo parlato con Gianluigi Greco Presidente dell’associazione AIxIA, Claudio Telmon di P4i e Nicola Grandis, CEO di ASC27, per approfondire i rischi, ma anche i concetti di standardizzazione, la normativa e per spiegare i dubbi su etica e moralità nei sistemi.
Indice degli argomenti
Introduzione ai rischi di sicurezza e modello del danno
Come in qualsiasi altro sistema digitale, anche nelle applicazioni di AI, come ad esempio il machine learning, vi sono rischi di sicurezza nelle applicazioni. Per questo motivo l’Europa ha deciso di dotarsi di un testo di riferimento che ponga le basi per una regolamentazione al fine di prevenire possibili danni. L’Artificial Intelligence Act, in formato di proposta, emesso ad aprile 2021 potrebbe giungere a compimento entro due anni.
Il testo base della Commissione UE
La commissione UE nel sito che spiega l’iniziativa chiarisce come l’’AI Act sia “una proposta di legge europea sull’intelligenza artificiale (AI), la prima legge sull’IA da parte di un importante regolatore al mondo. La legge assegna le applicazioni dell’IA a tre categorie di rischio. In primo luogo, le applicazioni e i sistemi che creano un rischio inaccettabile, come il punteggio sociale gestito dal governo del tipo utilizzato in Cina, sono vietati.
In secondo luogo, le domande ad alto rischio, come uno strumento di scansione dei CV che classifica i candidati al lavoro, sono soggette a requisiti legali specifici. Infine, le applicazioni non esplicitamente vietate o elencate come ad alto rischio sono in gran parte lasciate non regolamentate. Come il regolamento generale sulla protezione dei dati (GDPR) dell’UE nel 2018, la legge dell’UE sull’IA potrebbe diventare uno standard globale”.
Libro bianco sui rischi connessi
Oltre a legiferare La Commissione europea aveva anche dato incarico ad un gruppo di tecnici di alto profilo, il Cen/Clc – Jtc21 – Artificial Intelligence, the European Committee for Standardization, di lavorare sulle linee guida per la mitigazione dei rischi connessi all’utilizzo dell’Intelligenza artificiale per la stesura di un Libro bianco il “CEN-CENELEC response to the EC White Paper on AI” (giugno 2020) che possa essere di riferimento per tutti i Paesi membri.
Un primo libro bianco era stato emesso già nel febbraio 2020, il “WHITE PAPER On Artificial Intelligence – A European approach to excellence and trust”. Tutta la documentazione preparatoria alla legge sull’IA è raccolta in un’unica area documentale per un facile accesso. La proposta di AI Act è stata presentata il 21 aprile 2022 dalla Commissione Europea. La Commissione attende ora che il Consiglio dell’Unione europea e il Parlamento europeo definiscano le loro posizioni prima di assisterli durante i negoziati interistituzionali.
Regole per proteggere gli individui e i dati sensibili
Quando si parla di Intelligenza artificiale si parla anche di rischi connessi ad alcune sue applicazioni. Gianluigi Greco spiega che “per curare la sicurezza lato cyber e lato privacy, le verifiche devono andare nella direzione dei controlli di sicurezza e tipiche dell’informatica, a maggior ragione quando sono scritte da una intelligenza artificiale”.
Nicola Grandis aggiunge che la mitigazione del rischio collegato all’applicazione e all’utilizzo dell’intelligenza artificiale è un tema oggi molto importante e su questo tema tutto il mondo guarda all’Europa: “Per questo a luglio abbiamo invitato a Roma il gruppo di lavoro, il Cen/Clc – Jtc21 – Artificial Intelligence, the European Committee for Standardization, incaricato dalla Commissione europea di scrivere un Libro bianco per i cittadini e le aziende che dovranno utilizzare nel futuro questo strumento emergente.
Le norme per la mitigazione del rischio riguarderanno principalmente la protezione degli individui, dei dati sensibili. Ad esempio, si vogliono evitare problematiche relative a persone che chiedono un prestito in banca e se lo vedono negato senza un motivo solo perché a smaltire le migliaia di richieste al giorno c’è una macchina incaricata di valutare le pratiche solo secondo parametri oggettivi”.
Serve mettere a punto un modello del danno
Per la mitigazione dei rischi, dunque, è necessario costruire un modello del danno e della sua portata qualora il rischio si concretizzi sul serio. Secondo Leon Kester, membro del comitato europeo Cen/Clc – Jtc21, è possibile costruire un modello del danno basato sul ciclo di feedback socio-psico-tecno-fisico.
Ma ha anche aggiunto che l’attuale tecnologia di intelligenza artificiale più avanzata non è in grado di comprendere la moralità umana; quindi, i modelli di danno artificiale utilizzati dall’autorità di regolamentazione saranno un’approssimazione e si opererà per ottenere approssimazioni migliori. Conterà, dunque, di più la standardizzazione delle applicazioni e la regolamentazione normativa internazionale.
Cosa standardizzare in relazione alla AI
Gianluigi Greco chiarisce come sia importante standardizzare procedure e pratiche per guidare i data set e modalità di apprendimento per evitare bias ed errori di sbilanciamento. A suo avviso è opportuno quindi standardizzare il modo con cui si crea un certo prodotto e arrivare a forme di certificazione per il risultato ottenuto, con un ragionevole valore di scarto minimale.
Certificazione e interoperabilità
Ma il concetto di standardizzazione dovrebbe essere applicato anche agli standard per lo scambio di dati, oggi assenti. La conseguenza è la realizzazione di sistemi “artigianali” specialmente nelle applicazioni in campo medico, il che comporta un bassissimo tasso di replica. Quindi è importante la replicabilità su base certificazione, ma anche l’interoperabilità per il riuso.
Nel campo dell’AI esistono molte iniziative pilota che non si conoscono, che non sono messe a fattor comune e quindi riusate; invece, nel contesto informatico l’affidabilità è tanto maggiore quanto maggiore è l’uso fatto dalle community digitali. Il tema della standardizzazione per la Cybersecurity è una questione delicata, soprattutto in relazione all’uso della biometria sulle persone e il suo uso distorto finalizzato ai furti di identità.
Non sono solo le AI ad essere vulnerabili ma l’intero ecosistema digitale. La sfida non è specifica sulla AI. Nicola Grandis in questo senso spiega che la standardizzazione non riguarda l’AI in quanto tale, perché è una scienza. Il processo di standardizzazione in corso mira a definire delle regole e dei perimetri per l’applicazione dell’AI, soprattutto quando questa è rivolta verso le persone o i diritti civili. Definire questo perimetro, ed è un investimento verso il futuro.
Obiettivi della standardizzazione
Se ci si domanda quale sia il vero obiettivo della standardizzazione Nicola Grandis chiarisce che quello che l’Europa si accinge a “standardizzare” sono gli ambiti di applicazione della A.I., non l’apprendimento. Il riconoscimento facciale, come banale esempio, per irrogare una multa a chi passa con il rosso al semaforo già in uso in alcuni Paesi è in palese contrasto con il rispetto delle libertà individuali e della privacy vigenti nella Ue. Naturalmente, questi “limiti” condivisi non saranno applicati alla sicurezza nazionale, perché la difesa deve essere parametrata all’attacco e un Paese deve potersi difendere.
In aggiunta Claudio Telmon precisa, che quello a cui punta l’UE non sia propriamente una standardizzazione, quanto piuttosto un processo di certificazione per assicurare che i sistemi di intelligenza artificiale immessi sul mercato soddisfino alcuni requisiti.
Lo scopo è mitigare i rischi
L’idea di standardizzazione suggerisce che si voglia ottenere una sorta di “uniformità” dei prodotti. Al contrario, l’attenzione è alla mitigazione dei rischi, ma senza rinunciare ai vantaggi della varietà e senza limitare eccessivamente la ricerca e la competitività delle aziende europee, e quindi la possibilità di realizzare prodotti “diversi” e innovativi.
Approccio analogo a quello sui dispositivi medici
L’approccio è analogo a quello di altre normative europee, verticali per specifici settori, come il Regolamento sui dispositivi medici, con il quale vedo una grande affinità, o orizzontali, come la bozza di Cyber Resilience Act, che si applicherà sostanzialmente ad ogni prodotto che contenga un componente digitale.
L’impostazione è che l’intera filiera, a partire dal produttore e/o dall’importatore, partecipino all’individuazione alla mitigazione dei rischi, prima di tutto per la salute, la sicurezza e i diritti fondamentali delle persone, come ad esempio il diritto al lavoro. Viene quindi certificato che questi rischi siano identificati e mitigati dal produttore in conformità al Regolamento, e che all’utente siano fornite le informazioni necessarie per utilizzare correttamente il sistema e gestire i rischi residui.
Sempre in analogia ad altri regolamenti, è prevista anche l’adozione di codici di condotta per i sistemi di IA non ad alto rischio. In più, alcune specifiche pratiche sono esplicitamente vietate, come utilizzare tecniche subliminali che agiscono senza che una persona ne sia consapevole per distorcerne il comportamento in modo dannoso.
Intelligenza artificiale, i Garanti del G7 per una governance etica e culturale
I limiti delle regolamentazioni
Gianluigi Greco sottolinea come sia necessario porre dei limiti in questo campo esattamente come gli esseri umani non si affidano solo all’etica personale ma si danno regole condivise tramite un legislatore e definiscono i confini di ciò che è lecito e ciò che non lo è per l’interazione nella società.
Cercando dunque di capire cosa regolamentare in questi domini, ovvero quale sia il limite, è opportuno guardare anche agli altri Paesi. Se negli Stati Uniti l’applicazione delle regole è successiva ad un iniziale “far west”, in Europa abbiamo l’abitudine di lasciare aperto lo sviluppo regolandolo fin dall’inizio considerando sempre la centralità della persona e una interazione umano-macchina che vada a buon fine.
Non si può delegare a un algoritmo
Le questioni “meramente tecniche” relative all’AI act esistono, “ma è preferibile”, secondo Greco, “applicare un’ottica giuridica legata alla verifica di determinate condizioni: non si dovrebbe definire l’intelligenza artificiale in termini di cosa sia, come oggetto, quanto piuttosto come funzionalità automatizzata o automatizzabile in un contesto decisionale. Il punto essenziale è che si parla di una delega ad un algoritmo. Allora il limite da porre dovrebbe essere legato all’atto di delega da parte dell’essere umano in modo da vincolare la macchina a non superare tale limite.
Le regole, dunque, non servono a limitare lo sviluppo tecnologico. Come associazione siamo attivi per correggere i punti in cui siamo più critici dando il nostro contributo per arrivare a chiarire il momento in cui è necessario bloccare l’automazione e far intervenire l’essere umano”.
Distinguere moralità ed etica
Un dubbio ulteriore riguarda la possibilità di “cablare la moralità umana” o l’etica in un sistema di machine learning e in futuro in una AI. Ma Nicola Grandis specifica come non si debba confondere la morale con l’etica, ossia quell’insieme di norme che regolano la convivenza civile entro le quali la macchina può e deve operare le scelte. L’etica è qualcosa di più oggettivo, che si può insegnare; la morale presuppone un giudizio e un pregiudizio soggettivi.
Le macchine sono il frutto dell’essere umano
È difficile prevedere che una macchina possa avere un pensiero e una coscienza autogenerati, sarà sempre frutto di chi l’ha istruita. Da qui la necessità e la possibilità di condividere dei parametri. A chi si chiede e si preoccupa se l’intelligenza artificiale abbia una sua etica, è possibile chiarire che la macchina non ne ha. L’etica è quel qualcosa, che al di là di una legge che obbliga ad avere determinati comportamenti e permette di fare delle scelte. La macchina non fa scelte, è in grado di riconoscere i modelli creati dal data scientist o da un team di persone.
L’intelligenza artificiale per la cyber defence: ecco come sconfiggere gli “zero day attack”
L’AI prossima ventura
Si sta sviluppando un nuovo tipo di intelligenza artificiale, che si chiama neuro-simbolicabasata sul concetto di “listening”, ovvero capace di comprendere interamente una situazione similmente agli esseri umani. Non riconoscerà solo i modelli, ad esempio l’immagine di un gatto o di un cane, ma terrà conto anche dei comportamenti e avrà un impatto importantissimo sulle operazioni di security.
Se nei pressi di un ATM ci sono delle persone incappucciate, che si muovono velocemente, hanno un bastone in mano o hanno una certa fretta, l’intelligenza artificiale può comprendere che queste persone siano interessate a far saltare il bancomat e può dare l’allarme prima che ciò avvenga.
Oppure, in caso di incidente stradale, il robottino che monitora le immagini di una telecamera può comprendere se qualcuno si è fatto male e avvisare i paramedici che interverranno più velocemente. L’AI rappresenta una grandissima opportunità, dipende solo per quale scopo viene programmata.
Se l’Ai fa suoi i pregiudizi di genere
Su questo tema Claudio Telmon invece precisa che quello che è possibile cablare è che il sistema non realizzi specifiche pratiche che gli esseri umani, a priori, considerino eticamente inaccettabili o rischiose. Un esempio chiaro è quello dei bias relativi al genere.
Ad esempio, se un sistema dovesse analizzare le caratteristiche che una persona deve avere per essere un buon candidato a presidente degli Stati Uniti, probabilmente dovrebbe dedurre che deve essere uomo, perché non ci sono stati mai presidenti donna. In questo senso, in assenza di regole, il sistema acquisisce un pregiudizio che è parte della nostra società e che contribuirebbe a far perdurare.
Così possiamo cancellarli
Nel momento in cui si decida che questo non è eticamente accettabile, è possibile intervenire perché il sistema non tenga conto di questo specifico aspetto. In questo senso, avremmo cablato una scelta etica nel sistema (paradossalmente, arrivando ad un comportamento eticamente “migliore” di quello di buona parte delle persone), ma la valutazione è stata a monte, il sistema non ha coscienza dell’eticità o meno della scelta.
Naturalmente, non tutte le valutazioni etiche possono essere cablate nel sistema: è possibile evitare che un sistema di AI segua delle pratiche eticamente inaccettabili in un processo di selezione del personale, ma, per contro, la scelta se utilizzare una persona o un sistema di AI per un determinato compito, sta fuori dal sistema.
“Chi, come me, si occupa di sicurezza”, continua Claudio Telmon “si limita ad intervenire eventualmente a valle di queste valutazioni, per evitare ad esempio che il sistema sia manomesso per avere comportamenti non conformi a quanto è stato deciso. Trattandosi di sistemi in generale piuttosto “opachi” nelle proprie valutazioni, una manomissione potrebbe essere particolarmente difficile da rilevare, e il tema della cybersecurity per questi sistemi è affrontato esplicitamente in più parti della bozza di Regolamento”.