Prosegue l’attività regolatoria dell’Europa in materia di IA e adesso diventa internazionale. La Commissione Europea, guidata da Von der Leyen, ha infatti firmato la convenzione quadro del Consiglio d’Europa sull’intelligenza artificiale insieme a Paesi non UE (qui il testo in PDF).
La firma è avvenuta in occasione della conferenza informale dei ministri della Giustizia del Consiglio d’Europa, organo formato da 46 Stati membri oltre agli osservatori, a Vilnius, Lituania.
Tra i primi firmatari della convenzione ci sono già infatti: Andorra, Georgia, Islanda, Norvegia, Repubblica di Moldova, San Marino, Regno Unito, Israele, Stati Uniti d’America e Unione Europea.
L’obiettivo perseguito dalla Convenzione è quello di prevedere sistemi di AI compatibili con i diritti umani, la democrazia e lo Stato di diritto, consentendo allo stesso tempo l’innovazione e la fiducia.
Le preoccupazioni, invece che hanno condotto a tale accordo quadro sono rappresentate da un rischio dei sistemi di IA per la dignità umana e l’autonomia individuale e rischi di discriminazione nei contesti digitali e il loro potenziale effetto di creare o aggravare le disuguaglianze, compresi quelli vissuti da donne e individui in situazioni vulnerabili, per quanto riguarda il godimento dei loro diritti umani e la loro piena, equa ed effettiva partecipazione alla vita economica, affari sociali, culturali e politici.
Indice degli argomenti
Convenzione quadro sull’IA: definizione e ambito applicativo
La Convenzione, con il termine “sistema di intelligenza artificiale”, si riferisce a un sistema basato su macchine che, per obiettivi espliciti o impliciti, deduce, a partire dagli input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali. I diversi sistemi di intelligenza artificiale variano nei loro livelli di autonomia e capacità di adattamento dopo la loro implementazione.
L’ambito di applicazione della Convenzione sono le attività all’interno del ciclo di vita dei sistemi di intelligenza artificiale che hanno il potenziale di interferire con i diritti umani, la democrazia e lo stato di diritto.
Obblighi stabiliti dalla Convenzione quadro sull’IA
In generale, la Convezione, quale principio fondamentale prevede quello di adottare o mantenere misure per garantire che le attività all’interno del ciclo di vita dei sistemi di intelligenza artificiale siano coerenti con gli obblighi di protezione dei diritti umani, come sancito dal diritto internazionale.
In particolare, si pone l’esplicito limite invalicabile del rispetto della Dignità umana e autonomia individuale ed uguaglianza e non discriminazione.
Di particolare interesse applicativo, anche per le interazioni con il GDPR, sono i requisiti di trasparenza e supervisione intesi come sistemi adeguati di trasparenza e supervisione, adattati ai contesti specifici e ai rischi, in relazione alle attività all’interno del ciclo di vita dei sistemi di intelligenza artificiale, inclusa l’identificazione dei contenuti generati dai sistemi di intelligenza artificiale.
Di fondamentale importanza, poi, è la previsione di una responsabilità giuridica, fondamentale per garantire il rispetto degli obblighi, trasformando tali impegni, che altrimenti rimarrebbero solo su carta, in azioni concrete e vincolanti.
A tal fine, infatti, si prevede l’obbligo di adottare (o mantenere) responsabilità per gli impatti negativi sui diritti umani, sulla democrazia e sullo stato di diritto risultanti dalle attività all’interno del ciclo di vita dei sistemi di intelligenza artificiale.
La fiducia sui sistemi di IA
Per quanto attiene al processo di sviluppo, e sull’affidabilità degli output, si prevedono requisiti relativi alla qualità e alla sicurezza adeguate lungo l’intero ciclo di vita dei sistemi di intelligenza artificiale e la creazione di ambienti controllati per lo sviluppo, la sperimentazione e il test dei sistemi di intelligenza artificiale sotto la supervisione delle autorità competenti.
Le garanzie
La Convezione quadro sull’IA prevede nel solco dell’accountability e di un approccio basato sul rischio l’obbligo di documentare e di trasmissione agli organi autorizzati ad accedere a tali informazioni e, ove appropriato e applicabile, rese disponibili o comunicate alle persone interessate.
Vengono cristallizzati i diritti degli interessati di contestare la decisione o le decisioni prese o sostanzialmente influenzate dall’uso del sistema e, ove rilevante e appropriato, l’uso del sistema stesso e la possibilità di presentare un reclamo alle autorità competenti.
Risk and impact management framework
Ma la fiducia passa anche dalla governance prevedendo l’obbligo di adottare o mantenere misure per l’identificazione, la valutazione, la prevenzione e la mitigazione dei rischi posti dai sistemi di intelligenza artificiale, considerando gli impatti reali e potenziali sui diritti umani, sulla democrazia e sullo stato di diritto.
Tali misure, si afferma, devono essere graduali e differenziate, ove appropriato, e:
- tenere debito conto del contesto e dell’uso previsto dei sistemi di intelligenza artificiale, in particolare per quanto riguarda i rischi per i diritti umani, la democrazia e lo stato di diritto;
- tenere debito conto della gravità e della probabilità degli impatti potenziali;
- considerare, ove appropriato, le prospettive delle parti interessate, in particolare delle persone i cui diritti potrebbero essere influenzati;
- applicare iterativamente durante le attività all’interno del ciclo di vita del sistema di intelligenza artificiale;
- includere il monitoraggio dei rischi e degli impatti negativi sui diritti umani, sulla democrazia e sullo stato di diritto;
- includere la documentazione dei rischi, degli impatti reali e potenziali e dell’approccio alla gestione dei rischi;
- richiedere, ove appropriato, il collaudo dei sistemi di intelligenza artificiale prima di renderli disponibili per il primo utilizzo e quando vengono modificati in modo significativo.
Conclusione
Tale ulteriore intervento normativo in materia di sistemi di intelligenza artificiale, inevitabilmente, porterà a una divisione tra i fautori di uno sviluppo dei sistemi di IA senza regole e una fiducia incondizionata per i suoi preclari ed epigoni e chi, in una visione antropocentrica, pone come necessario un quadro giuridico applicabile a livello globale che stabilisca principi generali e regole comuni che governino le attività lungo l’intero ciclo di vita dei sistemi di intelligenza artificiale, preservando efficacemente i valori condivisi e sfruttando i benefici dell’intelligenza artificiale per la promozione di questi valori in modo favorevole all’innovazione responsabile.
Osservava il filosofo Friedrich Hölderlin: “Là dove cresce il pericolo, cresce anche ciò che salva”; e quindi l’obiettivo, come efficacemente affermato da Floridi, è quello di incidere non sul “ritmo” ma sulla “direzione” dell’innovazione, ponendo l’esplicabilità, intesa come trasparenza responsabilità ed intelligibilità dell’inferenza e della correlazione statistica dei sistemi di IA, quale misura di mitigazione dei relativi rischi.