Il Garante Privacy ha recentemente emesso un decalogo che fornisce linee guida per la creazione di servizi sanitari nazionali basati sull’Intelligenza Artificiale (IA). Queste direttive rappresentano un importante passo verso l’adozione responsabile di tecnologie avanzate nell’ambito sanitario.
Il documento è stato sviluppato in stretta conformità con il Regolamento Generale sulla Protezione dei Dati (GDPR) al fine di garantire il rispetto dei diritti fondamentali degli individui coinvolti.
Indice degli argomenti
Decalogo del Garante sull’uso dell’IA in sanità: punti salienti
Una delle pietre miliari di queste linee guida è la trasparenza dei processi decisionali basati sull’IA.
Secondo il Garante, i pazienti dovrebbero essere pienamente informati della presenza e del funzionamento di processi decisionali automatizzati che potrebbero avere un impatto significativo sulla loro salute.
Questa informazione dovrebbe essere diffusa attraverso campagne di comunicazione, con l’obiettivo di garantire una comprensione diffusa della logica che sottende tali decisioni.
Questa chiarezza diventa fondamentale, specialmente in contesti clinici e politiche sanitarie in cui i sistemi di IA potrebbero influenzare in modo sostanziale le scelte mediche.
Importante la supervisione umana nei processi decisionali basati sull’IA
Un aspetto cruciale delle direttive del Garante è la necessità di una supervisione umana nei processi decisionali basati sull’IA.
In particolare, il Garante specifica come la presenza di personale sanitario in grado di valutare e validare le decisioni prese dagli algoritmi di IA è fondamentale per garantire la correttezza e l’eticità di tali decisioni.
L’uso di sistemi di IA affidabili è altamente raccomandato, in quanto possono contribuire a ridurre al minimo errori dovuti a fattori tecnologici o umani.
È altresì importante verificare periodicamente l’efficacia di questi sistemi attraverso misure tecniche e organizzative appropriate. Questo processo di verifica periodica è fondamentale per prevenire discriminazioni derivanti da dati inesatti o incompleti che potrebbero compromettere la salute delle persone.
I rischi di una potenziale discriminazione algoritmica
Un esempio tangibile di potenziale discriminazione algoritmica è stato riscontrato negli Stati Uniti. Un sistema di IA utilizzato per stimare il rischio sanitario di oltre 200 milioni di americani tendeva a sottostimare il rischio per i pazienti di etnia afroamericana.
Questo errore derivava da una metrica che teneva conto della spesa sanitaria media individuale, che risultava essere più bassa nella popolazione afroamericana.
Di conseguenza, ciò ha portato a un accesso limitato a cure sanitarie adeguate a queste persone.
Questo esempio mette in evidenza quanto sia fondamentale garantire dati precisi ed equi per evitare discriminazioni basate su fattori errati o inadeguati.
Una base giuridica adeguata per l’uso dell’IA in Sanità
Un altro elemento chiave sottolineato dal Garante è la necessità di disporre di una base giuridica adeguata per l’uso dell’IA nei trattamenti sanitari.
Questo richiede un quadro normativo specifico che identifichi misure adeguate a tutela dei diritti, delle libertà e degli interessi legittimi delle persone coinvolte, soprattutto con riferimento alla forma di autorizzazione nota come consenso informato. La conformità con le leggi vigenti è un passo cruciale verso l’adozione responsabile dell’IA nella sanità.
Conclusione
Il Garante Privacy ha quindi sottolineato l’importanza della valutazione d’impatto prima dell’implementazione di sistemi di IA nei servizi sanitari nazionali. Questo processo è obbligatorio per i trattamenti che rappresentano “alto rischio” e deve essere eseguito a livello centrale.
L’obiettivo di questa valutazione è garantire che le misure adottate siano coerenti e adeguate a proteggere i diritti e le libertà dei pazienti e a rispettare i principi del GDPR.
Inoltre, è essenziale fornire dettagli chiari sul funzionamento degli algoritmi, sulle metriche utilizzate per l’addestramento e sui controlli per identificare e correggere eventuali bias.
Secondo il Garante, queste misure sono fondamentali per garantire un uso etico e sicuro dell’IA nei servizi sanitari nazionali, riducendo al minimo le potenziali discriminazioni e proteggendo i diritti e le libertà delle persone coinvolte.