Giunge dalle autorità americane una nuova normativa volta a regolamentare le app mediche basate sull’intelligenza artificiale: l’obiettivo di tale iniziativa è garantire una maggiore trasparenza in merito al funzionamento e alle caratteristiche di questi devices, in modo da permettere ai medici di identificarne limiti e potenziali rischi e, in tal modo, tutelare la salute dei pazienti che ne fanno uso.
La soluzione proposta prevede nuovi criteri di certificazione che, negli intenti dell’amministrazione Biden, dovranno informare circa la tipologia di addestramento dei sistemi e riguardo la base dati utilizzata, le funzioni e le corrette modalità d’utilizzo dei dispositivi medici basati su algoritmi d’intelligenza artificiale, disponibili ora e in futuro nel mercato dell’assistenza sanitaria.
Indice degli argomenti
Strumenti sicuri e capaci di rispettare la privacy degli utenti
I software basati sull’intelligenza artificiale e il machine learning, infatti, sono sempre più utilizzati nei dispositivi medici, in particolare per compiti di estrazione d’informazioni dai big data generati nell’ambito dell’assistenza sanitaria e per i sistemi Clinical Decision Support (CDS), che coadiuvano i medici nella formulazione di diagnosi e piani terapeutici.
Secondo i dati aggiornati ad ottobre della Food and Drug Administration (FDA), gli “AI/ML-enabled medical devices” che hanno ricevuto autorizzazione ad essere immessi nel mercato statunitense sono quasi 700, di cui 155 approvati solo nell’ultimo anno.
Inoltre, la proiezione della FDA per l’anno in corso prevede un incremento di questi dispositivi del 30% rispetto al 2022, una crescita che si avvicina a quella record del 2020 (39%), quando si è registrato il boom dei dispositivi medici intelligenti durante la pandemia.
In tale contesto, la missione dichiarata dalle autorità di regolamentazione è quella di assicurare un bilanciamento tra l’efficienza di una medicina digitale usata sempre più capillarmente e l’effettiva disponibilità di strumenti sicuri e capaci di rispettare la privacy degli utenti.
Le criticità nei dispositivi medici basati sull’IA
La performance degli “AI/ML-enabled medical devices”, infatti, non è sempre risultata ottimale: in alcune ricerche condotte nel 2019 e nel 2021 sono stati documentati una serie di bias e problemi nel funzionamento di alcuni algoritmi AI operanti nei dispositivi medici, alcuni dei quali di largo uso negli ospedali americani.
Le criticità emerse hanno riguardato la non accuratezza di alcuni report diagnostici, errori nell’uso della terminologia medica e nella prescrizione dei farmaci, nonché previsioni prognostiche fallaci poiché basate su dati parziali e capaci di creare disparità di trattamento in relazione all’etnia o al reddito del paziente.
Questi problemi rappresentano un rischio crescente per la difesa della salute e della privacy, soprattutto se viene considerato che le app mediche non sono utilizzate unicamente da operatori abilitati nelle strutture sanitarie ma sono sempre più a disposizione del consumatore privato, che li acquista attratto dalla possibilità di monitorare con facilità e in tempo reale il proprio stato di salute.
Infatti, il mercato dei Wearable Medical Devices, utilizzati per finalità come sport, fitness e home healthcare è in espansione ed è valutato in circa 36,12 miliardi di dollari per il 2023, con proiezioni di raddoppio entro i prossimi cinque anni.
AI e dispositivi medici: misure a tutela dei pazienti
L’Office of the National Coordinator for Health Information Technology (ONC), divisione del Department of Health & Human Services (HHS), si è mosso già ad inizio 2023 sfruttando I propri poteri normativi per imporre una certificazione che riprende il modello delle etichette alimentari.
L’Ufficio del Coordinatore Nazionale per la Tecnologia dell’Informazione Sanitaria sta sfruttando i suoi poteri normativi per imporre una sorta di “Etichetta nutrizionale” o “Nutrition label” per le applicazioni sanitarie, ovvero una forma di valutazione standardizzata che riveli apertamente i dettagli sulla funzionalità, le prestazioni, la formazione e le misure di sicurezza delle app, in modo da fornire ai consumatori le informazioni necessarie per delle scelte consapevoli.
La nuova proposta di regolamentazione apporterebbe molti aggiornamenti ai criteri di certificazione, fra cui la gestione dei dati demografici le osservazioni sui pazienti e le segnalazioni dei casi clinici.
L’implementazione delle nuove disposizioni potenzierebbe l’interoperabilità, migliorerebbe la trasparenza nonché l’accesso, lo scambio e l’uso dei dati sanitari in formato elettronico.
Si tratta, al contempo, della prima legislazione finalizzata a tutelare la coesistenza sociale e a proteggere i diritti umani in un contesto in cui l’uso dell’AI pone nuovi e rilevanti rischi per la sicurezza.
La nuova legge, infatti, propone che il settore sanitario ad adottare sistemi che integrino interfacce di programmazione delle applicazioni (API) standardizzate per consentire l’accesso in modo sicuro e semplice alle informazioni sanitarie elettroniche, e ad implementare le disposizioni sul blocco delle informazioni previste dal ventunesimo Century Cures Act (Cures Act) oltre ad integrare gli standard più avanzati sull’interoperabilità dei dati sanitari (modello USCDI v3).
Al fine di mitigare una varietà di potenziali rischi, i moduli IT per la salute che facilitano o interfacciano un DSI (Decision Support Intervention) predittivo dovranno, inoltre, fornire agli utenti informazioni relative a quattro categorie di dati di origine: sviluppo; valutazione della validità, dell’equità e dell’efficacia.
Verrà, poi, garantito un monitoraggio continuo durante utilizzo dei DSI previsivi (dati tecnici e di prestazione), inclusi dati extra particolari rilevanti per l’equilibrio
Per ottenere la certificazione di Certified Electronic Health Record (EHR) Technology, occorrerà quindi fornire una serie di informazioni che andranno dalle indicazioni per l’uso e i dettagli sui set di dati utilizzati per addestrare l’AI, le avvertenze e le limitazioni operative degli algoritmi, i riferimenti alla privacy e alla sicurezza.
Queste informazioni saranno disponibili al pubblico in forma sintetica e facilmente comprensibile tramite un link ipertestuale che riprende il sopracitato standard dell’etichetta alimentare.
Gli impegni volontari delle aziende sanitarie USA
In questo scenario, lo scorso 14 dicembre 2023 l’amministrazione Biden-Harris ha annunciato che 28 tra le principali aziende sanitarie americane adotteranno degli impegni volontari per sfruttare il potenziale e gestire i rischi introdotti dall’IA in questo settore.
Si tratta di un passo fondamentale verso la garanzia di un’intelligenza artificiale responsabile nell’assistenza sanitaria.
L’annuncio rappresenta l’ultimo atto di un impegno più ampio volto a garantire che l’intelligenza artificiale sia implementata in modo sicuro e responsabile nell’assistenza sanitaria.
In particolare, le aziende si impegneranno a:
Queste aziende si impegnano a:
- Sviluppare soluzioni di intelligenza artificiale per ottimizzare la fornitura e il pagamento dell’assistenza sanitaria promuovendo l’equità sanitaria, ampliando l’accesso, rendendo l’assistenza sanitaria più accessibile, migliorando l’assistenza più coordinata, migliorando l’esperienza dei pazienti e riducendo il burnout clinico.
- Lavorare con i loro colleghi e partner per garantire che i risultati siano allineati con i principi AI equi, appropriati, validi, efficaci e sicuri, come stabilito e referenziato nel regolamento Health Data Technology e Interoperability: Certification Program Updates, Algorithm Transparency e Information Sharing (HTI-1) adottato dal Department of Health and Human Services (HHS).
- Implementare meccanismi di fiducia che informano gli utenti se il contenuto è in gran parte generato dall’intelligenza artificiale e non viene rivisto o modificato da un essere umano.
- Aderire a un framework di gestione dei rischi che includa il monitoraggio completo delle applicazioni basate su modelli di frontiera e la contabilizzazione di potenziali danni e passaggi per mitigarle.
- Fare ricerca e sviluppare l’IA rapidamente ma responsabilmente.
Conclusioni
È importante segnalare che questi sforzi regolatori non sono isolati nel settore sanitario. I passi intrapresi dall’ONC prima e ora gli impegni volontari delle aziende sanitarie sono parte della più ampia strategia messa in campo dall’amministrazione Biden per giungere a una regolamentazione complessiva dell’intelligenza artificiale.
Il 30 ottobre 2023, infatti, il presidente ha emesso un ordine esecutivo con cui è stata tracciata una chiara roadmap che investe i diversi settori in cui opera questa nuova tecnologia con lo scopo di gestire le molteplici implicazioni legali e normative legate all’impiego dell’intelligenza artificiale in modo da garantirne l’uso sicuro e consapevole nella società.