Il recente annuncio della partnership di Apple con OpenAI per integrare ChatGPT nel proprio ecosistema ha dato il via a discussioni relativamente al potenziale impatto sulla sicurezza dell’iPhone.
In questa fase, sembra che questa integrazione non avrà particolare influenza.
Indice degli argomenti
Preoccupazioni per fughe di dati verso OpenAI
Dalle informazioni disponibili, sembra che alcuni interrogativi di Siri saranno indirizzati a ChatGPT di OpenAI e i risultati saranno restituiti agli utenti. Ciò solleva alcune preoccupazioni circa le fughe di dati verso OpenAI, in quanto gli utenti potrebbero non essere sempre consapevoli se le loro richieste vengono elaborate da Apple o dal laboratorio di ricerca sull’intelligenza artificiale.
Tuttavia, è troppo presto per capirlo, perché il prodotto non è ancora stato rilasciato e non è chiaro quali saranno le protezioni della privacy e quanto saranno efficaci.
Un vantaggio significativo dell’approccio proxy di Apple è la limitazione imposta all’utilizzo dei dati da parte di OpenAI. Quest’ultima, ad esempio, potrebbe avere meno opportunità di analizzare e commercializzare i dati degli utenti. Questo accesso ridotto ai dati dettagliati degli utenti potrebbe ridurre il potenziale di pubblicità mirata e di altri usi commerciali delle informazioni generate dall’IA.
Una preoccupazione più pressante deriva dall’infrastruttura PCC (Private Cloud Compute) di Apple. Sfortunatamente, Apple non ha definito chiaramente il proprio modello di minaccia, limitandosi a menzionare alcuni parametri, come la gestione delle minacce legate all’accesso fisico ai server.
Questa mancanza di dettagli espliciti impedisce ai ricercatori di comprendere appieno quali minacce Apple considera all’interno del proprio modello e quali invece sono escluse.
Ad esempio, Apple indica che i dati dell’iPhone, comprese le richieste LLM e i parametri di inferenza, sono crittografati utilizzando la chiave pubblica di uno specifico nodo di elaborazione, senza che un bilanciatore di carico intermedio decifri la richiesta prima che raggiunga il nodo medesimo.
Tuttavia, non è chiaro se un cliente possa eseguire un’attestazione remota dell’integrità del nodo e se tale attestazione possa essere verificabile. Questa ambiguità lascia aperti interrogativi sulla solidità delle misure di sicurezza di Apple.
L’approccio di Apple per proteggere i dati utente
Per ridurre il rischio che i dati vengano presi di mira, Apple impiega un approccio di scoperta dei servizi “N su M” per i nodi PCC, con una distribuzione casuale verificabile delle scelte dei nodi. Inoltre, gli indirizzi IP degli utenti vengono resi anonimi dai nodi PCC attraverso un server proxy che preserva la privacy.
Si tratta di un approccio eccellente, tuttavia la conclusione secondo cui l’aggressore non sarebbe in grado di abbinare l’utente alla richiesta non sembra tenere conto dell’esistenza di un osservatore di rete in grado di monitorare il traffico prima e dopo il server proxy.
Anche in questo caso, dichiarando chiaramente quali attacchi fanno parte del modello di minaccia, Apple potrebbe rendere il tutto più trasparente e più facile da comprendere per i ricercatori indipendenti.
Allo stesso tempo, Apple cerca di convincerci di essere a conoscenza e di rispondere a una delle preoccupazioni più diffuse nei confronti dei sistemi di intelligenza artificiale basati sul cloud, come ad esempio: “Se un servizio di Intelligenza Artificiale nel cloud dichiara di non registrare determinati dati dell’utente, in genere non c’è modo per i ricercatori di sicurezza di verificare questa promessa – e spesso non c’è modo per il fornitore del servizio di farla rispettare in modo duraturo. Ad esempio, una nuova versione del servizio di Intelligenza Artificiale può introdurre una registrazione di routine aggiuntiva che inavvertitamente registra dati sensibili dell’utente senza che un ricercatore possa rilevarlo. Allo stesso modo, un bilanciatore di carico perimetrale che interrompe il protocollo TLS può finire per registrare migliaia di richieste dell’utente all’ingrosso durante una sessione di risoluzione dei problemi”; e questo è assolutamente vero.
Apple tenta di affrontare la minaccia di distribuire una versione modificata del software PCC (Phantom Camera Control) che potrebbe violare la privacy degli utenti abilitando piani di produzione del software verificabili pubblicamente. Si tratta di un passo notevole verso la trasparenza.
Nel dettaglio, Apple pianifica:
- Rilasciare un ambiente di ricerca virtuale PCC: un insieme di strumenti e immagini che simulano un nodo PCC su un Mac con silicio Apple e che possono avviare una versione del software PCC minimamente modificata per una virtualizzazione efficace.
- I ricercatori otterranno periodicamente un sottoinsieme del codice sorgente del software PCC critico per la sicurezza.
- Le immagini PCC includeranno il firmware sepOS e il bootloader iBoot in chiaro, rendendo più facile che mai lo studio di queste componenti critiche da parte dei ricercatori.
Apple ha, inoltre, l’intenzione di estendere il programma Security Bounty per premiare le scoperte dei ricercatori.
Questo approccio di condivisione di alcune parti del codice sorgente non è una novità per i programmi ricompensa, ma Apple sta sicuramente facendo di tutto per condividere le componenti interne per rassicurare gli esperti di sicurezza di tutto il mondo che non possono usare backdoor o identificare gli utenti.
Cos’altro potrebbe fare o migliorare Apple
Nei settori B2B e B2G, si sta diffondendo la tendenza a condividere le sintesi dei resoconti interni e dei test di penetrazione condotti da aziende di terze parti e da ricercatori indipendenti.
Apple potrebbe adottare questo approccio pubblicando i rapporti di queste valutazioni approfondite.
Sarebbe particolarmente utile coinvolgere i ricercatori che da anni seguono in modo particolare i prodotti Apple, tra cui le comunità di jailbreaking e i principali contributori al programma bug bounty di ricompensa di Apple.
Inoltre, il coinvolgimento di esperti di privacy appartenenti a comunità rispettate, come quelle associate alla fondazione TOR e al suo browser, potrebbe migliorare ulteriormente la trasparenza.
Ciò significa che queste realtà avranno pieno accesso a tutti i sistemi, non solo alle parti che intendono condividere con il resto del mondo. Tecnicamente, dove necessario, dovrebbero essere in grado di condurre attacchi man-in-the-middle, in cui un criminale informatico intercetta i dati inviati tra due aziende o persone, ed esaminare le aree in cui potrebbe essere possibile aggiungere una backdoor e altro ancora; tutto ciò che potrebbe portare a problemi di privacy.
Inoltre, potrebbero condividere le loro idee su cosa potrebbe essere migliorato e Apple potrebbe impegnarsi a implementarlo in futuro. Sembra un sogno dal punto di vista della sicurezza.
Condividendo pubblicamente questi report e resoconti dettagliati, Apple non solo dimostrerebbe il suo impegno per la sicurezza, ma aumenterebbe anche in modo significativo la fiducia dei suoi utenti.
Questo livello di apertura garantirebbe ai clienti che i prodotti Apple sono costantemente sottoposti a test rigorosi e convalidati da esperti indipendenti, rafforzando così la dedizione dell’azienda alla privacy e alla sicurezza.
Conclusioni
Tutto questo ha senso perché solo cinque anni fa c’erano cartelloni pubblicitari di Apple a Las Vegas che dicevano: “Quello che succede sul tuo iPhone, rimane sul tuo iPhone”.
Se da un lato Apple ha indubbiamente profuso sforzi significativi nello sviluppo di protezioni all’avanguardia, dall’altro diventerà inevitabilmente un obiettivo primario per numerosi autori delle minacce.
L’integrazione del ChatGPT nell’ecosistema Apple, in particolare attraverso Siri, comporta la necessità di considerazioni meticolose in materia di sicurezza e privacy.