Lo scorso 10 giugno, Apple ha presentato al mondo Apple Intelligence, la sua intelligenza artificiale. Tra l’altro, è la dimostrazione che è effettivamente possibile bilanciare l’innovazione tecnologica con la tutela della privacy degli utenti.
Dietro Apple Intelligence c’è infatti un inedito sistema di protezione dati personali degli utenti, quelli – testo, foto, contatti, documenti – presenti nei dispositivi e che l’IA deve usare per svolgere le nuove funzioni.
Indice degli argomenti
Apple Intelligence
Apple Intelligece, com’è noto, è stata presentata al WWDC, la conferenza annuale degli sviluppatori promossa da Apple che coglie l’occasione di illustrare quali saranno le novità delle future major release dei suoi sistemi operativi che saranno disponibili per tutti gli utenti a partire dal prossimo autunno.
Dopo un rapido excursus sulle novità principali di ogni sistema operativo (tra cui il supporto allo standard RCS in iMessage, cosa che consente l’interoperabilità con altre app di messaggistica, come previsto dal DSA), Tim Cook e soci si sono soffermati notevolmente nel presentare Apple Intelligence, da loro stessi definita l’AI for the rest of us.
Oltre al gustoso gioco di parole, dato che l’abbreviazione del nuovo servizio rimane sempre AI, come il genus dei software a cui appartiene, si è avuto modo di apprezzare le potenzialità delle funzioni di Apple Intelligence: dalla scrittura di e-mail alla generazione di immagini, passando a Genmoji, che consente di realizzare emoji personalizzate, sino alla perfetta integrazione con Siri e con ogni nostra app e contenuti dei dispositivi (foto, contatti eccetera).
Date le premesse, chi ha avuto modo di guardare la presentazione in diretta si è posto il dubbio di come il sistema potesse funzionare tenuto conto che Apple ha sempre ritenuto la privacy un diritto fondamentale di ogni individuo.
La privacy nell’intelligenza artificiale di Apple
Apple ha da subito chiarito che il suo intento non era quello di creare un servizio concorrente di ChatGPT, Gemini e Grok, ma quello di approcciare al mondo AI da un punto di vista meramente personale: per questo, Craig Federighi ha chiarito sin da subito che Apple Intelligence è un servizio di Personal Intelligence: quasi tutta l’elaborazione avviene in locale, sul dispositivo dell’utente e per questo motivo serviranno i nuovi e più potenti iPhone (o computer Mac).
Per alcune richieste degli utenti, più complesse, però sarà necessaria più potenza di calcolo e l’uso di modelli generativi più grandi (per ora ChatGpt). In questo caso Apple avvisa l’utente che i dati finiranno sulla cloud dell’azienda – chiedendo il permesso di procedere – ma non saranno memorizzati e saranno usati solo per quella specifica task di AI. Non per altri fini, nemmeno per addestrare il modello o migliorare il servizio (tantomeno per profilare l’utente, aspetto che può essere in teoria utile al modello di business di Google e Meta, non certo di Apple).
Il Private Compute Cloud
Ed è proprio questo nuovo modello di elaborazione dei dati, ibrido fra locale e cloud, la vera e propria rivoluzione di Apple Intelligence: se il dispositivo non ha abbastanza risorse a disposizione, entra in gioco il Private Compute Cloud, un sistema che è progettato per gestire l’elaborazione di dati personali in un ambiente sicuro e privato.
In quel di Cupertino, hanno costruito il PCC utilizzando solo tecnologie proprietarie, dai processori sino al sistema operativo, basato sempre sul core di iOS. Questo consente ad Apple di avere il controllo totale sull’intero processo di elaborazione dei dati inviati dai dispositivi degli utenti.
Ad esempio, i chip utilizzati sono tutti dotati delle tecnologie Secure Enclave e Secure Boot già adottate da Cupertino nei SoC dei propri prodotti da diversi anni: dunque, persino le chiavi di crittografia sono del tutto inaccessibili a chiunque. Tra l’altro, i dati degli utenti sono trasmessi al PCC solo dopo essere stati crittografati con protocollo end-to-end, di modo che nemmeno Apple stessa sia in grado di accedervi in alcun modo.
Ancora, i server sono in grado di eseguire solo codice firmato e verificato, così come i dispositivi invieranno i dati a un cluster PCC solo ed esclusivamente se lo riconosceranno come tale.
Inoltre, gli esperti indipendenti possono chiedere ad Apple di accedere al PCC per analizzare il codice in esecuzione, di modo da verificare che le promesse di tutela della privacy siano mantenute.
Dunque, Il Private Compute Cloud permette ad Apple di utilizzare tecniche avanzate di machine learning e AI senza dover compromettere la privacy degli utenti.
Apple e OpenAI: Siri sarà amica di ChatGPT, Musk sbaglia
Ove mai Apple Intelligence non sia in grado di soddisfare la richiesta dell’utente, costui potrà scegliere se ricorrere a ChatGPT (in futuro anche altri modelli: Apple ha citato Gemini di Google): infatti, apparirà un pulsante per l’invio della richiesta direttamente al servizio di OpenAI.
A dispetto delle preoccupazioni di Elon Musk, che ultimamente ha dichiarato che se l’integrazione fra iOS e ChatGPT si rivelerà troppo profonda vieterà l’uso dei dispositivi Apple nelle sue aziende, tanto da ricorrere a gabbie di faraday per i visitatori muniti di iPhone, i dati saranno inviati anonimizzati e criptati e, comunque, non saranno salvati da OpenAI. Ad ogni modo, gli utenti premium di ChatGPT potranno collegare il proprio account ai sistemi operativi di Apple, e, quindi, autorizzare espressamente, con il proprio consenso esplicito, OpenAI a elaborare i soli dati che le verranno trasmessi.
Secondo le recenti dichiarazioni di Craig Federighi, in futuro sarà possibile collegare anche altri servizi esterni, come Gemini, di modo da ampliare le possibilità di utilizzo di Apple Intelligence.
Ad ogni modo, Apple ha dichiarato che non pagherà alcunché ai fornitori dei servizi AI terzi, dato che la visibilità che darà loro con l’integrazione nei propri sistemi operativi varrà più di ogni altro pagamento.
Conclusioni
Come sempre, Apple insegna che il delicato equilibro fra progresso tecnologico, privacy e circolazione dei dati personali non è una chimera: i dati che Apple Intelligence analizzerà di continuo, visto che dovrà essere sempre pronta a intervenire su richiesta dell’utente, possono essere tanto delicati (foto private, video, e-mail di lavoro) quanto di natura particolare (e-mail e messaggi contenenti dati sanitari, fra tutti), non saranno mai disponibili a nessun altro, se non all’utente stesso.
È un approccio diametralmente opposto a quello dei concorrenti (ad esempio, quello di Meta), seppur in alcuni casi partner di Cupertino stessa, ma che dimostra come la tecnologia non si contrappone al diritto alla riservatezza di ciascuno di noi.
Dunque, la soluzione adottata da Apple dovrebbe essere un po’ il paradigma a cui tutti i player nel settore dell’IA dovrebbero ispirarsi, anche sviluppando soluzioni alternative e/o complementari.