Il 2024 segna un anno cruciale per OpenAI, l’ormai nota società di ricerca sull’intelligenza artificiale con sede a San Francisco e supportata da Microsoft: con il lancio di GPT-4o, un chatbot AI dotato della capacità di rilevare le emozioni umane, OpenAI ha segnato un significativo passo avanti nella sua missione di espandere il servizio ChatGPT.
Tuttavia, questo nuovo traguardo tecnologico porta con sé anche una serie di preoccupazioni e potenziali rischi che meritano un’attenta analisi.
Indice degli argomenti
GPT-4o: cosa sta cambiando nel mondo AI
GPT-4o si distingue per la sua capacità di percepire le emozioni attraverso telecamere in tempo reale e per il tramite della sua interfaccia audio, che consente agli utenti di interagire tramite comandi vocali.
La possibilità di rispondere a domande, fornire traduzioni e analizzare l’ambiente circostante utilizzando una fotocamera per identificare i luoghi rappresenta un avanzamento significativo rispetto alle versioni precedenti.
Tuttavia, questi progressi hanno sollevato timori riguardo la sicurezza e la privacy.
Una delle principali preoccupazioni riguarda la capacità di GPT-4o di rilevare le emozioni umane. Questo aspetto, pur rappresentando un passo avanti nella tecnologia di riconoscimento delle emozioni, solleva interrogativi sull’uso etico e sulla gestione dei dati sensibili raccolti dalle telecamere.
Gli utenti potrebbero sentirsi osservati e giudicati, con un impatto significativo sulla loro privacy.
Inoltre, l’accuratezza con cui il sistema identifica le emozioni potrebbe non essere sempre impeccabile, portando a malintesi o reazioni inadeguate.
I punti critici di GPT-4o evidenziati dagli esperti
Un altro punto critico riguarda l’uso di GPT-4o in contesti lavorativi. Alcuni utenti temono che l’introduzione di questa tecnologia possa minacciare posti di lavoro in settori come l’assistenza clienti, l’insegnamento e la negoziazione.
Ben Leong, professore di informatica all’Università Nazionale di Singapore, ha espresso cautela riguardo alla capacità di GPT-4o di sostituire efficacemente i ruoli umani in questi ambiti. Leong sottolinea le sfide ancora presenti nell’intelligenza artificiale, che deve affrontare per comprendere e rispondere adeguatamente alle complesse esigenze umane.
Simon Lucey invece, direttore dell’Australian Institute for Machine Learning presso l’Università di Adelaide, ha evidenziato ulteriori limiti dell’intelligenza artificiale, citando errori commessi da ChatGPT nelle versioni precedenti durante esecuzioni di calcoli di base. Lucey ha enfatizzato la necessità di una supervisione umana continua, affermando che “alla fine, hai ancora bisogno di un essere umano per esprimere un giudizio su ciò che sta producendo”.
Il caso simile di Project Astra in casa Google
In maniera più o meno analoga e simultanea al lancio di Open AI anche Google sfida i big dell’AI con il nuovo Project Astra che, si dirige verso il mondo dell’input video. Ovviamente anche qui le implicazioni sono del tutto paragonabili, come abbiamo visto appena sopra ma, l’impatto sugli utenti in larga scala (pensiamo per esempio all’implementazione in Android), potrebbe rivelarsi anche più rischioso.
L’uso di input video in assistenti AI come Project Astra di Google ha il potenziale di rivoluzionare l’interazione tra gli utenti e la tecnologia, ma presenta anche diverse sfide e implicazioni.
L’AI può riconoscere oggetti, persone e ambienti, migliorando l’accuratezza delle risposte e dei suggerimenti. Ad esempio, può identificare oggetti smarriti o fornire istruzioni basate su ciò che vede. Il tutto con feedback in tempo reale.
È infatti anche vero che il sistema raccoglie dati estremamente sensibili, inclusi volti, ambienti privati e attività personali. Questo solleva preoccupazioni significative sulla privacy.
Altro grande pericolo viene rivestito, per entrambe le tecnologie, dal fattore di abuso dei sistemi a base input audio e video: per frodi contro CEO aziendali e generazione di disinformazione.
L’apertura a un pubblico di massa di queste tecnologie è sicuramente da curare con estrema cautela, d’altro canto anche le aziende dovranno sempre di più adeguare i propri protocolli interni, su processi e sviluppi, proprio per eventuali aumenti di frodi contro i dipendenti che, appunto, saranno “sempre più credibili”.
Come mitigare i possibili rischi dell’uso di ChatGPT-4o
Nonostante queste preoccupazioni, il lancio di GPT-4o rappresenta un progresso significativo nella tecnologia AI. OpenAI dichiara di aver lavorato per affrontare il problema della latenza nelle conversazioni, dotando GPT-4o di “supporto multimodale nativo”, che consente al sistema di analizzare i comandi audio direttamente, senza convertirli prima in testo.
Questo ha reso le interazioni più rapide e fluide, riducendo il tempo di risposta a un livello quasi impercettibile per l’utente medio.
Tuttavia, il miglioramento delle capacità tecniche non elimina completamente i rischi associati all’uso di GPT-4o. L’aggiunta di nuove modalità, come gli input e output audio, introduce nuove sfide in termini di sicurezza e etica.
OpenAI ha riconosciuto questi rischi e ha implementato interventi di sicurezza basati su feedback di esperti esterni in ambiti quali la psicologia sociale, la parzialità e la disinformazione. Questi interventi mirano a mitigare i nuovi rischi man mano che vengono scoperti.
Attualmente, GPT-4o è stato rilasciato con input di testo e immagine e output di testo, con ulteriori modalità audio che verranno implementate nei prossimi mesi. Durante questa fase, OpenAI lavorerà sulla sicurezza, l’usabilità e l’infrastruttura tecnica necessarie per garantire che l’interazione con GPT-4o sia sicura e affidabile. Ad esempio, gli output audio inizialmente saranno limitati a una selezione di voci preimpostate e rispetteranno le politiche di sicurezza esistenti.
Mentre il lancio di GPT-4o segna un progresso significativo nell’intelligenza artificiale, è essenziale affrontare con attenzione i rischi emergenti.
La capacità di rilevare emozioni e di rispondere ai comandi vocali rappresenta un passo avanti notevole, ma continuerà sempre a sollevare interrogativi sulla privacy, l’etica e la sicurezza dei dati.
La continua supervisione umana e l’implementazione di misure di sicurezza adeguate saranno cruciali per garantire che GPT-4o possa essere utilizzato in modo sicuro e responsabile, senza compromettere i diritti e il benessere degli utenti.