L’intelligenza artificiale offre un’enorme promessa in termini di innovazione, efficienza e progresso in una vasta gamma di settori, emergendo come una delle tecnologie più trasformative e potenti del nostro tempo, ma essa porta anche con sé sfide significative e potenziali rischi.
Pertanto, l’importanza della regolamentazione di questa tecnologia a livello globale è cruciale per garantire che sia sviluppata e utilizzata in modo responsabile, etico e sicuro. Infatti, l’IA può avere impatti profondi sulla società, sull’economia e sulla vita delle persone.
Senza normative adeguate, potrebbero emergere situazioni di abuso, discriminazione o monopolio, minacciando i diritti degli utenti, la concorrenza e la privacy.
Come misurare e rendere affidabile un sistema di intelligenza artificiale
Indice degli argomenti
Cooperazione internazionale nella regolamentazione dell’IA
In questo contesto, la cooperazione internazionale nella regolamentazione dell’IA è fondamentale per evitare una frammentazione normativa che potrebbe ostacolare l’innovazione e creare confusione per le aziende e gli utenti in tutto il mondo.
Un quadro normativo globale può quindi aiutare a stabilire standard comuni e garantire la conformità a livello internazionale.
Tanto più che, la sicurezza è una preoccupazione centrale quando si tratta di IA. La regolamentazione potrebbe contribuire a garantire che vengano adottate misure per prevenire minacce come attacchi informatici o manipolazione dei dati.
L’impegno degli USA nella regolamentazione dell’IA
Recentemente, diversi Paesi stanno lavorando a delle iniziative di regolamentazione per affrontare le sfide e i rischi associati all’intelligenza artificiale. Negli Stati Uniti, in particolare, l’Amministrazione Biden-Harris ha preso in considerazione diverse proposte legislative per regolare l’IA.
Queste proposte cercano di affrontare questioni cruciali come la trasparenza, la responsabilità, la discriminazione algoritmica e la privacy dei dati. L’obiettivo è garantire che l’AI sia sviluppata in modo sicuro e responsabile e che protegga il pubblico da potenziali danni e discriminazioni.
Come parte di questo impegno si colloca l’impegno che l’amministrazione ha ottenuto da sette importanti aziende nel campo dell’Intelligenza Artificiale (AI) – Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI – per promuovere lo sviluppo responsabile e sicuro dell’AI.
Questi impegni includono test di sicurezza, condivisione di informazioni sulla gestione dei rischi, investimenti in sicurezza informatica, divulgazione di informazioni sulle capacità dell’AI, e ricerca per mitigare rischi societari.
Il 13 settembre si è tenuto a Washinghton il primo AI Insight Forum, focalizzato su questioni politiche chiave, opportunità e minacce legate all’intelligenza artificiale. L’evento, aperto a tutti i membri del Senato americano, ha visto la partecipazione di amministratori delegati delle principali aziende tecnologiche, tra cui Elon Musk di X, Mark Zuckerberg di Meta, Sundar Pichai di Google, Jensen Huang di NVIDIA e Sam Altman di OpenAI, oltre a leader nei settori della difesa, della ricerca, dell’istruzione e della società civile.
Nel suo discorso di apertura, il senatore Chuck Schumer si è concentrato sull’importanza di bilanciare l’innovazione e la sicurezza nel contesto dell’intelligenza artificiale (AI), facendo riferimento al proprio “SAFE Innovation Framework” per l’Intelligenza Artificiale.
“SAFE” è infatti l’acronimo dei cinque pilastri chiave su cui si basa il framework: Security, Accountabilty, protecting Foundations, ed Explainability. Schumer propone un approccio articolato alla regolamentazione dell’AI che cerca di equilibrare l’innovazione con la sicurezza, la responsabilità e la protezione dei valori democratici fondamentali. Il concetto di Safe Innovation esprime la necessità di promuovere l’innovazione che porta benefici trasformativi, ma allo stesso tempo sviluppare misure di sicurezza sostenibili per garantire che l’AI non comporti rischi o danni.
Tra le tematiche affrontate, è stata esplorata l’opportunità di istituire un ente indipendente per la supervisione di specifici settori della tecnologia in rapida evoluzione, la promozione della trasparenza delle aziende e la strategia degli Stati Uniti per mantenere un vantaggio competitivo. Durante l’incontro, Elon Musk ha affermato che sia necessario avere un ente regolatore per garantire l’uso sicuro dell’intelligenza artificiale, sottolineando che tale organo dovrebbe “assicurare che le aziende adottino azioni sicure e nell’interesse del pubblico”.
Si è dimostrato d’accordo anche Mark Zuckerberg, che ha dichiarato che il Congresso degli Stati Uniti dovrebbe impegnarsi nell’ambito dell’IA per promuovere l’innovazione e garantire adeguati meccanismi di sicurezza. Ha sottolineato che si tratta di una tecnologia emergente, e che è fondamentale bilanciare le diverse esigenze, affidando la responsabilità ultima al governo, che dovrebbe lavorare con le aziende americane per definire degli standard in tale ambito.
Inoltre, nel corso del dibattito, uno dei punti chiave di discussione è stato la pratica di rendere alcuni programmi di intelligenza artificiale open source, ovvero accessibili al pubblico per essere scaricati e modificati. In questa sede, sono state espresse preoccupazioni riguardo a tale pratica, sostenendo che potrebbe comportare il rischio di mettere nelle mani di individui male intenzionati potenti sistemi di intelligenza artificiale.
In questo caso, Zuckerberg ha sostenuto che l’approccio open source “democratizza l’accesso a queste risorse e contribuisce a creare un ambiente di competizione equa, promuovendo al contempo l’innovazione sia per individui che per imprese.”
I primi passi verso una regolamentazione dell’IA
I primi passi verso una regolamentazione dell’IA negli Stati Uniti sono già stati compiuti. A giugno, infatti, è stata presentata una proposta di legge bipartisan che mira a consentire che le aziende di social media possano essere oggetto di azioni legali qualora diffondano contenuti dannosi generati attraverso l’uso dell’intelligenza artificiale.
In particolare, il disegno di legge aprirebbe la possibilità di intraprendere azioni legali contro le aziende di social media in relazione a questioni legate alle tecnologie emergenti di intelligenza artificiale generativa. Queste tecnologie, ad esempio, sono in grado di creare immagini e video noti come deepfake, prodotti talmente realistici da sembrare autentici, dagli utilizzi potenzialmente dannosi.
L’aspetto chiave di questa proposta di legge è l’intenzione di creare un’eccezione specifica alla “Section 230”, una legge che protegge le aziende internet dalla responsabilità legale per i contenuti pubblicati dagli utenti sulle loro piattaforme. La proposta cerca di introdurvi una disposizione specifica per l’intelligenza artificiale, affinché le società possano essere ritenute responsabili quando utilizzano queste tecnologie per diffondere contenuti dannosi o manipolati.
Nello stesso periodo è stata anche proposta l’istituzione di una Commissione Nazionale sull’Intelligenza Artificiale. Questa avrebbe il compito di esaminare l’attuale approccio degli Stati Uniti alla regolamentazione dell’AI e formulare raccomandazioni per migliorare e rafforzare tale regolamentazione. Inoltre, essa dovrebbe considerare la necessità di creare nuove strutture governative o uffici per gestire l’AI in modo efficace.
Secondo la proposta, la commissione dovrà essere composta da esperti provenienti da diverse aree, inclusi rappresentanti della società civile, del governo, dell’industria e dei sindacati. Questa diversificazione mira a garantire che tutte le prospettive rilevanti siano prese in considerazione nella formulazione delle raccomandazioni.
Uno degli obiettivi principali della commissione sarà lo sviluppo di un framework basato sul rischio per l’AI. Questo framework valuterà i rischi associati all’uso dell’AI e proporrà misure di regolamentazione proporzionate a tali rischi. L’obiettivo finale è creare un ambiente in cui l’innovazione nell’ambito dell’AI possa prosperare, ma in modo responsabile e sicuro.
La proposta di legge, inoltre, enfatizza la trasparenza e la responsabilità nel processo decisionale sulla regolamentazione dell’AI, ribadendo che le raccomandazioni della commissione dovrebbero basarsi su dati e informazioni complete, e dovrebbero essere accessibili al pubblico.
Le mosse dell’UE sulla regolamentazione dell’IA
Le iniziative degli Stati Uniti in direzione della regolamentazione dell’AI non sono le uniche. La Commissione Europea, infatti, sta attualmente lavorando all’AI Act, proprio per regolamentare l’Intelligenza Artificiale nell’ambito dell’UE.
L’obiettivo principale di questa proposta è garantire condizioni migliori per lo sviluppo e l’uso di questa tecnologia innovativa, tenendo conto dei suoi benefici potenziali, come un miglioramento nell’assistenza sanitaria, nel trasporto più sicuro e pulito, nella produzione più efficiente e nell’energia più economica e sostenibile.
Uno degli elementi chiave di questa proposta è la classificazione degli AI system in base al rischio che essi presentano per gli utenti. A seconda del livello di rischio, saranno previste più o meno regolamentazioni, in un approccio mira a garantire che l’AI sia utilizzata in modo sicuro e responsabile.
Le linee guida cinesi sull’uso dell’intelligenza artificiale
D’altra parte, anche la Cina si è mossa per imporre nuove regole a questa tecnologia. L’Agenzia per la Censura su Internet, l’organismo di vigilanza internet di alto livello del paese, infatti, ha presentato un nuovo insieme di linee guida per gestire questa industria in rapida crescita.
Le regole sono state pubblicate come “misure provvisorie” e sono entrate in vigore il 15 agosto. Rispetto a una bozza preliminare pubblicata in aprile, la versione definitiva sembra aver alleggerito alcune disposizioni precedentemente annunciate, indicando che Pechino vede opportunità nell’industria nascente mentre cerca di rilanciare la crescita economica per creare occupazione.
Le nuove regole si applicano solo ai servizi disponibili al pubblico in Cina e non riguardano la tecnologia sviluppata nelle istituzioni di ricerca o destinata agli utenti stranieri. Inoltre, la versione definitiva ha rimosso le sanzioni che prevedevano multe fino a 100.000 yuan (circa $14.000) per le violazioni.
Tra le principali disposizioni delle regole cinesi c’è l’obbligo per i fornitori di servizi di AI generativa di condurre revisioni di sicurezza e registrare i loro algoritmi presso il governo se i loro servizi sono in grado di influenzare l’opinione pubblica.
Un codice di condotta internazionale sull’IA
Per quanto riguarda, infine, le iniziative internazionali, i paesi del G7, hanno concordato di creare un Codice di Condotta Internazionale per l’intelligenza artificiale. Come parte delle linee guida volontarie, i responsabili politici hanno dichiarato che i paesi lavoreranno insieme su principi specifici che disciplineranno l’uso dell’IA generativa e altre forme avanzate di tecnologia.
Questo tentativo di creare un insieme di regole internazionali, unificate ma non vincolanti, verrà presentato nel mese di novembre.
Il codice di condotta dovrebbe includere impegni da parte delle aziende per adottare misure volte a prevenire eventuali danni alla società causati dai loro sistemi di IA, investire in rigide misure di sicurezza informatica per lo sviluppo della tecnologia e creare sistemi di gestione del rischio per limitare un possibile abuso della tecnologia.
Conclusioni
L’intelligenza artificiale sta vivendo una fase cruciale di sviluppo e regolamentazione in tutto il mondo.
Mentre offre promettenti opportunità di innovazione, efficienza e progresso, le sfide e i rischi che essa comporta non possono essere sottovalutati.
L’importanza della regolamentazione dell’IA a livello globale risiede nella necessità di bilanciare l’innovazione con la sicurezza, l’etica e il rispetto dei diritti umani, garantendo che l’IA contribuisca al benessere dell’umanità nel suo insieme. In questo senso, una collaborazione internazionale efficace rappresenterebbe una chiave per affrontare le sfide globali poste dall’IA e per sfruttare appieno il suo potenziale positivo.