Il presidente americano Biden ha iniziato a valutare la necessità di controllare gli strumenti di intelligenza artificiale “generativa” come ChatGPT, in seguito alle crescenti preoccupazioni che la tecnologia possa essere utilizzata per discriminare o diffondere informazioni dannose.
Come primo passo verso una potenziale regolamentazione, oggi il Dipartimento del Commercio ha presentato una richiesta pubblica formale di commenti su quelle che ha definito misure di responsabilità, tra cui la possibilità che nuovi modelli di intelligenza artificiale potenzialmente rischiosi debbano essere sottoposti a un processo di certificazione prima di essere rilasciati.
“Molto interessante quanto sta avvenendo negli Stati Uniti. Non è più solo l’Italia, o l’Europa, a porsi questioni di diritto sulle innovazioni di frontiera, per il loro impatto dirompente sulle vite di tutti“, spiega l’avvocato Enrico Pelino, secondo cui tuttavia “non è ancora chiaro quali regole si applicheranno e in quale misura quelle attuali, come il Gdpr, o future, come la bozza AI ACT siano adeguate”.
Privacy di ChatGPT, una lezione per tutte le app di AI: ecco cosa imparare
Indice degli argomenti
ChatGpt e AI generative, che stanno facendo negli USA
“È sorprendente vedere cosa possono fare questi strumenti, anche se sono relativamente agli inizi”, ha dichiarato Alan Davidson, a capo della National Telecommunications and Information Administration, l’agenzia del Dipartimento del Commercio che ha inviato la richiesta di commenti. “Sappiamo che dobbiamo mettere dei paletti per assicurarci che vengano usati in modo responsabile”.
I commenti, che saranno accettati nei prossimi 60 giorni, saranno utilizzati per aiutare a formulare consigli ai politici statunitensi su come affrontare l’IA, ha detto Davidson. Davidson ha aggiunto che il mandato legale della sua agenzia prevede la consulenza al Presidente sulla politica tecnologica, piuttosto che la stesura o l’applicazione di regolamenti.
I funzionari dell’industria e del governo hanno espresso preoccupazione per una serie di potenziali danni dell’IA, tra cui l’uso della tecnologia per commettere crimini o diffondere falsità. Qui in ballo non c’è solo ChatGpt ma anche le AI generative che creano immagini, sempre più indistinguibili da quelle reali; la nuova versione di MidJourney ha corretto molti errori della precedente, sulla rappresentazione delle mani e dei piedi ad esempio.
La sicurezza dei bambini è stata al centro dell’attenzione del senatore Michael quando il mese scorso ha scritto a diverse aziende di IA, chiedendo informazioni su esperimenti pubblici in cui i chatbot hanno dato consigli preoccupanti a utenti che si spacciavano per giovani.
“Sono in corso conversazioni molto forti sul bene e sul male che l’IA potrebbe fare”, ha dichiarato il senatore Richard Blumenthal in un’intervista. “Per il Congresso, questa è la sfida definitiva: estremamente complessa e tecnica, con una posta in gioco molto significativa e un’urgenza enorme”.
Il Presidente Biden ha discusso l’argomento con un consiglio consultivo di scienziati alla Casa Bianca la scorsa settimana. Alla domanda di un giornalista se la tecnologia sia pericolosa, Biden ha risposto: “Resta da vedere. Potrebbe esserlo”.
Tra i membri del gruppo consultivo c’erano rappresentanti di Microsoft e Google. Loro e altre aziende che rilasciano sistemi di intelligenza artificiale hanno dichiarato di aggiornare costantemente le protezioni di sicurezza, ad esempio programmando i chatbot per non rispondere a determinate domande.
In alcuni casi, le aziende hanno accolto con favore e cercato di dare forma alle nuove norme.
“Crediamo che i potenti sistemi di IA debbano essere sottoposti a rigorose valutazioni di sicurezza”, ha dichiarato OpenAI in un recente post sul blog. “È necessaria una regolamentazione per garantire l’adozione di tali pratiche e ci impegniamo attivamente con i governi per definire la forma migliore che tale regolamentazione potrebbe assumere”.
Tentativi di regolamentazione
In assenza di una legge federale incentrata sui sistemi di IA, alcune agenzie governative hanno utilizzato altri strumenti.
Le autorità di regolamentazione del settore finanziario hanno esaminato il modo in cui gli istituti di credito potrebbero utilizzare l’IA per sottoscrivere i prestiti, con l’obiettivo di prevenire la discriminazione delle minoranze.
La divisione antitrust del Dipartimento di Giustizia ha dichiarato che sta monitorando la concorrenza nel settore, mentre la Federal Trade Commission ha avvertito le aziende che potrebbero incorrere in conseguenze legali per aver fatto affermazioni false o non comprovate sui prodotti di IA.
Nel documento pubblicato martedì, l’agenzia federale di consulenza tecnologica ha chiesto se sia necessario aggiungere misure per garantire la fiducia del pubblico nei sistemi di IA, come ad esempio “certificazioni di garanzia della qualità”.
Il documento chiede se si debbano applicare nuove leggi o regolamenti, ma non si sofferma a descrivere i potenziali danni o ad approvare misure di salvaguardia specifiche.
Nuove regole AI dalla Cina
Il massimo organo di regolamentazione di Internet della Cina ha proposto martedì delle regole per controllare gli strumenti di intelligenza artificiale simili a ChatGPT, ponendosi in prima linea tra gli sforzi dei governi di tutto il mondo per domare la nuova tecnologia tra le preoccupazioni per le sfide che essa pone.
Le regole arrivano mentre le principali aziende tecnologiche del Paese stanno portando avanti i piani per integrare la tecnologia nascente nei loro servizi.
Secondo una bozza delle regole, la Cyberspace Administration of China richiederà alle aziende di sottoporsi a un esame di sicurezza governativo prima di fornire tali servizi e renderà le aziende responsabili dei contenuti generati dai loro servizi di IA. I contenuti generati da tali servizi non dovrebbero contenere elementi che possano sovvertire il potere dello Stato, incitare alla secessione o turbare l’ordine sociale.
Le proposte dimostrano che i leader cinesi vogliono mantenere un forte controllo sulla regolamentazione delle nuove tecnologie, anche se hanno alleggerito il giro di vite sulle aziende internet del Paese durato due anni.
L’annuncio dell’autorità di regolamentazione cinese è arrivato lo stesso giorno in cui Alibaba Group Holding Ltd., il cui nome è “Alibaba Group” ha presentato il suo modello linguistico di grandi dimensioni, chiamato Tongyi Qianwen, che prevede di integrare in tutti i prodotti, tra cui il motore di ricerca e l’assistente vocale, oltre che nell’intrattenimento e nell’e-commerce.
Un giorno prima, SenseTime Group nota soprattutto per i prodotti di sorveglianza come i sistemi di riconoscimento facciale, ha lanciato un servizio simile a ChatGPT, SenseChat, e un gruppo di app basate sul suo modello di intelligenza artificiale di grandi dimensioni, SenseNova. Sabato Huawei Technologies Co. ha dichiarato di aver lanciato servizi basati su Pangu, una raccolta di modelli di AI di grandi dimensioni che sta sviluppando dal 2019, a clienti aziendali in settori quali finanza, farmaceutica e meteorologia.
La sfida delle regole e degli accordi per evitare i danni da AI
In Europa l’AI Act, ora in bozza, obbliga le aziende a una valutazione d’impatto prima del rilascio di sistemi di AI di rilevanza critica, in un elenco che però non prevede le AI generative di per sé, ma solo quelle che riguardano la salute, la sicurezza dei cittadini.
La difficoltà anche per il regolatore è riuscire a prevedere gli impatti di un’innovazione che sono sconosciuti al momento agli stessi creatori.
Il Garante privacy ora ha trovato nel GDPR le leve per mettere paletti a Chatgpt, ma il limite del regolamento privacy in questa sede è duplice nota Pelino: “è limitato nella competenza territoriale, a fronte di tecnologie di portata mondiale; tutela i dati personali che però le aziende dell’AI possono usare in modo aggregato e quindi anonimizzato”.
Una recente inchiesta del New York Times ha mostrato che alcuni dipendenti in Google e Microsoft hanno chiesto alle aziende di attendere prima di lanciare le nuove AI, proprio per il rischioso e imprevedibile impatto sociale. Ma le aziende sono andate avanti per non correre un diverso rischio, di business, di essere superati dalla concorrenza. Google ha messo da parte gli indugi che coltivava dal 2020, quando aveva già predisposto un chatbot di questo tipo.
Un crescente numero di esperti condivide l’idea che l’AI generativa può avere impatti enormi sul nostro sistema dell’informazione e sul lavoro e non possono essere solo ragioni di profitto e di concorrenza a determinare la decisione di lanciare un nuovo prodotto. Di certo non è ciò che l’Europa ha in mente quando parla di AI Human Centric nei suoi progetti normativi.
In un contesto di tecnologie globali e globalizzate, è possibile regolare l’AI però solo se c’è un’intesa tra i principali Paesi, sulle regole e le salvaguardie. E’ quindi una buona notizia che anche gli Stati Uniti si pongano il problema, anche se partendo da presupposti diversi e con normative privacy molto diverse dalle nostre, “più permissive. Ad esempio, lì lo scraping per il training dell’AI si può fare forse con i principi del fair use, mentre qui l’azienda si deve accertare che il trattamento dati abbia una base legale; altrimenti è illecito di per sé”, spiega a Cybersecurity360 Alessandro Mantelero, professore di diritto privato a Torino, consulente della Commissione europea su questi temi.
Secondo alcuni esperti, per tutti questi motivi un accordo tra Paesi e culture così diverse sarà difficile da fare nei particolari e forse sarà possibile solo trovando un minimo di principi comuni da tutelare (come si sta facendo per la questione data transfer USA-UE).
IA generativa, perché le “big five” ora temono e come stanno correndo ai ripari
Sarà allora probabilmente necessario coinvolgere di più, nella gestione delle conseguenze dell’IA, le grandi aziende produttrici di questi sistemi, togliendo loro l’ansia del move fast, break things per il timore di essere surclassati da vecchi o nuovi rivali.
La sensazione è che siamo, in potenza, di fronte a una novità che cambiare le nostre vite e società. Il discorso pubblico, per dirigere questa rivoluzione verso il bene comune e interessi generali, deve essere più esteso possibile.