L’intelligenza artificiale generativa è al centro delle attenzioni della community degli esperti in sicurezza: mentre i dipendenti potrebbero già potenzialmente utilizzarla quotidianamente, che sia per avere un aiuto con la scrittura di email o nella stesura dei contenuti per i blog, i Chief Information Security Officer (CISO) sono ancora restii a integrarla nel loro stack tecnologico.
Le loro preoccupazioni sono d’altra parte fondate: per i CISO è fondamentale che l’intelligenza artificiale generativa sia precisa, sicura e responsabile.
Ma la tecnologia attuale risponde ai loro standard elevati?
Chi deve controllare l’intelligenza artificiale? L’alternativa del modello open source
Indice degli argomenti
Necessario bilanciare rischi e benefici
I CISO e i CIO hanno accolto l’intelligenza artificiale generativa sia con preoccupazione che con entusiasmo. Ne riconoscono, infatti, la capacità di migliorare la produttività o di integrarsi con i team IT e di sicurezza, colpiti dalla continua carenza di competenze.
Tuttavia, questi benefici vanno necessariamente bilanciati con i nuovi rischi di questa tecnologia. Per questo motivo, ci sono alcune domande in materia di sicurezza che i leader odierni si devono porre prima di acconsentire all’uso dell’intelligenza artificiale generativa nei loro ambienti, sia come strumento per il personale sia come componente di prodotto:
- Cosa comporterà l’IA per la mia superfice di attacco? L’IA, infatti, apre nuove superfici di attacco – injection (tecnica di attacco), data poisoning (cosiddetto avvelenamento dei dati), allucinazioni dell’intelligenza artificiale (esito di un malfunzionamento dell’IA che genera un output – testi, audio, video o immagini – falso).
- Cosa succede alla compliance? Molti dei modelli LLM sono basati su cloud (OpenAI, Bedrock ecc.) e questo apre nuovi scenari di rischio.
- Come gestire le questioni relative al copyright e alle policy di privacy? Abbiamo tutti visto il caso Getty Images vs. Stability AI.
- Qual è lo scenario normativo? Ricordiamo l’EU AI Act, il NIST AI Risk Management Framework e, infine, il White House Blueprint for AI Bill of Rights.
Nuovi strumenti di AI per una maggiore produttività
Siamo realisti. È probabile che il personale in molte aziende stia già utilizzando l’intelligenza artificiale generativa, nota per essere estremamente utile per semplificare compiti comuni. Ad esempio, il sales manager ha bisogno di inviare una email ben scritta a un potenziale cliente? Con l’IA è presto fatto.
Il team di supporto deve scrivere spiegazioni per la Knowledge Base? Anche questo può essere fatto velocemente.
Il team marketing ha bisogno di un’immagine per una brochure? È molto più veloce affidarsi all’IA che cercare l’immagine perfetta nel database.
Se uno sviluppatore software ha bisogno di scrivere rapidamente un codice, ci sono modelli specifici anche per questo.
Tutti questi utilizzi hanno una cosa in comune: dimostrano il potere dell’IA generativa nel far risparmiare tempo, aumentare la produttività e rendere i compiti quotidiani più comodi per i dipendenti di tutti i reparti.
Ma quali sono gli svantaggi?
Innanzitutto, molti tool di IA sono ospitati online o si basano su un componente online. Ciò significa che quando un team invia dati proprietari o dati dei clienti, le condizioni di servizio potrebbero offrire molto poco in termini di confidenzialità, sicurezza o compliance.
Inoltre, i dati inviati potrebbero essere utilizzati per educare l’IA stessa, il che significa che i nomi e i dati di contatto dei tuoi potenziali clienti rimarranno permanentemente nei dati del modello IA. Ciò significa che è necessario valutare gli strumenti di IA generativa nello stesso modo in cui si valutano gli strumenti di altri fornitori.
Un’altra preoccupazione importante è la tendenza dei modelli AI ad “allucinare”, cioè a fornire con sicurezza informazioni errate. A causa della procedura di training i tool di IA sono condizionati a fornire risposte che sembrano accurate, non risposte che sono effettivamente accurate. Un esempio sfortunato di ciò si è verificato quando gli avvocati hanno accusato ChatGPT di averli ingannati includendo leggi inventate in una presentazione in tribunale.
Poi ci sono varie preoccupazioni relative al copyright. Un esempio recente è il caso Getty Images contro Stability AI, in cui si è sostenuto che l’azienda aveva copiato 12 milioni di immagini senza autorizzazione per addestrare il suo modello AI.
Per i modelli di generazione del codice sorgente, c’è il rischio che questi generino involontariamente codice soggetto a licenze open source, il che potrebbe richiedere anche la pubblicazione in open source di parti del codice.
Il potenziale per prodotti più potenti
Supponiamo che un’azienda voglia utilizzare l’IA generativa come parte del suo prodotto. Cosa si deve considerare? In primo luogo, è necessario assicurarsi che il processo di approvvigionamento aziendale venga rispettato.
Se chi sviluppa e progetta il prodotto inizia a testare fornitori con le proprie carte di credito, c’è il rischio di incorrere negli stessi problemi di confidenzialità descritti in precedenza.
Se si utilizza uno dei modelli aperti, occorre verificare che l’ufficio legale abbia la possibilità di esaminarne la licenza.
Molti modelli di IA generativa vengono forniti con restrizioni d’uso, sia per come il modello può essere utilizzato sia per cosa è consentito fare con l’output del modello. Sebbene molte di queste licenze possano sembrare open source, in realtà non lo sono.
Se l’azienda educa i suoi modelli, processo che prevede quindi il perfezionamento di modelli aperti, bisogna considerare quali dati si stanno utilizzando e se sono corretti a tal fine.
Ciò che il modello vede durante il processo di apprendimento potrebbe emergere nuovamente al momento dell’inferenza. Questo è conforme alle policy aziendali di conservazione dei dati? Inoltre, se si educa un modello su dati del Cliente A e poi il Cliente B utilizza quel modello per l’inferenza, il Cliente B potrebbe vedere alcuni dati specifici del Cliente A. In sostanza, nel mondo dei modelli generativi, i dati possono fuoriuscire attraverso il modello stesso.
L’IA generativa ha una sua specifica superfice di attacco. Il team che si occupa della sicurezza del prodotto dovrà cercare nuovi possibili vettori di attacchi, come gli attacchi di injection delle prompt indiretti. Se un aggressore può controllare il testo di input fornito a un grande modello di linguaggio generativo, ad esempio, le istruzioni per il riassunto del testo, potrà confondere il modello facendogli credere che il testo sia un nuovo prompt.
Ultimo fattore da tenere in considerazione è che è necessario rimanere aggiornati sulle nuove normative. In tutto il mondo, si stanno sviluppando nuove regole e quadri normativi per affrontare le nuove sfide poste dall’IA generativa. Ad esempio, l’EU AI Act, il NIST AI Risk Management Framework e il White House Blueprint for AI Bill of Rights.
Intelligenza artificiale generativa: serve un’adozione responsabile
Una cosa resta comunque certa: l’IA generativa è qui per restare e sia i dipendenti che i clienti sono entusiasti di sfruttarne il potenziale.
Come professionisti della sicurezza, abbiamo l’opportunità di portare le nostre preoccupazioni al tavolo per stimolare un’adozione responsabile, in modo che l’entusiasmo di oggi non si trasformi in rimpianto un domani.
I CISO e gli altri responsabili aziendali dovrebbero quindi prendersi del tempo per riflettere sul ruolo che l’IA gioca nella loro azienda e nei loro prodotti.
Affrontare l’adozione dell’IA con consapevolezza può consentire all’azienda di ridurre i rischi e al tempo stesso accelerare e prosperare.