L’AI Act, il Regolamento europeo sull’intelligenza artificiale (IA) non si applica a tutti i sistemi tecnologici, ma solo a quelli che soddisfano una precisa definizione di “sistema di intelligenza artificiale”. In questo contesto, la definizione di IA non è solo una questione semantica: è essenziale per delimitare l’ambito della normativa e determinare le tecnologie coinvolte nei rischi etici e legali.
Tuttavia, la domanda “che cos’è veramente l’IA?” continua a essere oggetto di discussione. Le linee guida non vincolanti dell’Unione Europea forniscono finalmente una risposta chiara, delineando i confini tra i sistemi di IA e i software tradizionali.
Indice degli argomenti
Il cuore della regolamentazione: definizione di sistema di IA
Partendo da questa premessa, è essenziale analizzare la definizione giuridica di IA per comprendere pienamente quali sistemi ricadono sotto la normativa. Secondo l’IA ACT, un sistema di IA è definito come:
“Un sistema basato su macchina progettato per operare con diversi livelli di autonomia e che può mostrare adattabilità dopo il suo impiego, e che, per obiettivi espliciti o impliciti, deduce, in base agli input che riceve, come generare output come previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.
La definizione dell’UE si articola in sette elementi chiave:
- Sistema basato su macchina: Include sia hardware che software.
- Autonomia: Il sistema deve essere in grado di agire autonomamente, seppur con possibili interventi umani.
- Adattabilità: Il sistema può modificare il proprio comportamento sulla base dell’esperienza.
- Obiettivi: Gli scopi del sistema possono essere definiti in modo chiaro o dedotti.
- Inferenza: Il sistema elabora input per produrre output come previsioni, raccomandazioni o decisioni.
- Output: Gli output includono previsioni, raccomandazioni, contenuti o decisioni.
- Influenza su ambienti fisici o virtuali: Le decisioni devono avere un impatto concreto.
Autonomia e inferenza: le caratteristiche distintive
A partire dagli elementi chiave appena descritti, due caratteristiche emergono come distintive nei sistemi di IA: l’autonomia e l’inferenza.
L’autonomia e l’inferenza sono alla base dei sistemi di IA. Mentre i software tradizionali necessitano dell’intervento umano, un sistema di IA agisce autonomamente, adattandosi e migliorando nel tempo grazie all’analisi dei dati.
L’inferenza permette a questi sistemi di prendere decisioni e fare previsioni che influenzano l’ambiente.
Esistono due approcci principali per l’inferenza: l’apprendimento automatico e la logica basata sulla conoscenza.
Approccio nell’apprendimento automatico
L’apprendimento automatico è una tecnica in cui i sistemi imparano da grandi quantità di dati senza bisogno di essere programmati esplicitamente. In altre parole, “insegnano” a sé stessi osservando gli esempi e identificando pattern. Esistono diversi tipi di apprendimento automatico. In questa categoria troviamo i seguenti differenti modelli:
- Modelli supervisionati: in questo caso, i sistemi apprendono da un insieme di dati già etichettato, cioè ogni esempio ha una risposta corretta associata. Ad esempio, per rilevare le e-mail di spam, il sistema impara a riconoscere le caratteristiche delle e-mail etichettate come “spam” o “non spam”.
- Modelli non supervisionati: qui, il sistema non ha accesso a risposte predefinite e cerca autonomamente di identificare strutture o gruppi nei dati. Un esempio potrebbe essere il processo attraverso cui un’azienda farmaceutica analizza dati per scoprire nuove relazioni tra molecole e potenziali farmaci.
- Modelli auto-supervisionati: questi modelli apprendono cercando di prevedere informazioni mancanti nei dati, come nel caso di un sistema di riconoscimento delle immagini che prova a indovinare quali pixel mancano in una foto. Con il tempo, imparano a riconoscere oggetti e dettagli.
- Apprendimento per rinforzo: questo approccio si basa sull’esperienza. Il sistema impara “provando e sbagliando”, come un braccio robotico che afferra oggetti. Ogni azione che porta a un risultato positivo rafforza il comportamento del sistema.
Approcci basati sulla logica
A differenza dell’apprendimento automatico, gli approcci basati sulla logica si fondano su regole predefinite e conoscenze strutturate, che vengono codificate all’interno del sistema.
Un esempio classico sono i sistemi esperti, progettati per risolvere compiti complessi inferendo (cioè deducendo) risposte a partire da regole prestabilite. Nei sistemi di diagnosi medica, ad esempio, le conoscenze di esperti medici vengono “trasformate” in regole che permettono al sistema di analizzare i sintomi di un paziente e suggerire possibili diagnosi.
Questi sistemi sono molto efficaci in situazioni in cui le regole sono ben definite e il contesto è limitato. Ad esempio, possono essere usati per diagnosi di malattie comuni, dove le informazioni sono chiare e facilmente organizzabili.
Tuttavia, diventano meno adatti quando il problema diventa complesso o quando la conoscenza è più sfumata, come nel caso di malattie rare o situazioni con molteplici variabili difficili da codificare in regole precise.
Adattabilità: non obbligatoria, ma indicativa
Se l’autonomia e l’inferenza rappresentano il nucleo dell’IA, l’adattabilità aggiunge un ulteriore livello di sofisticazione.
L’adattabilità, sebbene non obbligatoria, è una caratteristica comune nei sistemi IA avanzati, che migliorano nel tempo grazie all’apprendimento dalle esperienze passate.
Obiettivi e scopo previsto: una distinzione cruciale
Oltre alle capacità tecniche, è fondamentale comprendere il contesto di utilizzo dell’IA, distinguendo tra ciò che il sistema deve fare e il modo in cui viene impiegato.
Le linee guida dell’UE distinguono tra gli obiettivi (compiti da eseguire) e lo scopo previsto (contesto di utilizzo) di un sistema di IA.
Questa distinzione è cruciale per valutare i rischi e garantire un’applicazione corretta.
Sistemi che escono dall’ambito dell’IA
Dopo aver esaminato cosa definisce un sistema di IA, è altrettanto importante chiarire cosa non rientra in questa categoria. È dunque essenziale distinguere tra IA e software tradizionali.
Infatti, i sistemi che applicano regole predefinite senza apprendimento autonomo non rientrano nella definizione di IA: questi software operano seguendo istruzioni fisse, senza la capacità di evolvere o adattarsi.
Sistemi di ottimizzazione matematica
Alcuni sistemi che analizzano modelli, come la regressione lineare, non vanno oltre l’ottimizzazione matematica di base e non rientrano nella definizione di IA.
Questi strumenti migliorano l’efficienza, ma la loro funzione principale è quella di eseguire calcoli predefiniti, senza cambiare o migliorare autonomamente.
Prendiamo ad esempio i sistemi basati sulla fisica che utilizzano tecniche di machine learning per simulare fenomeni atmosferici complessi o per affinare le stime in processi fisici. Questi modelli non possiedono la capacità di modificare autonomamente le proprie strutture decisionali, un tratto distintivo dei veri sistemi IA.
Un altro esempio di sistema che rientra al di fuori della definizione è un sistema di telecomunicazioni satellitari per ottimizzare l’allocazione della larghezza di banda e la gestione delle risorse.
Trattamento di dati di base
I sistemi di “trattamento di dati di base”, che operano seguendo istruzioni predefinite senza alcuna capacità di apprendimento o inferenza, non rientrano nella definizione di IA.
Esempi tipici sono i software di gestione database, che filtrano e ordinano dati secondo criteri specifici (es. “trova tutti i clienti che hanno acquistato un determinato prodotto nell’ultimo mese”), o strumenti di analisi statistica che presentano semplicemente i dati in forma visiva, senza produrre inferenze autonome.
Questi strumenti sono essenziali per la gestione dei dati. Tuttavia, non possono compiere scelte o adattarsi a nuovi input.
Euristiche classiche e previsioni semplici
I sistemi basati su euristiche classiche o previsioni semplici ottimizzano operazioni, ma non sono considerati IA. Ad esempio, un programma di scacchi che utilizza l’algoritmo minimax applica regole fisse senza evolversi o apprendere.
Similmente, i sistemi di previsione finanziaria che si limitano a calcolare medie storiche o previsioni statiche non sfruttano tecniche avanzate di machine learning e quindi non possono essere considerati IA.
Oppure ancora i sistemi che utilizzano la temperatura media della scorsa settimana per prevedere la temperatura di domani.
La capacità di adattarsi e imparare è ciò che distingue i veri sistemi IA da quelli che eseguono operazioni automatiche basate su regole fisse.
Conclusioni
Una definizione chiara di cosa costituisca un sistema IA è fondamentale per applicare correttamente la normativa e proteggere i consumatori dai rischi tecnologici.
In un mondo digitale, comprendere l’IA è fondamentale per un orientamento etico e legale.
Per un uso sicuro della tecnologia, è necessario un quadro normativo chiaro e definito.