La scelta della Commissione europea di ritirare la proposta di direttiva sulla responsabilità civile per l’intelligenza artificiale (la AI Liability Directive) incide sulla costruzione di un quadro giuridico unitario in un settore che richiede criteri chiari per l’attribuzione del danno.
Il Parlamento europeo ha espresso contrarietà a questa decisione, sostenendo che l’assenza di una disciplina armonizzata potrebbe determinare soluzioni giuridiche eterogenee tra gli Stati membri.
Ciò perché la proposta di direttiva avrebbe stabilito parametri idonei a regolare questi aspetti, attraverso strumenti specifici per la distribuzione del rischio tra sviluppatori, fornitori e utilizzatori.
Di conseguenza, il ritiro della proposta modifica l’assetto della regolazione della responsabilità per danni derivanti dall’uso dell’intelligenza artificiale, poiché trasferisce agli ordinamenti nazionali la definizione dei criteri di imputazione.
Indice degli argomenti
Il ritiro della proposta di direttiva sulla responsabilità civile per l’AI
La disciplina della responsabilità civile nell’Unione europea si fonda su principi comuni che garantiscono uniformità nelle condizioni di tutela e prevedibilità giuridica.
Essere DPO nel 2025: quali sono le competenze e i requisiti necessari
L’assenza di una direttiva specifica per l’intelligenza artificiale determina una regolazione affidata a interventi distinti, con la conseguenza che le soluzioni adottate nei diversi Stati potrebbero divergere in funzione delle impostazioni normative nazionali.
Il Parlamento europeo ha sostenuto che la distribuzione della competenza normativa in questo ambito possa produrre effetti sulle condizioni operative delle imprese e sulla tutela dei soggetti coinvolti.
Infatti, la responsabilità per danni causati dall’intelligenza artificiale potrebbe essere disciplinata in modo differente nei vari ordinamenti giuridici.
La necessità di un quadro normativo armonizzato
Il confronto tra Commissione e Parlamento riflette una differente impostazione sulla governance dell’intelligenza artificiale.
Il Parlamento ha sostenuto la necessità di un quadro normativo armonizzato che garantisca uniformità applicativa e condizioni di parità nel mercato unico, mentre la Commissione ha privilegiato un approccio che attribuisce un ruolo centrale alle normative nazionali e considera già adeguata l’integrazione con gli strumenti giuridici esistenti.
L’impatto di questa scelta riguarda non solo la regolazione della responsabilità civile, ma anche l’assetto complessivo della governance dell’innovazione tecnologica nell’Unione, poiché la definizione delle regole in materia di intelligenza artificiale si articola su più livelli normativi senza un criterio unitario di riferimento.
La proposta di direttiva
La proposta di direttiva COM(2022) 496 final rispondeva innanzitutto alla necessità di un inquadramento normativo specifico per la responsabilità civile derivante dall’impiego di sistemi di intelligenza artificiale, considerando le peculiarità di questi strumenti rispetto ai modelli tradizionali di imputazione del danno.
L’autonomia operativa dei sistemi algoritmici e l’opacità dei loro processi decisionali rendono particolarmente complessa l’individuazione di un nesso causale diretto tra il comportamento dell’intelligenza artificiale e l’evento lesivo.
Tre elementi per colmare le lacune della normativa vigente
La ratio legis della proposta si fondava sulla necessità di garantire una tutela efficace alle vittime e di stabilire criteri univoci per la ripartizione del rischio tra operatori, sviluppatori e utilizzatori.
L’impianto della direttiva prevedeva tre elementi fondamentali per colmare le lacune della normativa vigente.
Il primo concerneva l’introduzione di una presunzione di colpa nei confronti degli operatori responsabili dei sistemi di intelligenza artificiale classificati come ad alto rischio.
Questa previsione si giustificava alla luce della difficoltà di dimostrare l’esistenza di una condotta colposa in relazione a un sistema che opera in autonomia, manlevando la vittima di un gravoso onere probatorio.
Il secondo elemento riguardava l’accesso alle prove, mediante misure che avrebbero agevolato chi subisce un danno nell’acquisizione delle informazioni necessarie a dimostrare il nesso tra il malfunzionamento dell’intelligenza artificiale e l’evento dannoso.
L’ultimo elemento tendeva all’armonizzazione della disciplina negli Stati membri, con l’obiettivo di evitare una regolazione frammentata che potesse determinare diseguaglianze nelle condizioni di tutela giuridica e asimmetrie competitive nel mercato unico.
La questione della responsabilità civile
La Commissione ha posto a fondamento della propria decisione un’argomentazione sistemica per la quale l’assetto delineato dalla proposta di direttiva si poneva in rapporto con altre iniziative normative europee in materia di intelligenza artificiale. Ma si distingueva per la sua specifica finalità di regolare la responsabilità ex post.
Da un lato, l’AI Act stabilisce criteri di conformità e trasparenza per i sistemi di intelligenza artificiale, ma non interviene sulla questione della responsabilità civile nel caso in cui tali sistemi producano un danno.
Dall’altro, la direttiva sulla responsabilità per danno da prodotto difettoso (PLD), pur offrendo un modello per l’imputazione della responsabilità, richiede la presenza di un difetto del prodotto, escludendo di fatto le ipotesi in cui il danno derivi da una decisione autonoma dell’intelligenza artificiale che non possa essere qualificata come malfunzionamento del sistema.
Le motivazioni del ritiro di proposta di direttiva
La Commissione europea ha motivato il ritiro della proposta di direttiva sulla responsabilità civile per l’intelligenza artificiale con l’obiettivo di evitare un eccesso di regolamentazione che potrebbe incidere negativamente sulla competitività delle imprese europee.
L’adozione di criteri più stringenti per l’imputazione della responsabilità in caso di danni derivanti dall’impiego di sistemi autonomi avrebbe comportato un incremento degli oneri regolatori, con ripercussioni sullo sviluppo tecnologico e sull’attrattività del mercato europeo per gli investitori.
L’intelligenza artificiale rappresenta un settore strategico, e la Commissione ha ritenuto che un quadro normativo più rigido avrebbe potuto rallentare l’adozione di nuove soluzioni basate su sistemi autonomi, con un impatto diretto sulla capacità dell’industria europea di competere con le grandi piattaforme globali.
Bilanciamento tra esigenze di flessibilità regolatoria e tutela giuridica
Questa impostazione lascia spazio a questioni di bilanciamento tra esigenze di flessibilità regolatoria e tutela giuridica dei soggetti coinvolti.
L’assenza di una disciplina specifica sulla responsabilità civile per l’intelligenza artificiale introduce incertezze nel sistema giuridico, poiché le vittime di danni causati da decisioni algoritmiche incontrano ostacoli probatori significativi.
L’impianto normativo tradizionale della responsabilità civile si fonda su parametri che richiedono un adattamento in presenza di fenomeni che modificano la struttura del rapporto tra condotta ed evento lesivo.
L’assenza di presunzioni probatorie e di strumenti idonei a riequilibrare la posizione tra chi sviluppa e chi subisce gli effetti dell’intelligenza artificiale crea uno squilibrio che non risulta neutrale.
La deregolamentazione non si limita a rimuovere vincoli per le imprese, ma determina una configurazione in cui la tutela giuridica dei cittadini viene subordinata alla necessità di preservare la libertà operativa del settore tecnologico.
Le dinamiche economiche e politiche hanno influenzato la scelta della Commissione, che ha accolto le pressioni provenienti dalle imprese tecnologiche, storicamente contrarie all’introduzione di regimi di responsabilità più severi.
Le big tech hanno manifestato una posizione critica nei confronti di soluzioni normative che prevedano un’allocazione più rigida della responsabilità, poiché l’introduzione di una presunzione di colpa per i danni derivanti dall’uso di sistemi ad alto rischio avrebbe ampliato l’esposizione delle imprese al rischio di contenziosi e incrementato i costi di compliance.
L’industria ha naturalmente espresso la preferenza per modelli di autoregolazione, ove l’adozione di una disciplina meno vincolante possa favorire un’espansione più rapida delle tecnologie basate sull’intelligenza artificiale.
Il mutamento di prospettiva
La scelta della Commissione si discosta dalle posizioni precedentemente espresse.
Nella relazione COM(2020) 64 final, la stessa Commissione aveva riconosciuto l’inadeguatezza della disciplina tradizionale della responsabilità civile nel fornire risposte adeguate ai problemi derivanti dall’intelligenza artificiale.
La necessità di un aggiornamento normativo era stata collegata all’evoluzione dei modelli decisionali algoritmici e alla difficoltà di applicare le regole della responsabilità per danno da prodotto difettoso a fenomeni che non rientrano nelle categorie tradizionali di imputazione del danno.
L’abbandono di questa impostazione evidenzia un mutamento di prospettiva che privilegia la regolazione del mercato rispetto alla tutela ex post e riduce il margine di intervento pubblico nella definizione di criteri giuridici per la distribuzione del rischio.
Il principio di precauzione, che nella prospettiva originaria giustificava l’adozione di misure specifiche per mitigare i rischi connessi all’autonomia operativa dell’intelligenza artificiale, cede il passo a una strategia che attribuisce alle imprese la responsabilità di individuare soluzioni compatibili con l’assetto normativo vigente.
Rischio di un panorama disomogeneo: regimi di responsabilità differenziati
Questa configurazione genera un panorama disomogeneo, nel quale le condizioni di imputazione della responsabilità e i criteri probatori per la dimostrazione del nesso causale potranno variare sensibilmente da un ordinamento all’altro.
Le imprese che operano su scala transnazionale si troveranno ad affrontare regimi di responsabilità differenziati, con un incremento degli oneri legati alla compliance e una maggiore incertezza giuridica.
La mancanza di un riferimento normativo unitario potrebbe determinare una proliferazione di modelli normativi non coordinati, con il rischio che le soluzioni adottate nei vari ordinamenti risultino incompatibili o divergenti rispetto agli obiettivi generali del mercato unico.
Assenza di una regolazione armonizzata: altre criticità
Le difficoltà probatorie per le vittime costituiscono un ulteriore elemento critico nell’assenza di una regolazione armonizzata. L’intelligenza artificiale opera attraverso modelli decisionali non trasparenti, caratterizzati da processi di elaborazione che non consentono di individuare immediatamente la sequenza logica che ha determinato l’esito finale.
Il fenomeno della black box rende complesso stabilire il nesso causale tra il comportamento del sistema e l’evento dannoso, poiché l’opacità algoritmica impedisce di tracciare con chiarezza il percorso decisionale seguito dal sistema autonomo.
Questa asimmetria informativa si riflette sul piano processuale, poiché altera il principio dell’equality of arms nel processo civile: chi subisce un danno si trova in una posizione di svantaggio rispetto alle imprese tecnologiche, che detengono il controllo esclusivo sui dati e sulle configurazioni dei modelli algoritmici.
L’assenza di regole sul piano economico
Sul piano economico, l’assenza di regole comuni introduce variabili che potrebbero incidere sulla competitività del mercato unico.
Le imprese potrebbero scegliere di localizzare le proprie attività in Paesi con normative meno stringenti, producendo effetti di distorsione concorrenziale all’interno dell’Unione europea.
Le piccole e medie imprese europee, prive delle risorse delle grandi piattaforme globali per sostenere costi legali elevati, potrebbero trovarsi in una posizione svantaggiata rispetto ai colossi tecnologici, che dispongono di strumenti per affrontare il contenzioso e per operare in contesti regolatori differenziati.
Il rischio di amplificare il digital divide tra operatori con capacità economiche e giuridiche diseguali costituisce un elemento di criticità per l’equilibrio competitivo del mercato unico.
Prospettive future
L’assenza di una disciplina legislativa chiara potrebbe inoltre determinare un ampliamento del ruolo della Corte di Giustizia dell’Unione europea nell’interpretazione dei principi di responsabilità in relazione all’intelligenza artificiale.
In un contesto privo di riferimenti normativi armonizzati, la giurisprudenza potrebbe diventare l’unico strumento di regolazione, con conseguente imprevedibilità per le imprese e per i cittadini.
La Corte, chiamata a esprimersi su questioni di compatibilità tra normative nazionali differenti, potrebbe essere costretta a elaborare un diritto giurisprudenziale capace di supplire all’assenza di un intervento legislativo unitario.
Questa dinamica, già verificatasi in altri ambiti del diritto europeo, potrebbe accentuarsi nel settore dell’intelligenza artificiale, e generare un quadro nel quale le condizioni di responsabilità dipendono da un processo evolutivo non sempre lineare e caratterizzato da decisioni che potrebbero variare in base ai casi concreti esaminati.
L’assenza di una regolazione legislativa unitaria trasferisce quindi alla giurisprudenza un ruolo determinante nella definizione dei principi applicabili alla responsabilità da intelligenza artificiale, con effetti sulla prevedibilità delle decisioni e sulla certezza del diritto nell’Unione.
Esplora come l'AI impatta sulla sicurezza dati. Guida essenziale per la DPIA