Lo sviluppo accelerato delle tecnologie digitali sta trasformando i diversi settori di mercato. Con questi sono evolute le professioni nel mondo del lavoro ma stanno cambiando anche alcuni aspetti della società civile che si rispecchia in un contesto sempre più digitale.
Come risultato la digitalizzazione ha richiesto il cambiamento del concetto di sicurezza delle informazioni (information security) abbracciando pratiche digitali; lo stesso è avvenuto per la sicurezza del dato (data security) e per la più ampia classe della sicurezza informatica (Cyber security) che rappresenta l’applicazione di tecnologie, processi e controlli per proteggere sistemi, reti, programmi, dispositivi e dati dagli attacchi informatici.
Indice degli argomenti
Privacy e libertà di scelta
Ma nonostante tutti questi tipi di sicurezza nel piano digitale, la sicurezza degli individui in termini di privacy e libertà delle scelte è completamente garantita? Da qualche tempo i ragionamenti attorno all’algoretica e all’algocrazia suggeriscono un livello di ragionamento più filosofico che digitale attorno alla sicurezza delle persone e vi sono varie correnti di pensiero.
In altre parole, la sicurezza degli individui in una società che si appoggia sempre più all’ambito digitale con l’introduzione di algoritmi di AI, passa per l’etica cablata negli algoritmi digitali o resta una responsabilità del singolo chiamato ad usare ogni genere di tecnologia in modo consapevole e responsabile? Per comprendere le diverse posizioni, ne abbiamo parlato con Alessandro Picchiarelli, docente della pontificia università Urbaniana, con Francesco Varanini, scrittore, ricercatore e presidente di Assoetica e con Giovanna Dimitri, professore assistente in Deep Learning e Intelligenza Artificiale.
La relazione tra etica e algoritmi
La domanda che una parte degli studiosi si pongono è se esista una etica per gli algoritmi o negli algoritmi. Alessandro Picchiarelli in un suo recente editoriale ha chiarito che “parlare dell’etica dell’algoritmo significa rendersi innanzitutto conto che gli algoritmi informatici stanno sempre più prendendo decisioni per l’uomo, sull’uomo e con l’uomo e questo dovrebbe aiutarci a superare una concezione meramente strumentale ed estrinseca della tecnica…. essi suscitano bisogni e valori, determinano una gerarchia di valori, modificano la comprensione di sé stessi e del mondo circostante”.
In particolare, quando gli chiediamo di spiegare meglio questo passaggio ci risponde così: “Gli algoritmi non sono semplici procedure matematiche ma riflettono la comprensione che l’uomo ha di sé stesso, del mondo del quale vive, della sua relazione con gli altri (compresi eventuali pregiudizi o precomprensioni). Contemporaneamente, gli algoritmi veicolano anche una comprensione del mondo, di sé stessi e degli altri: essi sono capaci di produrre cultura, di filtrare contenuti, di veicolare conoscenza, di modificare la gerarchia dei valori che l’uomo riconosce significativa per la sua vita. In questo senso, gli artefatti tecnologici ci aiutano a comprendere chi siamo” (questa posizione è anche riconducibile le riflessioni di Paolo Benanti o di Cosimo Accoto, n.d.r.)”.
“Quindi considerando un modello di coppia come somma fra l’essere umano e gli algoritmi – prosegue Picchiarelli – quando ci si interroga sull’impostazione etica risultante (con l’obiettivo di garantire la sicurezza degli individui, n.d.r.) si arriva a voler considerare la somma dell’etica dell’uomo e degli algoritmi. L’uomo è quindi un agente morale e ci si chiede se lo siano anche gli algoritmi che operano in sua vece”.
Gli algoritmi non sono agenti morali
Ecco, ma quali sono le due linee di pensiero principali che ne scaturiscono? Nel primo caso gli artefatti tecnologici si comportano come agenti morali mentre nel secondo gli artefatti tecnologici sono considerati agenti morali perché valutati come autonomi nel comportamento e con processi informativi intelligenti.
Risponde Picchiarelli: “La prima linea è legata al pensiero di Debora Johnson mentre la seconda linea è legata alla riflessione di Luciano Floridi. Sintetizzare in poche parole queste due linee non è semplice. Nel primo caso, sostanzialmente, si afferma che gli algoritmi non possono essere considerati agenti morali come noi esseri umani pur mostrando un comportamento simile a quello degli esseri umani. Luciano Floridi, invece, afferma che osservando la realtà a diversi livelli di astrazione è possibile affermare, ad un certo livello, che gli agenti artificiali (tra cui anche gli algoritmi) sono agenti morali in senso pieno come noi esseri umani. Come potrà vedere nel mio testo ‘Tra profilazione e discernimento. la teologia morale nel tempo dell’algoritmo’ io sposo una linea intermedia di quasi moralità legata all’introduzione di una nuova soggettività, l’Homo Algorithmus, in cui convergono le considerazioni di Benanti, Accoto e Floridi”.
In sostanza Alessandro Picchiarelli introduce questo soggetto nuovo perché ”lo sviluppo tecnologico attuale non permette di giungere alla conclusione che si possa parlare di agenti morali umani e di agenti morali artificiali in maniera equivalente. All’agente artificiale, infatti, non si possono applicare immediatamente le categorie di libertà, responsabilità e consapevolezza che riguardano la persona umana: è necessario ripensare queste categorie o introdurne altre che aiutino a individuare le proprietà che un algoritmo informatico deve possedere per rispondere alle sfide etiche che esso porta con sé”.
Critica all’etica cablata
La ricerca sull’etica degli algoritmi si è sviluppata negli ultimi dieci anni e accanto allo sviluppo esponenziale e all’applicazione degli algoritmi di apprendimento automatico, sono stati proposti nuovi problemi etici e soluzioni relative al loro utilizzo nella società. Si è cercato anche di impostare un una guida attuabile per la governance della progettazione, sviluppo e implementazione degli algoritmi. In questo senso a marzo è stato approvato in Europa l’AI act ovvero la legge sull’intelligenza artificiale (IA), che promuove l’innovazione, ma garantisce sicurezza e rispetto dei diritti fondamentali.
E le questioni etiche? Lo scrittore e presidente di Assoetica, Francesco Varanini, autore di un testo di analisi critica sui concetti di algoretica pubblicati da Paolo Benanti, scrive che “il concetto di algoretica, resta impreciso, capzioso e pericoloso. La soluzione, in realtà, sarebbe semplice: togliere il riferimento agli algoritmi, e parlare di etica tout court. O forse ancora meglio, parlare di responsabilità personale, dalla quale discenderanno azioni coerenti. Responsabilità personale del progettista o sviluppatore. Responsabilità personale del legislatore. Responsabilità personale del cittadino che sceglie se usare o non usare lo strumenti, sceglie come usarlo, sceglie di criticarlo o di bandirne lo sviluppo e l’uso”.
“Non c’è bisogno di una etica centralizzata e cablata negli algoritmi”, ci spiega Varanini, “chi produce gli algoritmi dovrebbe prendersi delle responsabilità sia per la produzione di algoritmi sia per l’uso degli stessi, mentre l’uomo nella sua funzione di utente deve, come sempre nella sua vita, assumersi la responsabilità di discernere fra il bene e il male, anche quando usa strumenti digitali. Gli strumenti non sono né buoni né cattivi, sta all’uomo usarli bene. Ma l’essere umano deve avere un approccio critico e oggettivo. Studiare e sapere, poter scegliere in modo consapevole ed esercitare la sua libertà di scelta. Con l’algoretica c’è un atteggiamento ‘erga omnes’ di sapere cosa sia giusto o sbagliato, ma questa scelta non spetta a nessuno, se non al singolo individuo”.
E ancora: “E’ una illusione quella di poter immaginare che un comportamento etico possa essere scritto in un codice. L’etica che guida le scelte umane è frutto di contesto, educazione, comportamento, carattere e suggestioni e convinzioni del momento, tutte cose fortemente limitate se si pensa di racchiuderle in un codice algoritmico. Codificare l’etica significa renderla deterministica e computabile e quindi limitata per definizione. Invece l’etica è un attributo umano che evolve anche secondo la situazione”.
Capacità tecnologica attuale e ricerca futura
Sulla reale possibilità di ‘cablare’ l’etica allo stato odierno della tecnologia interviene Giovanna Dimitri: “Il concetto di etica rappresenta un concetto di per sé intrinsecamente complesso e articolato, e la risposta a questa domanda richiederebbe quindi la necessità di una sua definizione, che, per sua natura, non è univoca. Per andare incontro, quindi, a una vera e propria ‘cablatura’ dei principi etici, all’interno degli algoritmi di Deep Learning, è necessario un lavoro di sottodivisione in task e aspetti minori che possono e devono essere affrontati individualmente per poter ricomporre un sistema ‘cablato’ eticamente. Ad esempio, un aspetto emergente che deve essere affrontato, è la necessità della rimozione dei bias nascosti e intrinsecamente presenti all’interno degli algoritmi di Intelligenza Artificiale. Gli algoritmi apprendono dalla moltitudine variegata e complessa dei dati che vengono forniti. Se la fase di raccolta del dataset non viene effettuata in maniera bilanciata, ad esempio, gli algoritmi produrranno degli outputs non bilanciati. Ad esempio Kate Crowford con la rete imageNET roulette ha dimostrato un etichettamento delle immagini affetto da un evidente gender-bias sulle figure femminili. Se è vero che il dato è cruciale, è chiaro che sbilanciamenti potrebbero anche essere indotti da step successivi nella fase di allenamento degli algoritmi stessi. Anche questi possono essere controllati, tramite una gestione e valutazione di esperti nella implementazione degli algoritmi. Un continuo dialogo interdisciplinare fra giuristi, scienziati sociali, filosofi e informatici, risulta, quindi, quantomai urgente nella definizione dei nuovi paradigmi e modelli”.
Processi trasparenti dell’AI per un uso consapevole
Dare trasparenza al processo di creazione di prodotti basati su algoritmi di AI per rendere i consumatori più consapevoli quindi aiutarli ad un uso più responsabile, è uno degli ambiti più richiesti e all’avanguardia nel campo di ricerca dell’Intelligenza Artificiale. “In maniera analoga – dice Giovanna Dimitri – un altro filone di ricerca che si sta sempre più espandendo, è il filone relativo alla “Trustworthy AI”, ovvero l’intelligenza artificiale affidabile. In realtà, mi piace spesso andare etimologicamente più nella direzione della parola inglese di trustworthy, che, a mio avviso, più che affidabile, in questo contesto potrebbe essere tradotta come ‘che merita fiducia’. Si tratta infatti dello sviluppo di tecniche che permettano non soltanto di spiegare i modelli, ma anche di renderli robusti e affidabili, ovvero, agli occhi dei fruitori, meritóri di una fiducia che noi stessi riponiamo nel loro utilizzo”.