L’ubiquità del termine AI (intelligenza artificiale o artificial intelligence), assieme alla sua attualità, richiede alcune precisazioni, in parte provenienti dalla letteratura scientifica, in parte personali (che evidenzierò tali).
C’è notevole confusione intorno al termine AI, basata sul dualismo fra “essere intelligente” e “esibire un comportamento intelligente”. Non è una questione di lana caprina e il dilemma diviene oggi attuale in virtù dei recenti sviluppi del machine learning (ML) o apprendimento automatico, considerato settore dell’intelligenza artificiale.
Indice degli argomenti
L’idea di macchine intelligenti
Il ML esiste da molti anni, ma ha subito una potente evoluzione, grazie a due importanti fattori recenti: la grande velocità di calcolo a cui si può ricorrere e la sconfinata quantità di dati oggi disponibili.
Gli schemi basati sull’addestramento dei dispositivi di calcolo su grandi moli di dati consentono molto più facilmente la costruzione di agenti software che esibiscono comportamento (almeno apparentemente) intelligente, laddove qualche hanno fa la medesima logica non era altresì efficace solo perché avevamo meno potenza e meno dati, per cui l’architettura concettuale non è mutata, ma lo è la sua efficacia.
L’idea di macchine intelligenti può essere fatta risalire ai tempi di Alan Turing, quando si ipotizzò la capacità di costruire una macchina di Turing a programma memorizzato[1] che potesse operare migliorando il suo programma, ove “migliorare” va inteso come la capacità di fare cose che precedentemente non si potevano fare (e non come semplice aumento di efficienza). Con maggiore proprietà di linguaggio potremmo dire aumento del potere computazionale.
Con una qualche approssimazione, potremmo dire che il machine learning, usando la stessa logica di prima, ha potuto esibire comportamenti che sembrano ora intelligenti usando più velocità di calcolo e più dati.
A mio avviso questo costituisce un miglioramento nella possibilità di esibire un comportamento intelligente ma non intelligenza.
Ma questo non è davvero importante perché non cambia la ricaduta pratica.
Valutiamo le capacità attuali di Bard, Bing e ChatGPT
Pur consapevole della velocità con cui le tecnologie dell’AI evolvono nel tempo, mi sono soffermato a fare alcuni test per valutare le capacità attuali di Bard, Bing e ChatGPT, che si chiamano grandi modelli linguistici (LLM).
All’inizio sono rimasto quasi sbalordito dell’esito delle prime sperimentazioni. In quanto docente di Fondamenti di informatica II per oltre venti anni ho interpellato gli LLM in merito a problemi algoritmici, scrittura di codice C, progettazione di automi a stati finiti. Le risposte sono sempre state fulminee, corrette e piacevoli.
Poi ho considerato che il semplice addestramento su Wikipedia sarebbe stato sufficiente a fornire tutte le risposte cercate. Allora ho cercato un pizzico di creatività in più: dimostrare che la radice quadrata di due è irrazionale. Ma anche lì ho ottenuto ragionamenti convincenti basati su tecniche standard della matematica come le dimostrazioni per assurdo.
Interessanti anche i risultati ottenuti nella grafica (v. Figure 1, 2 e 3). Per innalzare il livello di difficoltà ho chiesto di giocare a scacchi. Qualche LLM si è comportata meglio, qualcuna peggio, ma nel migliore dei casi il confronto è durato 5-6 mosse. Poi hanno cominciato letteralmente a dare i numeri, facendo mosse impossibili.
Immagine restituita da Bing con la richiesta “crea immagine realistica di elefante volante”.
Immagine restituita da Bing con la richiesta “crea volto di modella bellissima, umana ma non troppo”.
Immagine restituita da Bing con la richiesta “crea immagine realistica di un deserto con un lago pieno di fenicotteri”.
Quindi, questi LLM non assomigliano ai Chess Engine, che invece battono i migliori maestri, ma sanno solo giocare a scacchi e a qualche altro gioco similare.
Il test di Turing sull’intelligenza artificiale
Questi limiti mi hanno indotto a riflettere su alcune questioni fondamentali. L’intelligenza è solo umana? Ci potrebbe forse aiutare un test di Turing[2] che ha finalità di riuscire a distinguere fra umano e macchina.
Per i meno familiari con l’argomento, e semplificandone i termini, il test si svolge fra tre giocatori, A, B e C. Essi interagiscono esclusivamente mediante terminale testuale e non si vedono/ascoltano. C è umano e sa che uno fra A e B è umano, mentre l’altro è una macchina, ma non sa nello specifico i ruoli di A e B.
Mediante un colloquio interattivo in cui C pone quesiti ad A e B, osservando le risposte, C è chiamato a stabilire chi è umano e chi macchina. A non vede le risposte di B né B vede quelle di A. Sull’argomento si è dibattuto molto (v. nota 8) sottolineando pro e contro dell’approccio.
Non desidero qui prendere posizione, ma sono convinto che un LLM supererebbe un test su cui sia stato debitamente addestrato.
Quello che trovo invece inverosimile è superare un test senza addestramento sul tema o su una sua induzione.
Per questo motivo mi piace pensare a un test di Turing, ove gli intervistati non sappiano nulla sulla tecnica di intervista, inventata al momento da C, e da usare solo per quella intervista.
Con l’enorme mole di dati a disposizione per l’addestramento ci possiamo aspettare che per quanto l’intervistatore sia creativo ci sia una alta probabilità che sia comunque presente ne (o deducibile da) l’addestramento[3].
Allora l’intervistatore potrebbe condurre più interviste per valutare i risultati di queste. O potremmo dire che il test si compone di una unica intervista risultato dalla composizione delle precedenti. Ecco, questa mi sembra una metodologia utile non solo ai fini del test di Turing ma anche a quelli del test inverso[4].
Come affrontare i problemi etici dell’intelligenza artificiale
Ma anche affinando il test di Turing non diminuiscono i problemi etici. Farò riferimento ai celebri principi dello scrittore Isaac Asimov, che introdusse le leggi della robotica:
- Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
- Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.
- Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.
Trovo che queste leggi siano applicabili agli LLM, semplicemente sostituendo nel loro enunciato l’acronimo LLM (o AI) alla parola robot.
Asimov costruì delle situazioni contradditorie che mal si conciliavano con l’applicazione letterale delle leggi. Egli introdusse, perciò, la “legge zero” seguita dalle altre tre, opportunamente riformulate:
- Un robot non può recare danno all’umanità, né può permettere che, a causa del proprio mancato intervento, l’umanità riceva danno.
- Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. Purché questo non contrasti con la Legge Zero
- Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Legge Zero e alla Prima Legge.
- Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Legge Zero, la Prima Legge e la Seconda Legge.
Ma anche con questa legge zero rimangono problemi e contraddizioni. Essa, applicata a una AI immersa in un qualche scenario apocalittico in cui dovesse scegliere fra l’inazione, e la conseguente perdita, che so, di due milioni di vite, o il sacrificio di un milione di vittime, potrebbe scegliere la seconda opzione, in assenza di logiche fuzzy, specifiche temporali, o altre, magari non palesi, diventando così colpevole di omicidio di massa, in nome di un presunto beneficio all’umanità.
Certe decisioni dovrebbero essere lasciate a una collettività di umani.
Conclusioni
Infine, non dimentichiamo che in matematica si raggiungono contraddizioni logiche – anche irrisolvibili – attraverso l’autoriferimento, cosa che per secoli ha appassionato le migliori menti.
Non mi aspetto che le AI ne siano esenti.
NOTE
Cosa sempre possibile, data la macchina universale e la prova della sua esistenza; si veda qui. ↑
Tema ampiamente discusso, anche in ambito filosofico. Si veda qui. ↑
Non è facile, per esempio, interrogare un motore di ricerca con qualcosa che abbia senso e non ottenere risultati. ↑