Riservatezza, disponibilità e integrità: questo il mantra di chi si occupa di sicurezza delle informazioni, perché sono queste le tre caratteristiche di dati e sistemi che devono essere preservate.
Se le prime due sono sempre state chiare a tutti anche in termini di significato, la terza è sempre stata al centro di una serie infinita di fraintendimenti e, proprio per questa ragione, è sempre stata spesso colpevolmente emarginata, se non praticamente ignorata.
In primo luogo, si tratta di chiarire il senso del termine integrità, che non corrisponde a quello di “verità” o “giustezza”. Un esempio che uso spesso per rendere evidente il concetto riguarda le sentenze emesse da un tribunale che per ragioni ovvie, per quanto possano essere sbagliate e ingiuste, devono essere preservate così come sono.
Detto questo, sottovalutare l’integrità significa perdere di vista un altro elemento chiave rappresentato dalla coerenza.
Su questo vale la pena prendere in considerazione un caso reale e una “voce” che si è diffusa. Nello specifico non è importante se le cose sono andate in questo modo, ma è certo che potrebbe accadere.
Indice degli argomenti
Integrità delle informazioni: il caso Colonial Pipeline
Il caso in questione è l’ormai famigerato blocco dell’oleodotto Colonial Pipeline. Dopo il pagamento del riscatto, secondo alcune indiscrezioni, le chiavi di decifrazione fornite dal gruppo DarkSide non sono state utilizzate. Perché? Sono certo che la ragione risulterà ovvia a chiunque nella sua vita abbia dovuto strutturare un piano di continuità operativa di un’organizzazione.
Possiamo facilmente immaginare che alla Colonial Pipeline il personale tecnico abbia iniziato a rispristinare i sistemi utilizzando quei backup che auspicabilmente dovevano essere sopravvissuti all’attacco ransomware.
Attacco a Colonial Pipeline, il prima e dopo che stanno cambiando lo scenario del cyber crime
Lentamente diversi servizi e applicazioni avranno ripreso a funzionare, poi improvvisamente ecco che sono disponibili le chiavi che potrebbero riportare tutto ai pochi istanti precedenti all’attacco. In quel preciso momento, qualcuno potrebbe avere fatto notare che effettuare il “restore” delle funzionalità di quanto ancora bloccato utilizzandole avrebbe determinato un problema per nulla trascurabile: i dati ripristinati sarebbero stati incoerenti rispetto a quelli presenti nelle applicazioni e servizi già fatti ripartire attraverso i backup.
In termini molto semplici, una parte del sistema sarebbe stata “più avanti” nel tempo rispetto all’altra. Ora, poiché possiamo immaginare che le basi dati fossero molte e interconnesse, il disallineamento temporale avrebbe generato una serie infinita di malfunzionamenti.
Aggiungiamo che, volendo dare credito a Colonial Pipeline di un minimo di professionalità, i primi servizi oggetto del “restore” saranno stati anche quelli considerati come i più critici, di conseguenza sarebbero stati proprio questi ad andare nuovamente in tilt.
Se le cose sono andate in questo modo (non certo, ma possibile) appare palese che le chiavi non potessero essere usate e che qualche milione di dollari è stato allegramente “donato” e non per una buona causa.
Ci sarebbe quindi da riflettere su come debba essere affrontata una crisi legata a un attacco ransomware. Per esempio in termini di sequenza temporale: prima si decide se pagare o meno, poi ci si comporta di conseguenza.
Tuttavia non è questo il tema che volevo affrontare, quanto piuttosto come la dimensione dell’integrità dei dati diventerà drammaticamente critica in un futuro che è già cominciato.
Big data, intelligenza artificiale e integrità dei dati
Le meraviglie che ci promette questa combinazione sembrano trasformare in realtà i sogni della fantascienza, ma allo stesso tempo potrebbero rendere concreti anche i rischi più estremi del più visionario degli scrittori.
Partiamo dicendo che tutto dipende proprio dall’integrità e dalla coerenza dei dati che rappresentano l’input per consentire a un’intelligenza artificiale di svolgere correttamente il compito assegnatole.
A tutti sono ben note forme di aggressione conosciute come adversarial attack (a essere colpito è il dataset di addestramento) o “false data injection” (il travisamento riguarda i dati in entrata) che attraverso la manipolazione o la falsificazione degli input determinano reazioni anomale nei sistemi governati da algoritmi.
Adversarial AI, attacco Black-Box all’intelligenza artificiale: cos’è, caso d’uso e motivazioni
La ragione per cui il rischio è abnorme dipende dal fatto che entrambi i “protagonisti” della vicenda sono al di fuori del nostro controllo.
In effetti, quando si parla di Big Data il riferimento è a informazioni che per quantità e qualità non sono intellegibili per qualsiasi essere umano. Parimenti le logiche delle intelligenze artificiali sono ormai definite come imperscrutabili.
Se consideriamo il classico modello “data-information-knowledge-wisdom” la delega che stiamo dando alle nuove tecnologie le porterà ad avere il pieno controllo sui primi tre gradini, riservando, si spera, all’uomo soltanto l’ultimo per cui dovrà prendere una decisione basata sul buonsenso e su quelle “indicazioni” che la macchina gli fornirà.
Conclusioni
A questo punto, mi limito a citare il noto esperimento di un gruppo congiunto di ricercatori di Google e della New York University, ai quali è bastato inserire dei disturbi impercettibili all’occhio umano in una fotografia di un panda per convincere un algoritmo per il riconoscimento delle immagini a vedere un gibbone con una probabilità del 99,3%.
Risulta evidente, dunque, che le valutazioni delle weak AI sono influenzabili alle minime variazioni e domani il detto “il battito d’ali di un farfalla in Brasile può provocare un tornado in Texas” non sarà più applicabile soltanto alla fisica o alla meteorologia, ma in molti altri ambiti della nostra vita quotidiana.