All’interno del processo di cyber risk management, le aziende stanno affrontando considerevoli difficoltà nell’individuare l’approccio più adatto a bilanciare efficacemente gli investimenti in cyber security: per farlo appropriatamente esse dovrebbero allocare risorse economiche considerando che ogni singolo euro investito potrebbe invece essere destinato ad attività di business e che le strategie dovrebbero essere il più possibile guidate da decisioni informate circa le soluzioni più cost-effective da implementare con programmi pluriannuali idonei a mitigare i cyber risk.
Questo tipo di approccio, tuttavia, richiede una comprovata abilità di misurazione del rischio, i cui benefici sono a tutt’oggi sottovalutati a causa del perdurare di un certo grado di confusione sulle metodologie di misurazione, sulla loro utilità e sulle qualità che rendono “buona” una tale capacità di misurazione.
Questa condizione di incertezza è purtroppo diffusa soprattutto nel nostro quadro nazionale, in cui il livello di maturità sconta un gap eccessivo rispetto a quanto, per esempio, risulta essere il livello medio di maturità osservato in Inghilterra, soprattutto nel comparto dei servizi finanziari, bancari e assicurativi.
Nella pratica, pur essendo ampiamente accettata l’idea che per poter efficacemente minimizzare l’esposizione al rischio di uno specifico asset digitale, (nel rispetto dei livelli di tolleranza preventivamente definiti in accordo con il Board, il Top Management e i livelli manageriali delle varie funzioni di business) occorra essere in grado di riconoscere quale necessiti, più di altri, di essere “trattato” in termini di controlli di sicurezza e contromisure, rimane il fatto che come materia il cyber security risk management ha storicamente fatto affidamento in prevalenza sulla misurazione qualitativa delle severità del rischio, dando per assunto che tale metodologia sia la più adatta.
Indice degli argomenti
Cyber risk management: recenti sviluppi
Negli ultimi anni, le metodologie di valutazione economico-quantitative del rischio cyber sono maturate al punto in cui, in linea con la più mature metodologie di risk modeling sul credito, anche questa tipologia di rischi può essere modellata quantitativamente per migliorare le performance delle varie funzioni di cyber risk management responsabili di tali attività.
Difatti, sebbene sia piuttosto comune vedere i risultati delle valutazioni qualitative espresse con rating “Critical”, “High”, “Medium”, esse forniscono una misura che inibisce la possibilità per i Decision-makers di utilizzare un concreto parametro di confronto con le differenti tipologie di rischio cyber.
A questo proposito, è opportuno far notare che la Security Exchange Commission (SEC) nel 2018 si è mossa prima di altri pubblicando una guideline per supportare le aziende nella disclosure di informazioni sui rischi e sugli incidenti di cyber nella quale, per rispondere a queste maggiori aspettative, viene richiesto di comprendere l’impatto finanziario associato al rischio di eventi cyber, oltre che di dimostrare agli Stakeholders una adeguata attenzione nella pratica della Corporate Governance e del Risk Oversight (attività di supervisione).
Inoltre, anche agenzie di rating come Moody’s stanno iniziando a incorporare la misurazione quantitativa finanziaria relativa all’esposizione al rischio cyber, sottolineando come essa diventerà nell’immediato futuro una componente fondamentale di tutta la gestione finanziaria aziendale.
Accresciuta comprensione dell’economia della cyber security
Grazie a questo progressivo riconoscimento di valore, negli ultimi anni sono emersi diversi metodi per valutare i cyber risk in termini economici.
Le più attuali fra queste metodologie sono X-Analytics, Factor Analysis of Information Risk (FAIR) e vari modelli di Value at Risk (VaR), le quali esprimono i risultati delle analisi mediante valori relativi ai potenziali delle perdite finanziarie.
Naturalmente, per adottare queste metodologie, è necessario prima di tutto interrogarsi su quali e quanti dati siamo disposti a perdere a causa di una pratica illegittima, quanto possiamo permetterci di rimanere fuori servizio, se qualora fossimo vittime di ransomware pagheremo il riscatto ed altre domande.
In pratica, servirebbe impostare con accuratezza ciò che in questa disciplina viene definito “Risk Appetite”, ovvero la quantità di rischio che siamo disposti ad accettare nel perseguimento della mission aziendale con anche la definizione dei livelli di tolleranza, in base alle quali, il livello di rischio calcolato in eccedenza, deve essere trattato.
Tuttavia, poiché la best practice maggiormente abituale da parte delle organizzazioni consiste nell’applicare le misure di sicurezza trasversalmente su tutto ciò che è a rischio, senza distinguo, alcune soluzioni di protezione dei dati e dei sistemi sui quali è calcolato insistere un basso impatto di rischio, potrebbero richiedere investimenti maggiori rispetto ai vantaggi attesi.
Per tale ragione, i Board dovrebbero maggiormente incoraggiare i Manager a considerare il budget di cyber security in termini di utile sul capitale investito (ROI), valutare adeguatamente la probabilità di accadimento di ogni determinata cyber minaccia per poi tornare regolarmente a rivedere il ROI, dato che i costi di protezione e le priorità patrimoniali dell’azienda insieme alle entità delle minacce possono mutare nel tempo.
Cyber risk management: quantificare il rischio
Per fare un esempio di ciò che sottende questo approccio, serve dapprima quantificare le grandezze più importanti utilizzando i seguenti indici al fine di effettuare stime sulla frequenza degli attacchi, sull’impatto sui diversi asset e sulle perdite attese.
Exposure Factor (EF)
È un indice che serve a misurare il livello di danno o l’impatto provocato da un evento dannoso su un singolo asset. Questo viene espresso sotto forma di una percentuale, compresa tra 0% e 100% del valore dell’asset colpito dal threat. Per determinare in maniera accurata tale indicatore spesso si ricorre a diversi metodi quali: l’esperienza e il metodo Delphi.
Single Loss Exposure (SLE)
È un indice che misura il costo associato ad una singolo threat che agisce su un singolo asset. Questo viene calcolato moltiplicando il fattore di esposizione (EF) per il valore monetario dell’asset (AV):
SLE = AV x EF
Annualized Rate of Occurrence (ARO)
Calcolare l’esposizione ad una singola perdita (SLE) fornisce un’idea della perdita dovuta al verificarsi di una sola minaccia su un solo asset, per poter determinare la perdita annua è necessario conoscere la frequenza con cui un particolare evento minaccioso possa verificarsi nell’arco di un anno. A questo scopo viene calcolato l’Annualized Rate of Occurrence (ARO). Questo non esprime una probabilità, ma un tasso, in particolare il numero di volte che un threat si verifica nell’arco di un anno.
Se, per esempio, una certa minaccia si verifica una volta ogni 10 anni, allora avremo che ARO = 0.1, se una minaccia si verifica con cadenza mensile allora avremo che ARO = 12, se una minaccia si manifesta settimanalmente si avrà ARO = 52.
Così come per l’EF, il calcolo dell’ARO per ogni possibile minaccia risulta essere critico e non particolarmente facile, per cui spesso si utilizzano le stesse strategie impiegate nella determinazione dell’EF: l’esperienza e il metodo Delphi
Annualized Loss Expectancy (ALE)
Ultimo indice utilizzato all’interno dell’approccio quantitativo è l’Annualized Loss Expectancy (ALE). Questo esprime la perdita attesa, su base annua, associata ad una specifica minaccia. Esso viene calcolato moltiplicando l’ARO, il tasso annuo di occorrenze di una minaccia, per il SLE, la perdita attesa per ogni singola esposizione alla minaccia:
ALE = SLE x ARO
Approccio quantitativo al cyber risk management: un esempio
Vediamo adesso attraverso un esempio uno dei metodi che può essere adottato per l’esecuzione di tale analisi attraverso l’utilizzo degli indici finora discussi.
Un’impresa possiede un database critico il cui valore è stato stimato pari a 1 milione di euro. Tale valore risulta essere comprensivo del costo dei sistemi hardware, software, del tempo di installazione e manutenzione.
Un’analisi delle minacce rileva che l’attacco di un virus risulta essere una minaccia seria, con un fattore di esposizione (EF) pari al 10 percento, ed un tasso annuo di occorrenza (ARO) di 2:5, cioè con una frequenza di 2 volte e mezzo l’anno. Avremo che:
SLE = € 1.000.000 x 0.1 = € 100.000,
ALE (prior) = € 100.000 x 2.5 = € 250.000
La contromisura selezionata è un software antivirus per un costo complessivo annuo di € 30.000. Esso permette una diminuzione dell’ARO a 0:7. Si avrà quindi:
ALE (post) = € 100.000 x 0.7 = € 70.000.
A questo punto è possibile calcolare il guadagno (CBA) derivante dall’adozione del software antivirus:
CBA = € 250.000 – € 70.000 – € 30.000 = € 150.000.
A meno che non vengano proposte delle contromisure che permettono un guadagno netto più elevato, il software antivirus è candidato ad essere adottato all’interno del sistema.
Conclusioni
Come è facilmente osservabile, l’uso della metrica promette di portare la nostra professione dall’arte alla scienza (o almeno a qualcosa di meno superficiale e più simile alla scienza) per realizzare questa promessa, tuttavia, deve prima risolvere alcuni problemi fondamentali.
Ad esempio, senza una tassonomia coerente e logica, diventa molto difficile normalizzare i dati o comunicare in modo efficace, che è l’unico modo in cui le tue metriche diventano significative supportando obiettivi definiti in modo esplicito.
Fortunatamente, però, anche in Italia tra le organizzazioni di grandi dimensioni, iniziano ad esserci delle testimonianze sulla presa di coscienza in questo ambito, dimostrando come attrezzandosi con soluzioni end-to-end che possano aiutare a ridurre una parte del cyber risk limitando il più possibile la probabilità di exploiting tramite misure preventive, è possibile portare la cyber security nei tavoli di discussione delle strategie aziendali e con esse anche le discussioni sulle convenienze di adozione di metriche economiche.