Sulla sicurezza software dei datacenter si è scritto molto, anche su questa rivista. Ma anche l’infrastruttura fisica, la “scatola”, ha un peso, e rilevante. Buona parte del nostro quotidiano viaggia su cavi che terminano in questi agglomerati di elaboratori, dai servizi bancari al pagamento dei pedaggi, passando per le applicazioni ludiche.
In futuro, la guida autonoma e le operazioni a distanza li renderanno ancora più fondamentali: per questo devono rispondere a precise norme costruttive, rigide ed estremamente particolareggiate.
In questo viaggio, Cybersecurity360 vi mostra come sono costruiti. Con una premessa: abbiamo contattato molte grandi società. Ma pochi hanno accettato di rispondere. Questo dà un’idea della complessità della materia. E del fatto che si tratta di asset decisamente strategici, e a rischio.
Indice degli argomenti
Le norme di sicurezza
La parola chiave è ridondanza. Dato il ruolo che rivestono i datacenter nel mondo moderno, è naturale che esistano una serie di regole e parametri cui attenersi: e duplicare è la regola principale.
Ma chi controlla che le norme siano seguite? Come assicurarsi che le specifiche più avanzate siano rispettate? Il mercato ha risolto il problema con un escamotage usato anche in altri settori: le certificazioni.
Esistono diverse organizzazioni che offrono questo servizio: il “bollino” più famoso è quello rilasciato dall’Uptime Institute di New York. Per ottenerlo, i tecnici dell’ente statunitense verificano innanzitutto il progetto su carta – o meglio, sui software di progettazione, che oggi includono anche i gemelli digitali in grado di replicare il funzionamento del complesso in maniera estremamente fedele-; poi, una volta realizzato l’impianto (entro due anni) valutano il risultato, cioè l’opera costruita.
I “livelli”, per così dire, di sicurezza, vengono identificati con la parola inglese Tier, che rimanda proprio a questo concetto: una scala da uno a quattro, dove più alto è il numero, maggiore è la capacità del sistema di resistere a imprevisti. Di tutti i generi: dai cali di tensione agli allagamenti. I datacenter certificati sono 3.400 in 114 Paesi del mondo.
Vediamo meglio.
Quei quattro livelli
Il primo livello, quello base (Tier 1), indica la presenza di una sala separata tra uffici e macchinari, una climatizzazione costante e la disponibilità di un sistema per filtrare picchi e abbassamenti di potenza, oltre a un generatore di elettricità.
Al secondo livello, spiega il fornitore di servizi cloud Wiit, si introduce una parziale ridondanza in tema di componenti elettronici e di raffreddamento, essenziali per il buon funzionamento degli elaboratori. A questo stadio, ogni operazione comporta ancora una riduzione delle capacità.
Col terzo livello si compie un forte passo in avanti: per ottenere questo bollino è necessario che sia disponibile un ramo ridondante sia per l’alimentazione che per il raffreddamento di ambienti, sistemi e sottosistemi, con disponibilità media del datacenter nel 99,982% del tempo su base annua. Si introduce, inoltre, il concetto di manutenzione concorrente dei componenti: è possibile, cioè, intervenire su qualsiasi componente decisivo del servizio senza causare discontinuità.
Infine, Tier 4: è la certificazione più prestigiosa, l’unica presa in considerazione per le attività più delicate, quelle cosiddette “mission critical”: in Italia non sono molti i complessi di questo genere. A questo stadio, alle altre caratteristiche si aggiunge il concetto di “fault tolerance”: il datacenter deve, cioè, essere in grado di tollerare l’impatto cumulativo del guasto di più sistemi o componenti, gestendo la continuità operativa senza alcun intervento umano, per un livello di uptime annuo del 99,995%.
Uptime non è l’unica certificazione: esiste un altro standard, TIA (Telecomunication Industry Association): nata nel 2005, anche in questo caso i livelli sono quattro, con caratteristiche paragonabili a quelli della concorrente.
A cosa servono regole così rigide?
Ma per comprendere a cosa servano regole così rigide, e perché le aziende siano disposte a spendere centinaia di migliaia di dollari per farsi certificare, è necessario scendere più nel dettaglio.
“I criteri di Uptime sono molto rigidi e rispondono a diverse esigenze tecniche” spiega a Cybersecurity360 Kristian Montevecchi, technical expert settore data center di Vem sistemi, system integrator di Forlì, quattrocento dipendenti. “In primo luogo, c’è la necessità di continuità del servizio: per alcune attività, come per esempio quelle bancarie, servono livelli di ridondanza molto elevati data la delicatezza del settore e dei dati coinvolti e la necessità di continuità”.
Per garantirla, si parte dalla scelta del sito: “La geografia ha un peso fondamentale: per essere al sicuro, un datacenter non può essere costruito ovunque. Per esempio, non sono candidabili le zone alluvionate negli ultimi cinquanta o cento anni, così come le zone ad alta sismicità. Impossibile immaginare un datacenter alle pendici di un vulcano. Conta la vicinanza a infrastrutture elettriche importanti, da cui il complesso deve essere sufficientemente distante, ma anche quella alle autostrade, perché in caso di incidente che comporta esplosioni o perdita di materiale possono esserci conseguenze serie sull’operatività”.
Vietate, prosegue Montevecchi, le aree vicino agli aeroporti, ma anche quelle ad alto tasso di criminalità; e, ovviamente, niente basi militari. Questo spiega perché l’ubicazione dei datacenter sia spesso mantenuta nascosta: troppi interessi in gioco.
Una volta individuato il luogo, comincia la fase di costruzione. “Per Uptime, il cliente ha due anni per costruire il datacenter rispettando le specifiche riportate nella parte progettuale. La certificazione Tier, molto spendibile sul mercato, si riceve solo al termine del processo”.
Sul sito di Uptime esiste un elenco pubblico, ma sono diverse le aziende che preferiscono non essere presenti. “All’interno del datacenter ci sono macchinari costosi e dati preziosi, da cui dipende una moltitudine di attività essenziali per la società – riprende Montevecchi – Per le banche, per esempio, mi spingerei a dire che i dati sono il nuovo caveau”. Meglio non rischiare.
Il livello di certificazione più elevato (Tier 4) prevede che ogni elemento sia raddoppiato, triplicato o quadruplicato a seconda del grado di sicurezza che si vuole mantenere, prosegue l’esperto. C’è anche chi fa scelte poco ortodosse, decisioni che rispecchiano le esigenze del cliente, le sue paure: “Alcune aziende preferiscono fare due siti ridondanti di livello inferiore piuttosto che affidarsi a un unico centro con il livello massimo” continua il tecnico di Vem sistemi.
Curiosità: è l’elemento con il minor livello di ridondanza quello che classifica il livello del datacenter.
Ma, chiediamo, sono davvero utili le classificazioni? “Nella loro rigidità sono funzionali” replica Montevecchi. Anche perché sono molto costose. “Un processo di valutazione completo parte dalla fase di analisi e progettazione e si conclude con l’esame del sito operativo, arrivando a costare qualche centinaio di migliaia di euro”.
Naturalmente, “chi decide di sostenere la spesa lo fa per far valere la certificazione sul mercato: bancario, della co-location [l’affitto di spazi, ndr], del cloud. Perché il cliente pretende la certezza che il datacenter sia stato costruito seguendo le specifiche dichiarate al momento della firma del contratto”. L’intervento dei certificatori risolve il problema.
Ma come avviene il processo di certificazione?
La prima fase esamina la progettazione: vengono richiesti e valutati tutti gli schemi ingegneristici. Se non si raggiunge uno standard qualitativo adeguato, vengono apposte delle note in rilievo e il progetto viene rispedito al mittente, con la richiesta di procedere alle integrazioni necessarie.
Ogni passaggio ha un costo: “Il consiglio è quindi – suggerisce Montevecchi – di non risparmiare sulle collaborazioni, e assumere progettisti esperti: il rischio è di spendere di più per ottenere le certificazioni, e perdere tempo prezioso” in un mercato che sta esplodendo, e che vede il Milanese nella lista delle aree più calde d’Europa.
In Italia, qualcosa si muove anche a Roma: il Sud, invece, è ancora ampiamente sguarnito, anche se alcuni progetti sono in corso, per esempio in Campania. La prossimità alle utenze riduce i tempi di latenza, ed è fondamentale per le applicazioni più avanzate.
“Una volta certificato il design e costruito entro due anni il datacenter, è il momento delle verifiche sul sito vero e proprio: arrivano gli uomini di Uptime a collaudare il complesso funzionante, ed effettuano tutte le simulazioni e gli stress test del caso”.
Là fuori è una giungla, aggiunge Montevecchi. Meglio leggere bene le etichette, e farsi fornire la documentazione: “Non mancano le aziende che millantano di avere un certificato Uptime. Qualcun altro dice di essere ‘Tier 4 compliant’: ma significa che il bollino non ce l’ha”.
Le risorse idriche
Anche i sistemi elettrici, prosegue Montevecchi, sono ridondanti. Idealmente, si procede a sottoscrivere contratti con due diversi fornitori di energia. Le potenze richieste sono molto alte, perché i datacenter, non è un mistero, hanno costante bisogno di essere raffreddati. Il problema è che il raffreddamento delle macchine, che avviene a liquido, consuma molta corrente, e molta acqua.
Secondo dati raccolti da Cybersecurity360, ogni dieci megawatt per alimentare gli elaboratori è necessario aggiungerne tre per far funzionare la componente elettrica e meccanica di raffreddamento: i consumi energetici, quindi, aumentano del 30%.
C’è chi studia la possibilità di reimmettere l’acqua in falda. Una soluzione, peraltro, non applicabile ovunque, e ancora non perfezionata.
Il caso di Fastweb
Ludovico Costantini, manager of sites & energy management di Fastweb, azienda con una lunga esperienza nel settore, conferma. “Nella realizzazione dei datacenter il primo passo, importantissimo, è ricerca del sito. Poi si passa alla fase di progettazione. Il primo criterio che seguiamo? L’affidabilità. Un datacenter Tier 4 come il nostro viene progettato con due rami, meccanico ed elettrico, completamente speculari e gemelli, senza alcun punto in comune. Se c’è un guasto o black out su un ramo, l’altro è in grado di farsi carico di tutto, perché è progettato per sostenere il 100% del carico”.
Il mercato, nota il manager, richiede affidabilità, “e se si partecipa a una gara una certificazione Uptime Tier 4 è richiesta pressoché ovunque”.
“Il secondo criterio che seguiamo quando progettiamo un datacenter è l’efficienza energetica: il complesso deve essere affidabile, certo, ma è necessario contemperare questo aspetto con quello dell’efficienza. Con cui, lo dico chiaramente, non va d’accordo, e lo so bene perché in azienda faccio anche l’energy manager”. In termini pratici, spiega Costantini, questa esigenza si traduce nel progettare il complesso con un indice di power usage effectiveness il più basso possibile. In contesti freddi è più semplice: “Un datacenter in Alaska, da questo punto di vista, è più efficiente di uno posizionato alle nostre latitudini”.
“Il problema delle temperature più alte, comunque, si traduce in una bolletta più alta, ma non impatta sull’affidabilità e la continuità di esercizio” prosegue il manager. Invece bombe d’acqua, vento e tempeste rappresentano una minaccia grave: “L’inondazione a Campi Bisenzio, vicino Firenze, ha portato quaranta centimetri di acqua in una delle nostre centrali di comunicazione. Ma grazie agli accorgimenti di sicurezza che adoperiamo, siamo riusciti a garantire lo stesso il servizio”.
L’altro pilastro seguito oggi, racconta Fastweb, è la modularità. “Che, peraltro, si lega all’ottimizzazione dei costi”, dice Costantini. “In passato venivano costruiti dei complessi enormi. Ma un datacenter spesso non viene riempito subito di macchinari, ma costruito per affittare o vendere gli spazi all’interno. In termini tecnici si parla di rampa di riempimento: così, se si vogliono ottimizzare i costi, è preferibile cercare soluzioni modulari”. Significa pianificare la crescita sulla base di analisi storiche e contingenti: “Così, al posto di installare un gruppo elettrogeno da due MW subito, se ne può prevedere uno da un solo MW, e rimandare l’altro di qualche anno, in modo da non trovarsi a fine vita con un apparato sovradimensionato”.
Il costo ambientale: l’uso delle rinnovabili nei datacenter
Ultimo pilastro: l’integrazione con le rinnovabili. Perché i datacenter consumano risorse. E le applicazioni legate all’intelligenza artificiale aumenta vertiginosamente l’impatto ambientale già consistente: sarà uno dei temi dei prossimi anni. Anche perché, come ha chiosato l’ad di Tiscali Davide Rota, “è molto più interessante usare l’AI per la scienza che per pianificarsi la cena”.
“Oggi, per costruire un datacenter bisogna necessariamente considerare l’integrazione con l’autoproduzione di energia rinnovabile: non è più possibile farne a meno” argomenta Costantini. Al riguardo, “il recupero del calore è una cosa molto interessante”. Un datacenter produce molto calore, prosegue il dirigente, “ma è poco pregiato, perché a trentacinque gradi, quindi a basso contenuto entalpico, per dirla in termini termodinamici. Ma avere degli uffici vicini, in questo senso, è una fortuna, perché questo tipo di calore si presta bene a preriscaldarli al mattino. Così, oltre a massimizzare l’ efficienza, si conferisce anche un tocco di economia circolare”.
Fastweb dispone di sei datacenter, di cui tre gestiti direttamente, tutti alimentati al 100% da energia rinnovabile. Uno di questi, costruito nel 2015, è stato il primo in Italia ad aver ottenuto la certificazione Tier 4.
La vita utile di un datacenter
Quanto alla vita utile di un datacenter, “gli impianti principali durano tra i dieci e i quindici anni: mi riferisco a gruppi di continuità, gruppi elettrogeni, batterie, chiller e condizionatori. L’impiantistica elettrica generale, invece, dura una trentina d’anni”.
I server, precisa Costantini, sono esclusi dall’analisi, “perché di solito sono del cliente”. Per chi lo costruisce, il datacenter è, infatti, visto come una scatola vuota: una specie di coworking, dove si affittano spazi e servizi, ma ci si porta i pc. Un modello noto come co-location.
L’ultima fase, non certo per importanza, è quella della manutenzione, che ha un impatto diretto su efficienza e affidabilità: “E’ una parte trascurata, ma dal peso specifico elevato” sintetizza Fastweb. Una manutenzione affidabile allunga la vita del complesso, ed è in grado di evitare più di un grattacapo. Le cui ricadute possono mandare in tilt un Paese.