Il funzionamento di qualsiasi attività all’interno di un data center è strettamente connesso alle prestazioni dei sistemi IT ed il loro monitoraggio è importante per aiutare le aziende a realizzare una gestione efficace e cost-effective.
Inoltre, supervisionare i sistemi IT aiuta non solo a controllare le prestazioni, ma anche a ridurre il tempo di riparazione in caso di disservizi, guasti o attacchi mirati.
Le aziende si affidano a risorse IT come server, reti e applicazioni per supportare le attività del core business aziendale.
Se uno di questi componenti è mancante o non funziona al meglio, le attività di business possono risentirne in maniera significativa.
Attraverso l’uso di strumenti di monitoraggio delle prestazioni IT, le organizzazioni sono in grado di identificare potenziali problemi prima che si verifichino, oppure di gestirli quando accadono per ridurre al minimo le interruzioni e garantire l’ottimale funzionamento dei sistemi.
Un miglioramento che si riflette anche sui costi ridotti e risorse liberate per altre attività.
Indice degli argomenti
Analisi delle performance IT
L’analisi delle prestazioni è il processo di raccolta e analisi dei dati relativi alle prestazioni di sistemi IT, applicazioni e reti.
Ottenendo informazioni su come funzionano i vari componenti dell’infrastruttura IT, le organizzazioni possono identificare in modo proattivo i colli di bottiglia, diagnosticare problemi di prestazioni e prendere decisioni basate su dati oggettivi per intervenire in modo appropriato [1].
Le sei fasi basilari della gestione delle prestazioni IT
La gestione delle prestazioni IT ruota attorno a sei fasi basilari:
- Definizione di Indicatori di prestazione (KPIs) la cui misura periodica e/o continua fornisce i dati per l’analisi. In questa fase si identificano le metriche chiave delle prestazioni che sono rilevanti per l’infrastruttura IT. Possono includere tempo di risposta utente, tempi di risposta dei server, produttività, tassi di errore e utilizzo delle risorse, disponibilità dei sistemi. Definire le metriche in modo chiaro, con soglie e SLA (Service Level Agreement – livelli di prestazione) correlati consente alle organizzazioni una misura e valutazione delle prestazioni efficace ed efficiente.
- Collezione dei dati /monitoraggio e osservazione delle prestazioni, raccogliendo continuamente dati sulle prestazioni su diversi componenti del sistema informatico, come database, server, componenti applicativi, reti, esperienza utente, secondo le metriche individuate al punto precedente.
- Analisi delle prestazioni, elaborando i dati sopra menzionati per identificare tendenze e modelli di performance ma anche rischi e guasti che compromettono l’efficienza dell’IT. Condurre un’analisi delle cause alla base dei problemi (root cause) permette di comprendere i fattori responsabili dei problemi. Ciò può comportare l’esame dei log di sistema, delle tracce di rete o l’analisi del codice. Affrontando le cause primarie le organizzazioni possono apportare miglioramenti a lungo termine nelle prestazioni.
- Ottimizzazione delle prestazioni, implementando azioni correttive per affrontare le carenze identificate. Ciò può includere aggiornamenti dell’infrastruttura, ottimizzazioni del codice o modifiche alla configurazione.
- Pianificazione della capacità, anticipando le esigenze e le risorse future necessarie per mantenere un sistema informatico ottimale rispetto ai dati da gestire, i flussi di traffico e gli utenti collegati.
- Reporting, formalizzando e comunicando il monitoraggio degli indicatori chiave delle prestazioni.
Vantaggi della gestione efficiente dei sistemi IT e di quella proattiva
I principali vantaggi della tenuta sotto controllo di una infrastruttura IT sia essa on premise, in cloud, distribuita o centralizzata riguardano:
- allineamento con la strategia dell’organizzazione: la gestione delle prestazioni IT consente di indirizzare gli investimenti IT verso progetti prioritari e principali esigenze aziendali identificate nella strategia dell’organizzazione;
- miglioramento dell’efficienza: la comprensione approfondita nell’uso delle risorse IT permette di eliminare i problemi o le debolezze, migliorando nel frattempo la disponibilità e l’affidabilità e contribuendo alla prevenzione di eventuali crash applicativi o infrastrutturali;
- miglioramento dell’esperienza e soddisfazione utente: operatività ottimizzata grazie alla risoluzione di difficoltà legate a tempi lunghi di caricamento di applicativi e/o riduzione dei crash di sistema, che diminuiscono i tempi morti, aumentando anche la fiducia utente nei sistemi aziendali e la soddisfazione delle aspettative in termini di velocità e affidabilità;
- ottimizzazione dei costi: operazioni IT inefficienti possono comportare spreco di risorse e costi non necessari, mentre l’ottimizzazione delle prestazioni incide sul risparmio dei costi a lungo termine.
- reattività al cambiamento: l’ottimizzazione continua del sistema informativo garantisce una migliore reattività ai problemi riscontrati e una migliore reazione ai cambiamenti tecnologici.
Tradizionalmente, il monitoraggio IT è stato svolto in modo reattivo ovvero solo al verificarsi di problemi a valle dei quali si interveniva per la risoluzione.
Tuttavia, l’approccio proattivo rappresenta una strategia più efficace ed è costituito dal monitoraggio costante dei sistemi, applicazioni e infrastrutture, consentendo alle aziende di identificare e risolvere potenziali problemi, prima che influiscano sulle operazioni critiche ed i processi di business.
Il monitoraggio costante e in real time di metriche prestazionali riduce al minimo i tempi assoluti e medi di downtime e quelli di risposta ad eventuali incidenti.
La gestione proattiva la definizione di KPI appropriati
Anche nel caso della gestione proattiva la definizione di KPI appropriati e di strumenti operativi di supporto è cruciale per poter configurare alert e notifiche in corrispondenza di determinati eventi “soglia”.
Uno dei vantaggi della gestione proattiva è anche una migliore rispondenza agli obblighi di conformità normativi che, in caso di incidente informatico, impongono SLA molto precisi per le segnalazioni e notifiche alle autorità di controllo.
Naturalmente è fondamentale effettuare istanza di un processo di gestione incidenti che comprenda un processo di escalation e a definizione precisa di ruoli e responsabilità.
I due elementi chiave di ogni impresa
Tutti i vantaggi sopracitati incidono su due elementi chiave di qualsiasi azienda: produttività e resilienza.
Nel primo caso la produttività è garantita da una operatività costante e affidabile delle risorse che supportano il business e, dall’altra, la capacità proattiva di monitoraggio migliora la resilienza, perché incide positivamente sulla continuità di business in qualsiasi condizione, anche quella di incidente informatico.
Strumenti a sopporto dell’analisi delle prestazioni
Sono disponibili diversi strumenti di supporto per il monitoraggio delle prestazioni IT e per l’analisi delle performance.
Alcuni sono citati ma la lista non è esaustiva: SolarWinds Network Performance Monitor, Dynatrace, PRTG Network Monito, New Relic, Nagios.
Qualunque sia il software prescelto, è essenziale che che possa ricomprendere alcune funzionalità:
- monitoraggio in tempo reale di informazioni sull’efficienza delle strutture IT;
- avvisi e notifiche su eventi/problemi;
- dashboard personalizzabili per tenere traccia dei dati più significative;
- reportistica configurabile e dettagliati per creare documenti analitici su tendenze, possibili problemi e stato generale del sistema;
- scalabilità ovvero la capacità di capacità di crescere in risorse disponibili, all’aumentare delle esigenze IT.
Prospettive future per il monitoraggio IT
La tendenza verso piattaforme di monitoraggio e dashboard unificate aiuterà a risolvere i problemi delle strutture a silos che hanno solitamente una vista parziale.
L’unificazione e integrazione fra diverse piattaforme e tecnologie permette invece, una visione completa dell’intero ambiente IT, integrando vari aspetti del monitoraggio (rete, prestazioni, sicurezza e registri) in un unico sistema.
Non sono da dimenticare i sistemi le architetture di Edge computing e le reti IoT che possono costituire una vera e propria sfida alla analisi delle prestazioni.
In questi casi si deve poter prevedere rispettivamente sia l’elaborazione dei dati all’Edge con il monitoraggio IT che si avvicina ai dati alla fonte, riducendo la latenza e la congestione della rete, mentre, sul fronte IoT, le soluzioni devono essere scalabili per gestire il numero crescente di dispositivi connessi e sufficientemente flessibili da adattarsi a diversi tipi e fonti di dati.
Il futuro degli strumenti di supporto per il monitoraggio e l’analisi delle prestazioni guarda alla maggior automazione nella risposta a problemi (e incidenti di sicurezza) e all’integrazione di intelligenza artificiale e apprendimento automatico, che abiliterà migliori capacità di analisi predittive, individuazione precoce di anomalie (anomaly detection) come anche capacità di manutenzione predittiva.