<img height="1" width="1" style="display:none;" alt="" src="https://dc.ads.linkedin.com/collect/?pid=200361&amp;fmt=gif">

Quanto costa veramente un downtime del data center

Il data center downtime, cioè l’interruzione delle attività digitali guidate dai server aziendali, è dovuto soprattutto a guasti imprevisti o manutenzione periodica. Tale interruzione ha un costo per l’azienda che, secondo Business Insider, può arrivare a 8.000 dollari per un solo minuto di inattività. E se alcune perdite si possono correlare direttamente al “tempo di fermo”, come per esempio le transazioni finanziarie annullate o bloccate, altre derivano indirettamente dalla indisponibilità temporanea delle applicazioni. Basti pensare al venir meno di clienti insoddisfatti o al peggioramento della brand reputation.

Una ricerca del Ponemon Institute riferita al 2015 ha calcolato che un data center downtime può costare fra i 740.357 e i 2 milioni di dollari.

 

Le cause principali del data center downtime

Ma quali sono i motivi principali all’origine dei periodi di arresto del funzionamento della server farm?

Nimble Storage, uno dei più importanti fornitori a livello mondiale di prodotti storage flash che fa parte del gruppo Hewlett Packard Enterprise, ha analizzato nel 2017 più di 12.000 casi per comprenderlo. Dall’indagine è emerso che le cause del data center downtime non si possono circoscrivere solo ad alcune parti dello stack IT, ma riguardano in genere tutta l’infrastruttura. In particolare:

  • Problemi di Storage (46%). Sono relativi all’hardware e al software, all’aggiornamento del software e, occasionalmente, alle prestazioni. Esempi classici sono le unità guaste, che però possono essere risolte con sostituzioni predittive e proattive, nonché con l’analisi automatizzata del malfunzionamento software.
  • Problemi di configurazione (28%). In mancanza di un’analisi predittiva, i problemi di configurazione sono estremamente difficili da identificare e risolvere.
  • Problemi di interoperabilità (11%). Tendono a essere correlati alla configurazione con rete Windows, Exchange e applicazioni di rete. Gli esempi includono la gestione imprecisa, da parte del personale IT, del linguaggio SQL Microsoft.
  • Problemi di prestazioni (8%). Sono collegati alla mancata adozione delle best practices nella configurazione di rete, compresa l’impostazione errata della funzionalità Multipath I/O (MPIO).
  • Problemi relativi a host, computer o VM (7%). In questo caso, oltre alle criticità riscontrate nella configurazione della rete virtuale, le questioni impattano sull’impostazione iSCSI lato host o sul setup UCS.

 

Non è sempre colpa dello storage

Il dato rilevante che viene fuori dall’analisi di Nimble è che in più della metà dei casi osservati (54%) i problemi di data center downtime non dipendono dallo storage. È importante sottolinearlo perché spesso, invece, quando c’è un’interruzione nell’attività di erogazione delle risorse si tende a dare la colpa all’ambiente di archiviazione. Motivo per cui lo si risolve, sbagliando, con l’acquisto di ulteriore spazio di stoccaggio allo scopo di velocizzare le perfomance. Di conseguenza, la prima lezione che si può ricavare è che bisogna individuare rapidamente il problema, pena uno spreco di tempo e il prolungarsi eccessivo dell’inattività. Sì, ma come si fa?

 

Analisi predittiva e machine learning

Attraverso l’analisi predittiva e i sistemi di machine learning. L’analisi predittiva dovrebbe essere integrata nelle componenti dell’infrastruttura senza costi aggiuntivi. Grazie a tale soluzione, infatti, il data center viene messo in grado non solo di prevedere le potenziali cause di lentezza e di inattività ben prima che si verifichino, ma anche di automatizzare con il machine learning i processi necessari a evitare il downtime. Per le rare occasioni in cui questo non è possibile, l’analisi predittiva consente comunque di identificare rapidamente la causa, così da potervi porre rimedio in tempi molto più celeri. Inoltre, poiché possiede la capacità di raccogliere informazioni sull’intero ecosistema IT, offre una gamma di indicatori utili a determinare quelle vulnerabilità che dipendono dalla compresenza di diversi componenti “obbligati” a lavorare insieme in un unico ambiente.

 

Un’unica strategia di business continuity

Abbiamo visto prima che questioni legate a interoperabilità, prestazioni, host e virtual machine rappresentano un nervo scoperto perché vengono di norma affrontate separatamente, senza un’adeguata strategia di business continuity che li contempli insieme. Per questo deve cambiare l’approccio delle aziende nel valutare le soluzioni di contrasto al data center downtime, aziende che oggi possono trarre maggiore profitto dall’abbandonare i modelli tradizionali basati esclusivamente sulla ridondanza di ogni singolo componente a beneficio di prodotti convergenti che adottano machine learning e predittività.


New Call-to-action 

 

Data center Storage Business Continuity