<img height="1" width="1" style="display:none;" alt="" src="https://dc.ads.linkedin.com/collect/?pid=200361&amp;fmt=gif">

Quanto i predictive analytics stanno impattando sui data center

Se in passato sono certamente stati importanti, oggi i data center e le infrastrutture IT delle organizzazioni assumono un ruolo ancora più critico, perché diventano il fulcro della trasformazione digitale. Nell’era delle informazioni, i data center costituiscono la base indispensabile per un continuo e sempre efficiente funzionamento di applicazioni e app, con le quali gli utenti possono dover interagire in qualunque momento e in luoghi differenti, sia per esigenze di business, sia per comunicare o svolgere attività legate alla sfera personale. In tutti questi casi ci si aspetta che l’applicazione sul PC, o la app sullo smartphone, risponda in maniera istantanea, fornendo i dati richiesti. Qualsiasi rallentamento o incertezza nell’erogazione delle risposte spazientisce subito l’utente, e lo porta a valutare in modo negativo la qualità dell’applicazione e dell’esperienza d’uso che ha avuto con essa.

’App-data gap’ difficile da eliminare nei centri dati

Anche nell’era digitale, il problema è che gli inconvenienti di latenza e performance nell’uso delle applicazioni continuano a manifestarsi, principalmente a causa dell’estremo livello di complessità raggiunto dai moderni centri dati. Al loro interno, i responsabili e i team del reparto IT lottano quotidianamente per sciogliere i complicati nodi e problemi concatenati che rallentano, o anche interrompono, la fornitura dei dati alle varie applicazioni: questo divario di performance tra i dati e l’applicazione crea quello che viene definito ‘app-data gap’. In sostanza, un collo di bottiglia che, nel caso di applicazioni business, influenza in modo negativo la produttività e finisce per danneggiare la capacità dell’organizzazione di operare in maniera efficiente.

Data center troppo complessi 

Il punto chiave da comprendere per indirizzare e risolvere l’app-data gap è capire e identificare qual è la causa alla radice del problema. Compito, come accennato, non facile, vista l’eterogeneità di tecnologie hardware (server, storage, apparati di networking) e software (sistemi operativi, hypervisor, macchine virtuali, applicazioni), stratificate nel tempo in ciascun data center. Senza considerare che ogni strato tecnologico può essere formato da componenti forniti da differenti vendor, come nel caso di una singola applicazione che per funzionare utilizza svariati database, ognuno funzionante su una diversa piattaforma. È dunque possibile che, dato l’elevato numero di componenti in gioco e di interazioni che avvengono tra essi, le performance di un’applicazione siano limitate dal componente, o dall’interazione tra componenti, più lento, che costituisce la causa radice dell’app-data gap.

L’approccio tradizionalmente utilizzato per colmare questo app-data gap non si può certo definire ottimale, perché tipicamente consuma molto tempo, nel tentativo dei diversi team IT di comprendere, dove sia, tra dispositivi di storage, virtual machine, apparati di networking, l’anello debole che rallenta un determinato processo o applicazione. Tra l’altro, procedendo in questo modo, si sottrae tempo che invece potrebbe essere dedicato a iniziative a maggior valore aggiunto per l’organizzazione.

L’approccio tradizionale consiste anche nello sviluppo di competenze operative per ogni componente hardware e software; nell’acquisto di strumenti di monitoraggio, nell’assunzione di personale per formare team addetti alla razionalizzazione delle operazioni nel loro complesso. Ma anche adottando tutte queste misure, ottimizzare le performance a livello ‘end-to-end’, sull’intera infrastruttura, resta ancora una sfida difficile, anche per i migliori dipartimenti IT.

Scienza dei dati e machine learning, un approccio più razionale

Come si è visto, le strategie di intervento ‘manuali’ per ottimizzare le performance applicative non riescono a tenere il passo con l’aumento di complessità dei centri dati. Il progresso tecnologico avvenuto in questi anni offre però attualmente l’opportunità di utilizzare la ‘data science’ e i modelli di apprendimento automatico, o machine learning (ML), per lo studio e il controllo delle cause radice che sono alla base dei problemi e malfunzionamenti di una determinata applicazione o workload. E ciò è possibile grazie agli enormi volumi di dati (big data) che le migliaia di sensori distribuiti in ogni angolo del data center sono in grado di raccogliere sul funzionamento di tutti i dispositivi hardware e software che compongono l’infrastruttura.

Benefici a vari livelli

Adottare i tool di analisi predittiva sui big data e gli algoritmi di apprendimento automatico, per risolvere l’app-data gap fornisce differenti vantaggi.

  • Identificazione in anticipo dei cali di prestazioni. Basandosi sulle analisi di metriche delle performance eseguite su un gran numero di infrastrutture, il machine learning è in grado di elaborare modelli di ambienti IT sani e con alte prestazioni. Modelli che poi servono per identificare subito le infrastrutture caratterizzate da basse prestazioni e fornire in automatico le misure di correzione, prima che i malfunzionamenti diventino problematici, facendo sentire i propri effetti sulle esperienze d’uso degli utenti.
  • Riduzione degli effetti di un problema. La facoltà di correlare grandi moli di dati relativi all’infrastruttura permette di individuare con rapidità la causa radice e di eliminarla, risolvendo il problema.
  • Capacità di evitare il ripetersi di un malfunzionamento. Una volta identificato un problema e la sua causa chiave, è possibile sviluppare una sorta di ‘firma’ utilizzabile per identificare altre organizzazioni che potrebbero avere accusato lo stesso tipo di inefficienza: la creazione di una procedura prestabilita nel caso specifico permette poi di prevenire il ripresentarsi del problema, o di automatizzarne la risoluzione se si manifesta.
  • Continua capacità di miglioramento delle prestazioni. L’uso degli algoritmi di apprendimento automatico consente di ottimizzare sempre meglio prestazioni e disponibilità delle applicazioni, sfruttando l’analisi di big data raccolti sul funzionamento di un gran numero di infrastrutture. 

Analisi predittiva e ‘insights’ sulle cause dei problemi

Lo storage risulta di norma il primo sospettato nell’identificazione dei fattori responsabili dell’app-data gap. In particolare, il 46% dei problemi individuati è correlato a inconvenienti di storage, inclusi i problemi hardware e software, l’assistenza agli aggiornamenti software, e occasionalmente problemi di prestazioni. Il restante 54% dei problemi deriva invece da un insieme di altre difficoltà: difetti di configurazione (28%); problemi di interoperabilità (11%); best practice non correlate allo storage che impattano sulle prestazioni (8%); problemi a livello di host (Linux, VM, ecc.), risorse di elaborazione o macchine virtuali (7%). Tali conclusioni emergono da uno studio condotto da Nimble Storage, una società di HPE, su più di 12mila casi di esempi documentati di problemi IT connessi all’app-data gap. I dati raccolti provengono da un’ampia varietà di infrastrutture IT, appartenenti a oltre 7.500 utenti, e sono stati analizzati attraverso una piattaforma di analisi predittiva.

Visibilità totale sui problemi con i predictive analytics

Come evidenziato dai dati del precedente report, il 54% dei problemi che possono portare all’app-data gap non sono dovuti a difetti di funzionamento dello storage. Nonostante questo chiaro dato di fatto, il primo impulso di molti IT manager è correre ai ripari acquistando dispositivi di storage più veloci, tipicamente basati su tecnologia flash. Ciò naturalmente non risolve i problemi non correlati allo storage, e il permanere delle inefficienze porta, tra le varie cose, a perdere tempo alla ricerca delle piste e delle cause sbagliate, con conseguente allungamento dei downtime, frustrazione degli utilizzatori e fallimento degli obiettivi di business.

L’applicazione degli strumenti di analisi predittiva, invece, aumenta la trasparenza dell’infrastruttura: permette di identificare in automatico la vasta maggioranza di quel 46% di problemi connessi allo storage: per esempio, attraverso l’analisi e la manutenzione predittiva, i dischi che risultano avere elevata probabilità di guastarsi possono essere sostituiti in maniera proattiva, tramite una procedura automatizzata. 

Un altro importante beneficio di automazione nella risoluzione dei problemi con gli strumenti analitici predittivi si ha nell’affrontare i problemi di configurazione non correlati allo storage, che, come accennato, rappresentano la seconda maggior causa di app-data gap, essendo responsabili del 28% dei malfunzionamenti.

Tali problemi sono dovuti sia alla complessità dei singoli prodotti, sia al numero dei differenti componenti, hardware e software, che devono operare assieme in un tipico ambiente IT. Si deve poi tenere conto che ciascun prodotto viene fornito dal vendor all’azienda utente con un proprio insieme di best practice raccomandate e che queste configurazioni o best practice di impostazione spesso danno per scontata l’installazione del prodotto in uno specifico e ben definito ambiente IT. Se vi sono variazioni rispetto all’esatto ambiente ipotizzato, anche semplicemente una diversa versione della release software, la configurazione può richiedere un aggiustamento, una correzione. Di conseguenza, se si pensa a tutte le permutazioni e combinazioni che si verificano in un’intera infrastruttura IT, il costo di tracciare e verificare ‘manualmente’ ciascun singolo prodotto di ogni vendor diventa proibitivo, per non parlare della difficoltà di collaudare tutte le combinazioni in maniera esaustiva.     

A complicare la questione si aggiunge il fatto che molti vendor forniscono con i prodotti strumenti di monitoraggio e risoluzione dei problemi, che tuttavia hanno il limite di mostrare soltanto una parte dell’inconveniente, o come un problema è correlato a una certa parte dello stack infrastrutturale. Ed è proprio in questi casi che gli strumenti e le tecniche analitiche predittive possono essere di grande aiuto, grazie alla loro capacità di fornire all’utente una visibilità sull’intera infrastruttura, per identificare e risolvere in maniera efficace i problemi, a prescindere da dove vengono originati.  

Conclusione: machine learning e analisi predittiva riducono i tempi di fermo

Oggi le imprese devono prendere coscienza che la complessità degli attuali ambienti IT rende insufficienti i tradizionali modelli di affidabilità e alta disponibilità dell’infrastruttura, essenzialmente fondati sulla ridondanza di ogni singolo componente, ma poco focalizzati sulla capacità di assicurare che tutti i componenti possano interoperare in maniera corretta. 

Le organizzazioni che hanno l’obiettivo di potenziare le prestazioni applicative e ridurre l’eventualità di downtime dovrebbero invece valutare l’acquisizione di soluzioni di controllo infrastrutturale che utilizzano il machine learning e gli strumenti di analisi predittiva, per riuscire a integrare una serie di funzionalità che permettono di ottenere conseguenti, notevoli vantaggi di gestione. Vediamone alcuni:

  • Previsione e prevenzione dei downtime. L’intelligenza integrata nell’infrastruttura permette di prevedere potenziali problemi di rallentamento o blocco, prima che si verifichino realmente. E, una volta previsti, tali problemi possono essere prevenuti in automatico attraverso il machine learning.
  • Rapida fornitura di soluzioni pronte all’uso. Nei casi in cui l’infrastruttura non è in grado di prevenire un problema in maniera autonoma, può comunque guidare l’utente verso una chiara soluzione del malfunzionamento. E ciò evita spesso inutili perdite di tempo, e allungamenti dei downtime, nel tentativo di trovare risposte in forum online, reperire documentazione, o chiamare i servizi di supporto.
    Anche nei casi in cui l’infrastruttura intelligente non sia in grado di prescrivere una soluzione immediata, la causa radice può essere individuata prima, rispetto all’alternativa di usare i tradizionali metodi, che comportano diversi cicli di lavoro, la simulazione del problema, l’analisi dei log, e molto tempo speso in frustranti interazioni tra il cliente e il proprio vendor.     
  • Supporto guidato dall’analisi predittiva. La capacità di risoluzione proattiva dei problemi possibile con gli strumenti analitici evoluti consente anche di eliminare, o bypassare, la necessità delle tradizionali attività di supporto svolte dagli operatori del livello-1 o livello-2. In caso di malfunzionamenti che richiedono il contatto con un operatore, si è infatti messi direttamente in comunicazione con un ingegnere del livello-3, che, possedendo già tutti i dati telemetrici e la competenza del caso, può arrivare a risolvere anche il problema più complesso.

In conclusione, i vantaggi ottenibili con l’integrazione nell’infrastruttura IT di una soluzione di analisi predittiva si traducono non soltanto in un miglioramento di prestazioni e disponibilità delle applicazioni, attraverso la chiusura dell’app-data gap, ma anche in una maggior produttività del business, e nella disponibilità di più tempo e risorse da dedicare a iniziative a maggior valore aggiunto per l’impresa.

 

New Call-to-action 

Data center