Data Center: cosa sono e come funzionano

Anche nell’attuale scenario di trasformazione tecnologica, i Data Center continuano a recitare un ruolo imprescindibile per il funzionamento delle infrastrutture IT.

Pubblicato il 15 Ott 2018

Data center

La trasformazione digitale di questi ultimi anni sta cambiando radicalmente la vita e il business delle organizzazioni, per effetto dell’irrompere di fenomeni quali Cloud, Big Data, intelligenza artificiale, ecc. Ma questo trend di innovazione, anche se spesso lo si dimentica, ha pur sempre alla sua base una struttura che, ormai da diversi decenni a questa parte, è fondamentale per il mondo ICT. Stiamo parlando naturalmente dei Data Center, che proviamo a raccontare in questa speciale guida di IoTedge.it, realizzata con il prezioso contributo di Massimo Ficagna, Senior Advisor dell’Osservatorio Enterprise Application Governance della School of Management del Politecnico di Milano.

Data Center: una definizione

Come può essere dunque definito un Data Center? Nella sua definizione più stretta, il Data Center è sostanzialmente una facility, ovvero un edificio attrezzato per ospitare risorse di calcolo, rete e storage, il cui funzionamento non può prescindere da efficienti apparati di condizionamento, alimentazione elettrica e connettività con il mondo esterno, nonché dei sistemi di sicurezza necessari (ad esempio quelli antincendio). Più spesso, però, con il termine Data Center, si fa riferimento a quello che è contenuto al suo interno, ovvero alle risorse di calcolo e di storage che vi sono ospitate. Ovviamente dietro queste definizioni complessive si nascondono casistiche estremamente diverse: con la parola Data Center ci si può riferire al classico “sgabuzzino” attrezzato da una Pmi per ospitare un paio di server, ma anche agli enormi centri di elaborazione dati gestiti dai principali cloud provider, che hanno un livello di strutturazione completamente diverso. In mezzo a questi estremi ci sono i centri di calcolo di media dimensione gestiti da società specializzate, che spesso ospitano sistemi di calcolo di terze parti.

Per scoprire tutte le differenze tra le batterie VRLA e quelle agli ioni di litio negli UPS monofase scarica questo white paper

Come si realizza un (Green) Data Center?

Questo compito è svolto innanzitutto da delle società specializzate nella progettazione di Data Center. La costruzione vera e propria, ovviamente, coinvolge tanti aspetti diversi, che vanno dalla muratura vera e propria all’impiantistica elettrica, sino al fondamentale aspetto della connettività. Diversi sono invece gli attori protagonisti degli investimenti necessari: in questa fase storica i cloud provider che offrono servizi di potenza di calcolo e storage sono i principali propulsori della realizzazione dei nuovi centri di elaborazione dati, che comunque sono spesso ancora costruiti da società autonome che preferiscono avere un proprio edificio attrezzato per ospitare le infrastrutture IT. Quel che è certo è che il fenomeno Data Center è estremamente rilevante: a livello mondiale, la potenza in GW dei Data Center in funzione è stimata tra i 50 e i 60 GW a livello mondiale, tanto da impattare non poco anche sul consumo elettrico del pianeta. Questo spiega perché, da alcuni anni a questa parte, la realizzazione e l’operatività delle strutture di nuova generazione sia stata improntata a criteri di massima efficienza energetica, tanto che oggi si parla di Green Data Center.

UPS

Data Center: la necessità della Business Continuity

Ovviamente uno degli aspetti fondamentali di un Data Center è la continuità di servizio: i dati ospitati all’interno delle soluzioni server e storage, alla base di applicazioni e funzionalità, devono essere sempre disponibili 24 ore su 24, sette giorni su sette, pena gravissime conseguenze per il business stesso delle organizzazioni. In quest’ottica la disponibilità perenne di elettricità rappresenta ovviamente un elemento imprescindibile per la Business Continuity dei centri di calcolo, dal momento che l’assenza di energia comporta inevitabilmente lo stop all’attività di server, storage, ecc. Un ruolo chiave nella Business continuity dei Data Center è ovviamente giocato dagli UPS, meglio conosciuti come gruppi di continuità: questi dispositivi nei grandi Data Center si sono evoluti in qualcosa di diverso rispetto a delle comuni batterie/accumulatori. In particolare, nei moderni centri dati per gli UPS (Uninterruptible Power Supply) viene prevista una sala ad hoc, separata da quella dove sono ospitate le risorse di calcolo. Questa separazione fisica è necessaria perché, tipicamente, le batterie potrebbero creare problemi ai sistemi computazionali, anche soltanto per un tema legato alla dissipazione del calore (che come noto rappresenta un ostacolo per il funzionamento di server e storage). In questi anni il mondo degli UPS sta sperimentando il passaggio verso le batterie al litio (in sostituzione di quelle al piombo), che permettono di avere una maggiore capacità energetica su spazi fisici più limitati. Occorre comunque sottolineare che gli UPS non rappresentano l’unico livello presente per garantire la continuità elettrica di un mega Data Center. La batteria degli UPS è infatti pensata per garantire la disponibilità elettrica per i primi 30-40 minuti successivi allo stop della normale alimentazione elettrica esterna; successivamente entra in funzione un secondo livello di protezione che è basato su generatori di elettricità autonomi, spesso alimentati a gasolio, che producono in loco l’energia elettrica necessaria per mandare avanti i Data Center. Nelle strutture top di gamma è prevista anche una doppia linea di alimentazione elettrica, per prevenire alla radice eventuali guasti interni.

Edge computing

Data Center: cosa cambia con l’Edge Computing

Il settore dei Data center è influenzato, ovviamente, dai grandi cambiamenti tecnologici in atto nel mondo IT, dal cloud alla realtà aumentata ecc. C’è però un trend che, progressivamente, sta cambiando il modo stesso di operare dei moderni centri di elaborazione dati. Il fenomeno in questione è quello dell’edge computing che, in buona sostanza, significa portare un po’ di potenza computazionale direttamente sul device finale, come ad esempio una macchina industriale equipaggiata con dei sensori IoT. Questa potenza di calcolo, possiamo dire quasi di intelligenza, consente di eseguire direttamente in loco tutte quelle azioni che hanno bisogno di tempi di risposta super veloci. Il tema principale, introdotto soprattutto dell’avvento delle applicazioni che si basano sull’Internet of Things, è infatti la necessità di avere la massima velocità di risposta e la minima latenza. Che, per questioni di natura tecnica, non possono essere assicurate dsa centri di calcolo collocati fisicamente a centinaia o migliaia di chilometri di distanza. Questo non significa che l’edge computing sia in contrapposizione con il mondo Data Center: i dati aggregati o che comunque non servono per delle azioni immediate sono infatti sempre inviati a strutture remote. Anzi, è possibile dire che l’edge computing è la chiave per spostare in cloud tutte quelle applicazioni che hanno bisogno di molta velocità e poca latenza.

I micro Data Center alla base del Fog computing

Esiste poi un ulteriore modello che spesso viene confuso con l’edge, ovvero il Fog computing. Anche in questo caso stiamo parlando di potenza elaborativa vicina al device finale, ma la differenza è che si tratta di qualcosa di separato dal device finale. Quindi, in questo disegno, i sensori presenti sulla macchina tornano a essere privi di potenza locale, con i dati che vengono rapidamente trasmessi a un micro data center collocato a livello locale, che di fatto costituisce lo strato elaborativo di Fog computing. Anche in questo caso, i dati necessari sul lungo termine sono poi inviati ai Data center da remoto.

Data Center Hyperscale e Data center locali

Quali sono le prospettive future dei Data Center? Senza dubbio siamo in una fase storica in cui si sta assistendo a una vera e propria esplosione del volume di dati, fattore che ovviamente renderà ulteriormente imprescindibile il ruolo dei centri di elaborazione dati. Dunque la prospettiva, nei prossimi anni, è quella di un ulteriore aumento della quantità dei Data Center a livello globale, secondo un doppio binario: da una parte i grandi cloud provider continueranno a costruire enormi Data Center Hyperscale, capaci di ospitare crescenti capacità di calcolo. D’altra parte, però, la crescente presenza di applicazioni che necessitano di avere dei tempi di risposta brevissimi favorirà la costruzione di strutture a livello locale e nazionale. Infatti, nonostante il progressivo incremento della disponibilità di banda, per i tempi di trasferimento del singolo byte esistono dei limiti fisici ancora difficili da superare.

MICRO DATA CENTER: AMBIENTE DI ELABORAZIONE “PREFABBRICATO” E SICURO. SCOPRI PERCHE’

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3