Il data center è il centro nevralgico dell’ecosistema tecnologico che sorregge qualsiasi business moderno, una struttura fisica che ospita l’infrastruttura IT core di un’azienda, compresi i server, lo storage centralizzato e gli apparati di rete. Il data center è responsabile dell’erogazione delle applicazioni aziendali, della memorizzazione e della protezione dei dati critici per il proprio business.
Per quanto il suo ruolo sia sempre stato centrale, in quanto principale depositario della continuità operativa, in contesti moderni contraddistinti dalla digitalizzazione pressoché totale dei processi, il suo impatto sulle prestazioni del business è ancor più cruciale. Inoltre, il data center funge da forziere delle informazioni aziendali, la cui valorizzazione con varie tecniche rappresenta uno dei trend più interessanti dell’ultimo decennio.
In quanto concentrato di tecnologia, il data center è soggetto a un fenomeno di evoluzione costante, che nell’ultimo decennio è stato sinonimo di cloud. L’adozione del cloud computing (e delle relative tecnologie) ha portato a una trasformazione significativa dei data center e del modo in cui essi erogano i propri servizi, consentendo alle aziende di beneficiare di una maggiore flessibilità, scalabilità ed efficienza operativa.
Nell’era digitale, in cui le aziende dipendono sempre più dalle tecnologie informatiche, la performance del data center è diventata un fattore critico di successo.
Il termine stesso “performance” assume nel contesto del data center molteplici significati.
Ciò premesso, poter contare su un data center dalle prestazioni elevate comporta una serie di vantaggi per le aziende:
La resilienza del data center è un tema fondamentale poiché con tale espressione si intende la capacità della struttura di garantire un elevato livello di uptime e di continuità del business anche di fronte a eventi imprevisti che potrebbero comprometterne l’operatività, come eventi naturali, attacchi cyber, errori umani, e così via.
Moltissimi fattori incidono direttamente sulla resilienza del data center. esempi classici sono la ridondanza dei sistemi elettrici e di condizionamento degli ambienti. Inoltre, occorre prevedere ridondanze a tutti i livelli dell’infrastruttura IT, come la rete, la connettività e i server.
Quando l’azienda decide di usufruire di un data center esterno, è fondamentale affidarsi a provider in grado di garantire livelli di servizio elevati, soprattutto in termini di uptime. A tal fine, esso può intraprendere il percorso di certificazione, seguendo (alternativamente) due standard: quello di Uptime Institute o TIA-942.
Uptime Institute è un’istituzione nel mercato dei data center. L’azienda ha sviluppato dei framework di resilienza dettagliatissimi che fungono da punto di riferimento mondiale e si occupa direttamente dei controlli di conformità e del rilascio delle relative certificazioni.
Lo standard TIA-942 è invece una normativa internazionale realizzata dalla Telecommunications Industry Association (TIA), che opera attraverso enti certificatori terzi presenti in tutto il mondo. In entrambi i casi, la certificazione ha una validità temporale e deve essere rinnovata.
Uptime Institute stabilisce vari livelli, o "Tier", che rappresentano diversi standard di affidabilità e resilienza. I Tier variano da Tier I a Tier IV, con ciascun livello che impone requisiti sempre più rigorosi per garantire la disponibilità dei servizi del data center.
Il TIer IV, ovvero il livello più alto, garantisce, grazie a rigidi standard di progettazione e a ridondanze molto estese, un uptime annuo del 99,995% o superiore. Il tema è analogo in casa TIA-942, laddove la certificazione assegna però un Rating, anch’esso compreso tra 1 e 4.
Come anticipato, nell’universo dei data center l’evoluzione tecnologica è serrata e si riflette anche sulle tipologie di struttura e di servizio cui le aziende possono accedere, dalle tradizionali forme in-house, che prevedono la realizzazione, la gestione e la manutenzione diretta dell’intera struttura, fino a svariate forme di outsourcing più o meno esteso.
Sono i data center tradizionali, ospitati all’interno del sito aziendale. L’accesso diretto ed esclusivo alla strumentazione fornisce alle aziende una massima capacità di controllo sulle prestazioni della struttura e sui dati ospitati, ma allo stesso tempo comporta una responsabilità pressoché integrale su di essa.
È una soluzione in grado di garantire elevata sicurezza e compliance con normative molto rigide (come quelle dell’universo sanitario o finanziario), ma è anche la forma più costosa in assoluto a causa delle competenze e delle risorse necessarie. Un data center on-premise richiede un’alimentazione affidabile, un sistema di raffreddamento, una rete ottimamente implementata, un sistema di sicurezza e altro ancora, fattori che possono essere difficili da gestire internamente.
Le aziende possono decidere di non realizzare internamente la propria struttura ma di integrare l’infrastruttura IT che alimenta il business all’interno di strutture dedicate, di proprietà di aziende specializzate. In tal caso, si parla di colocation.
Le colocation forniscono ambienti sicuri, affidabili, resilienti e connessi alla rete ad elevate prestazioni. La sicurezza, la resilienza e, in generale, la gestione della struttura fisica è sotto la responsabilità del provider, che può contare su personale e competenze dedicate. Per le aziende, i vantaggi riguardano prestazioni e costi, questi ultimi solitamente inferiori rispetto a quelli delle strutture dedicate; il limite, del tutto speculare, è una limitazione in termini di controllo (delle prestazioni) rispetto alle strutture in-house.
Rispetto alle casistiche precedenti, qui il tema è leggermente più complesso. I cloud data center sono innanzitutto quelli dei grandi hyperscaler, che forniscono risorse, infrastruttura, piattaforme e software direttamente via rete e on-demand: Amazon Web Services (AWS), Microsoft Azure e Google Cloud Platform sono gli esempi più eloquenti.
In realtà, un data center si definisce “cloud” in funzione delle tecnologie che adotta e del modello di erogazione dei propri servizi, fondato su flessibilità, scalabilità e pricing as-a-service. I data center cloud si fondano sulla virtualizzazione e sono progettati per fornire risorse informatiche su richiesta, consentendo alle aziende di accedere rapidamente a capacità di calcolo e storage in base alle proprie esigenze.
Gli edge data center sono strutture di elaborazione dei dati distribuite vicino ai punti di utilizzo finale, come le città, le aree metropolitane o i complessi industriali. La vicinanza geografica riduce la latenza e migliora le prestazioni dei servizi digitali, portando i dati più vicini agli utenti finali. Fattispecie e tecnologie innovative come l’internet delle cose, la realtà aumentata e la guida autonoma risentono positivamente della vicinanza ai data center edge.
Data l’estrema eterogeneità delle strutture data center, molte delle quali sono ancora interne alle imprese, è molto complesso fornire una stima sulla quantità e il posizionamento geografico dei data center nel 2023. Tuttavia, secondo la United States International Trade Commission sono circa 8.000 i data center presenti nel mondo, mentre Statista approfondisce il tema della location affermando una netta prevalenza degli Stati Uniti (2701), seguiti da Germania (487), Gran Bretagna (456), Cina (443) e Canada (328).
La vicinanza geografica del data center al luogo (o luoghi) in cui si svolge il business aziendale ha un duplice valore: riduce la latenza, e quindi migliora la velocità di risposta dei sistemi, e semplifica la conformità con la normativa in essere (es, GDPR).
Secondo la Cloud Native Computing Foundation, i data center utilizzano il 2% di tutta l’energia mondiale e si prevede che questa cresca dell’1-2% nei prossimi anni, arrivando al 12% entro il 2040. Il tema del consumo e della sostenibilità del data center sono quindi essenziali, nonché strettamente connessi: un data center green, infatti, produce inevitabilmente benefici sia economici che ambientali.
Esistono diverse strade per rendere i data center più sostenibili. Una soluzione è l’adozione di tecnologie più efficienti dal punto di vista energetico, come l’impiego di server a basso consumo, sistemi di raffreddamento avanzati e l’ottimizzazione dell’infrastruttura. Inoltre, l’uso di energie rinnovabili per alimentare i data center sta diventando sempre più diffuso.
Alcuni data center stanno anche esplorando l’opzione di utilizzare sistemi di raffreddamento ad acqua o di sfruttare il calore generato dai server per scopi di riscaldamento di altri ambienti. A livello informatico, la virtualizzazione e la condivisione delle risorse sono altre strategie che consentono di ottimizzare l’utilizzo delle risorse infrastrutturali (compute, storage, network) e quindi il consumo energetico. Infine, l’adozione di politiche di energy management e il monitoraggio costante dei consumi sono fondamentali per identificare e migliorare l’efficienza dei data center.
La sicurezza del data center è di fondamentale importanza per garantire integrità, accessibilità e riservatezza dei dati ospitati. L’espressione è simile, ma non identica, a quella di resilienza del data center: mentre quest’ultima identifica la capacità della struttura mantenere la continuità operativa anche in caso di eventi imprevisti come guasti hardware, interruzioni di corrente o catastrofi naturali, la sicurezza riguarda specificamente le misure (fisiche e logiche) poste a protezione dei dati e dei sistemi da accessi non autorizzati.
Il tema della sicurezza del data center ha due anime: fisica e logica.
La combinazione di diverse misure forma il modello di sicurezza dello specifico data center e contribuisce a garantirne la protezione da tutte le minacce interne ed esterne.