Parlando di cloud ibrido, abbiamo sottolineato quanto l’infrastruttura del data center mantenga ancora oggi la propria centralità. Qualsiasi modello enterprise moderno, infatti, si basa sulla coesistenza tra risorse pubbliche e private, laddove su queste ultime poggiano solitamente le applicazioni e i processi mission-critical. Qualora si opti per la colocation, ovvero per l’adozione dell’infrastruttura data center di un provider specializzato, prestazioni e resilienza hanno un peso centrale in sede di selezione del provider stesso e determinano i livelli di servizio che questo è in grado di garantire.
L’infrastruttura data center è l’elemento cardine della continuità del business aziendale. Gli elementi su cui poggia un’infrastruttura moderna, e da cui poi derivano anche le eventuali certificazioni di resilienza, sono l’alimentazione, il cooling, la sicurezza fisica e logica, la connettività e l’adozione di impianti e sistemi di controllo dell’infrastruttura stessa, delle macchine, degli apparati di telecomunicazione e molto altro.
Cos'è un’infrastruttura Data Center
Un'infrastruttura data center rappresenta il fulcro fisico attraverso cui le organizzazioni gestiscono e archiviano risorse informatiche e dati. Comprende non solo gli hardware essenziali come server, storage e dispositivi di rete, ma anche componenti di supporto come sistemi di alimentazione ridondanti, dispositivi di raffreddamento, connettività a banda larga e misure di sicurezza fisica e informatica. Queste strutture sono progettate per garantire l'alta disponibilità e l'affidabilità dei servizi IT che supportano le operazioni aziendali quotidiane, consentendo alle imprese di elaborare e distribuire grandi volumi di dati con efficienza e sicurezza. In un'epoca dominata dalla digitalizzazione, i data center si sono evoluti per diventare ambienti altamente specializzati e ottimizzati, capaci di gestire le richieste di servizi cloud, big data analytics e Internet delle Cose (IoT). Di conseguenza, l'infrastruttura di un data center è un asset strategico per qualsiasi entità che dipenda dalle tecnologie dell'informazione per la propria attività commerciale, dalla piccola impresa alla grande multinazionale.
L’alimentazione e il concetto di ridondanza
Per motivi fin troppo ovvi, l’alimentazione è il perno dell’uptime del data center. Le certificazioni, come quelle di Uptime Institute e quelle a standard TIA, prevedono che venga implementato un concetto cardine di qualsiasi infrastruttura informatica, ovvero la ridondanza.
I data center che ospitano sistemi, applicazioni e processi mission-critical hanno solitamente più cabine di media tensione totalmente indipendenti, ovvero connesse alla rete mediante percorsi separati. Qualsiasi forma di guasto o di interruzione determina l’attivazione della linea secondaria. In realtà, l’alimentazione delle macchine e degli apparati avviene attraverso gruppi di continuità (UPS) ad altissime prestazioni, il cui ruolo non è solo quello di garantire alla struttura un’autonomia sufficiente per il ripristino della linea primaria, ma anche di stabilizzare la corrente in entrata per alimentare al meglio le macchine evitando cali o picchi di tensione.
Nelle infrastrutture data center di alto profilo, anche gli UPS sono ridondati e costituiscono quella parte dell’infrastruttura data center che si fa carico – per un periodo di tempo limitato – della continuità del business in caso di blackout. A seconda degli obiettivi di resilienza, potrebbero essere anche disponibili uno o più generatori posti al di fuori della struttura e alimentati a carburante. Il beneficio – tutt’altro che trascurabile - è la capacità di alimentare la struttura per molto tempo, i limiti sono il costo elevato e, soprattutto, l’incapacità di intervento all’istante di fronte a un blackout: per questo ci sono gli UPS.
Massima attenzione per la sicurezza e la temperatura
Le infrastrutture data center devono rivolgere particolare attenzione alla sicurezza fisica e logica. La continuità del business, infatti, va preservata non soltanto di fronte al rischio di blackout, ma anche di eventi come terremoti, incendi o attività di sabotaggio. Da un lato, quindi, la prevenzione è fondamentale e deve permeare il data center fin dalla progettazione (zona antisismiche, dati meteoclimatici incoraggianti…), ma poi è fondamentale dotarlo di strutture di protezione disposte a layer, di modo tale che l’accesso fisico alle macchine da parte del malintenzionato debba attraversare diversi livelli di protezione, a partire dall’esterno fino ai rack veri e propri.
Per quanto concerne la sicurezza logica, i data center utilizzano sistemi IDS (Intrusion Detection System), firewall e sistemi di monitoraggio degli accessi e di prevenzione degli attacchi. È inoltre essenziale che un data center abbia in essere una politica di Disaster Recovery, da attivare nel caso in cui tutti gli strumenti di prevenzione non fossero in grado di sostenere l’urto dell’evento imprevisto. Ciò presuppone doversi avvalere di servizi cloud o di un secondo data center collegato direttamente al primo (meglio se con percorsi differenziati) ma geograficamente distanziato.
Non da ultimo, gli ambienti del data center vanno mantenuti a temperatura costante tutto l’anno, da cui grande attenzione nei confronti dei sistemi di condizionamento dell’aria, che possono avvalersi di diverse soluzioni tecniche (chiller, condensatori, condutture…) e progettuali, come quelle dei cosiddetti corridoi caldi e corridoi freddi.
L’importanza delle prestazioni di rete
Altri aspetti infrastrutturali di massima importanza sono quelli legati al networking e alla connettività, temi peraltro molto complessi ma fondamentali per una struttura che di fatto ospita i processi critici aziendali e deve essere accessibile non soltanto con un uptime eccezionalmente elevato, ma anche con livelli di latenza minima.
Il network ha un ruolo fondamentale sulle prestazioni: è quindi auspicabile che il data center sia raggiunto da un numero congruo di provider e, al tempo stesso, sia carrier-neutral, ovvero permetta alle aziende di decidere autonomamente il proprio fornitore di rete; è poi essenziale che esso disponga delle giuste ridondanze e sia connesso ai principali punti di interscambio, come nel caso italiano al MIX di Milano e al NaMeX di Roma.
Tutto converge nelle certificazioni e nei Tier
Come anticipato nell’approfondimento sul cloud ibrido, l’esigenza di standardizzare il tema della resilienza ha determinato lo sviluppo di certificazioni dedicate, che qualsiasi azienda titolare di un data center può richiedere a certificatori abilitati come Uptime Institute.
L’esito della certificazione è un livello sintetico di resilienza (Tier per Uptime Institute, Rating per la norma TIA-942) che va da 1 a 4 e identifica, appunto, la capacità della struttura di garantire la continuità del business a fronte di eventi disruptive. A titolo d’esempio, un data center certificato Tier 4 supporta al 100% il concetto di fault tolerance, ovvero di garanzia di uptime di fronte a guasti su linee elettriche, reti, server e svariati altri elementi infrastrutturali, così da garantire un uptime annuo medio del 99,995%.