Con l’approccio giusto, l’infrastruttura del data center legacy può essere reinventata per aumentare la capacità, supportare servizi aziendali nuovi ed emergenti e ridurre i costi operativi.
Come parte di questo approccio, le organizzazioni con carichi di lavoro esistenti che rimangono all’interno dei propri data center devono decidere come ristrutturare al meglio le proprie infrastrutture fisiche per migliorare l’efficienza ed estendere la vita utile del data center.
La maggior parte dei leader dell’infrastruttura e delle operazioni IT (I&O) dedica la propria attenzione alle migrazioni cloud, alle strategie edge e allo spostamento dei carichi di lavoro più vicino al cliente. Ma hanno bisogno di ricordare che a il set principale di carichi di lavoro può rimanere in sede. Sebbene un investimento continuo in un datacenter più vecchio e tradizionale possa sembrare contraddittorio, può produrre vantaggi significativi per la pianificazione a breve e lungo termine.
Esistono tre modi principali in cui i leader di I&O possono ottimizzare i data center esistenti per supportare servizi aziendali nuovi ed emergenti.
Miglioramento della consegna
Nei data center che si stanno avvicinando alla capacità operativa, il limite principale è la mancanza di spazio fisico e alimentazione per supportare apparecchiature aggiuntive o infrastrutture di raffreddamento adeguate. Ciò si traduce nelle aziende che scelgono di costruire un nuovo data center di nuova generazione per supportare la crescita a lungo termine o che utilizzano colocation, cloud o servizi di hosting come soluzione.
Sebbene queste siano opzioni praticabili, ciascuna di esse comporta lo spostamento dei carichi di lavoro lontano dalle tradizionali operazioni on-premise. Ciò introduce rischi e aggiunge complessità all’ambiente operativo. Una possibile alternativa per gli aggiornamenti a lungo termine dei data center esistenti consiste nell’utilizzare sistemi rack autonomi.
Questi contenitori fabbricati contengono un gruppo di rack progettati per supportare densità di calcolo medio-alte. Spesso l’integrazione del proprio meccanismo di raffreddamento, il retrofit o il riutilizzo di rack autoraffreddanti di elaborazione ad alta densità può essere un modo semplice ed efficace per migliorare lo spazio del data center.
Massimizza lo spazio
Lo sgombero di una piccola sezione del pavimento per una di queste unità autonome è la tecnica di retrofit meno intrusiva. È quindi possibile suddividere lo spazio del pavimento in sezioni separate e riconfigurare la disposizione.
Le unità rack autonome richiedono in genere l’alimentazione da un’unità di distribuzione dell’alimentazione esistente o, in alcuni casi, potrebbe richiedere un’unità di distribuzione del refrigerante o del raffreddamento. Si ipotizzi un aumento dello spazio per rack di circa il 20% per tenere conto delle apparecchiature di supporto aggiuntive.
Poiché i sistemi di raffreddamento in-rack sono autonomi, non richiedono una configurazione o un contenimento del corridoio caldo/freddo. Ciò consentirà una maggiore flessibilità nel posizionamento dei nuovi rack sul pavimento del data center.
Una volta installata l’unità, avviare una migrazione graduale dei carichi di lavoro da altre sezioni del piano. Non si tratta di una migrazione uno a uno, poiché queste unità rack possono supportare densità di raffreddamento più elevate. Spesso, un data center esistente utilizzerebbe in media solo il 50-60% della capacità del rack, poiché i rack a densità più elevata causano punti caldi sul pavimento.
Con i nuovi rack contenuti, la quantità di carico di lavoro migrato è spesso maggiore del 40-50%. Ad esempio, una nuova unità autonoma a quattro rack potrebbe assorbire i carichi di lavoro da sei a otto rack sul pavimento esistente.
Pertanto, è improbabile che i carichi di lavoro spostati nel nuovo contenitore provengano dagli stessi rack e la sezione precedente dell’area server sarà fortemente frammentata. La fase successiva del progetto prevede la deframmentazione dell’ambiente e lo spostamento dei carichi di lavoro dai rack sottoutilizzati per liberare spazio aggiuntivo.
Una volta spostati questi carichi di lavoro, iniziare il processo di trasferimento fisico delle apparecchiature e liberare la sezione successiva dello spazio per fare spazio alla successiva installazione del rack autonomo. Man mano che viene installata ogni unità successiva, la densità complessiva di elaborazione per rack aumenta, determinando un rapporto di elaborazione per piede quadrato significativamente più elevato e un ingombro complessivo del data center inferiore.
Questa fase di migrazione potrebbe anche essere un ottimo momento per prendere in considerazione un aggiornamento del server, a seconda di dove si trovano i server esistenti nei loro cicli di vita economici. L’implementazione di fattori di forma del server più piccoli può aumentare la densità del rack, riducendo al contempo i requisiti complessivi di alimentazione e raffreddamento.
La chiave di tutto ciò rimane l’alimentazione in ingresso al data center: deve essere adeguata per i rack a densità più elevata. Un vantaggio di compensazione è che il carico di raffreddamento complessivo può effettivamente diminuire man mano che più carichi di lavoro si spostano su rack ad alta densità, poiché gran parte del flusso d’aria di raffreddamento viene gestito all’interno del rack, riducendo la quantità di flusso d’aria necessaria nell’intero spazio del data center.
Reinventare l’infrastruttura
Mentre i nuovi design dei chip tentano di ridurre l’impronta termica dei processori, l’aumento dei requisiti di potenza di calcolo porta a densità delle apparecchiature più elevate, che a loro volta aumentano i requisiti di raffreddamento. Con l’aumentare del numero di server ad alta densità, i leader di I&O devono fornire livelli di raffreddamento adeguati per le sale computer.
Coloro che desiderano aggiornare i data center per densità estreme con un ingombro ridotto, forse per applicazioni di calcolo quantistico o di intelligenza artificiale (AI), dovrebbero considerare i sistemi di raffreddamento a liquido o immersivi come opzioni praticabili. Gartner prevede che entro il 2025, i data center che implementano tecniche di raffreddamento e densità speciali vedranno una riduzione del 20-40% dei costi operativi. Questo argomento sarà ulteriormente discusso alla conferenza Gartner IT Infrastructure, Operations & Cloud Strategies nel Regno Unito a novembre.
Può richiedere fino al 60-65% del potenza totale utilizzata per raffreddare un datacenter. I rack ad alta densità da 15kW a 25kW possono spesso richiedere più di 1,5kW di carico di raffreddamento per ogni 1kW di carico IT, solo per creare il flusso d’aria fresca necessario per supportare quei rack.
Gli scambiatori di calore della porta posteriore (RDHx) sono porte del rack sostituibili sul campo (nella maggior parte dei casi) che raffreddano l’aria calda quando esce dalla porta del rack, piuttosto che fare affidamento sul flusso d’aria nel datacenter. Un vantaggio di RDHx è che non solo si hanno rack più efficienti, ma gran parte dell’energia, una volta utilizzata per il raffreddamento, diventa disponibile per il riutilizzo da parte delle strutture per supportare altri sistemi dell’edificio o reindirizzata come carico IT aggiuntivo. I fornitori di RDHx includono Futjitsu, Vertiv, Schneider Electric, Nortek Air Solutions, Cool IT Systems e Opticool.
L’utilizzo del raffreddamento a liquido può risolvere il problema del raffreddamento del server ad alta densità, poiché l’acqua (raffreddamento conduttivo) conduce più di 3000 volte il calore dell’aria e richiede meno energia per farlo. Il raffreddamento a liquido consente la scalabilità continua dell’infrastruttura informatica per soddisfare le esigenze aziendali.
Potrebbe non essere ovvio che RDHx può risparmiare denaro, quindi i clienti devono essere disposti a costruire il business case. A seconda del carico termico e dei costi energetici, il ritorno sull’investimento (ROI) può essere raggiunto entro pochi anni. In molti casi, gli aggiornamenti delle strutture pianificati in precedenza (con ROI tipici tra 15 e 20 anni) potrebbero non essere necessari.
La maggior parte dei fornitori ha recentemente iniziato a fornire una soluzione refrigerante, invece dell’acqua. Un refrigerante a bassa pressione può alleviare i problemi di perdite d’acqua perché, se si verificano perdite, i refrigeranti possono evaporare come gas non tossici e non corrosivi. Sebbene ciò possa aggiungere costi aggiuntivi per le unità di distribuzione del refrigerante, eliminerà qualsiasi preoccupazione per le perdite d’acqua che danneggiano l’attrezzatura.
Anche i sistemi di raffreddamento immersivo stanno guadagnando consenso, soprattutto dove sono necessari sistemi autonomi e ad alta densità (da 40kW a 100kW e oltre).
Sono ora disponibili sistemi ad immersione diretta e raffreddamento a liquido. Possono essere integrati in datacenter esistenti con server raffreddati ad aria. Tuttavia, l’adozione è stata lenta, considerando i pesanti investimenti nelle metodologie di raffreddamento meccanico e il continuo miglioramento dell’efficienza energetica dei sistemi moderni. I fornitori di sistemi di raffreddamento immersivi includono Green Revolution Cooling, Iceotope, LiquidCool, TMGCore e Stulz.
Poiché ogni ambiente è diverso, è fondamentale che i leader di I&O utilizzino metriche dettagliate, come l’efficienza dell’utilizzo dell’energia (PUE) o l’efficienza dello spazio del data center (DCSE), per stimare i vantaggi e i risparmi esclusivi sui costi derivanti da tali investimenti.
La linea di fondo
I leader di I&O possono ottenere una crescita significativa nelle loro strutture esistenti implementando un retrofit del data center in più fasi, riducendo i requisiti di raffreddamento e liberando energia per carichi di lavoro IT aggiuntivi.
Questa attività non è priva di rischi, perché qualsiasi spostamento di apparecchiature fisiche all’interno di un data center di produzione live è rischioso. Tuttavia, se eseguito come progetto a lungo termine e suddiviso in piccoli passaggi gestibili, i benefici possono essere di vasta portata e superare di gran lunga i rischi.
Da un punto di vista del budget, è anche più facile da implementare, perché i requisiti di capitale sono distribuiti su più trimestri, rispetto a un tradizionale progetto di costruzione di datacenter. Inoltre, i costi complessivi saranno notevolmente inferiori rispetto a una nuova build, con molti degli stessi vantaggi.
Quando i leader di I&O iniziano a migliorare i propri data center per supportare nuovi servizi aziendali e ridurre i costi operativi, dovrebbero tenere a mente questo approccio graduale.
David Cappuccio è un distinto vicepresidente analista della ricerca presso Gartner
More Stories
Risultati salutari sull’allentamento del Covid
Ukrtelecom e Iskratel lanciano l’espansione della rete in fibra da 12 milioni di euro in Ucraina
L’acquisizione di tecnologia per le forze dell’ordine richiede un esame più approfondito