Qualche settimana fa ho potuto partecipare ancora una volta alla edizione Milanese del convegno Converged, organizzato da DataCenter Dynamics.
Come al solito, la conferenza è risultata mediamente molto interessante: solo una presentazione è stata veramente inguardabile mentre una mi ha colpito per freschezza e intelligenza.
Si tratta dell’intervento del capo del Data Centre Development presso Yahoo, Derek Webster.
La sua prima slide riportava, stranamente, un doppio titolo “Benefits of Bringing the Data Centre to the Power” e “Challenging Data Centre Build Norms“: con questo però non manifestava confusione di idee, ma piuttosto intendeva mostrare alla platea come la ricerca per la costruzione di un nuovo datacenter abbia costretto l’azienda a rivedere molti dogmi reiterati spesso dall’industria del settore.
Lo scopo di Yahoo era appunto quello di costruire un nuovo datacenter in un tempo limitato – ovvero in feriore ai 18-24 mesi normalmente necessari – in maniera economica – contro lo standard industriale di 10 MUS$/MW – con un PUE molto piccolo – drasticmente inferitore al “buon” 1,5.
Per ottenere tutti questi risultati, Yahoo ha deciso di costruire il datacenter lontano da quello che sono definite “cities of the internet“: questo significa terreni, energia e mano d’opera poco costosi, in una zona economicamente depressa in modo da poter beneficiare di tassazione ridotte da parte del Governo.Il punto più importante, però, era il clima: un luogo che offrisse per una gran parte dell’anno una temperatura uguale o inferiore ai 24°.
Una temperatura esterna bassa ha permesso di costruire datacenter senza climatizzazione: per il raffreddamento si è usata l’aria a temperatura ambiente, mentre un attenta progettazione delle strutture contenitive con forme “a camino” e l’aiuto dei venti naturali presenti in zona si occupano di smaltire il calore prodotto dalle apparecchiature.
I dispositivi sono stati fatti funzionare con intake temps fino a 27°, mentre nelle poche ore con temperature dell’aria ambientale più alte, sono state ultizzate tecnologie di raffreddamento a evaporazione, di nuovo sfruttando la natura per il risparmio energetico.
Tutti questi dati potrebbero lasciare a bocca aperta qualche SysAdmin, abituato a sentire per anni le raccomandzioni della ASHRAE di tenere la temperatura di ingresso tra i 20-22° C e l’umiditò relativa fra il 45-55%.
I test in laboratorio di Yahoo hanno dimostrato che la temperatura di ingresso non è un problema così importante come potrebbe sembrare e che 27° sono più che sufficienti per mantenre le macchine in fuzione. Sarebbe anche possibile utilizzare aria a temperatura più elevata, ma l’aumento corrsipettivo della velocità delle ventole termostatiche all’interno dei server porterebbe a un maggiore consumo di eletricità.
Per quanto riguarda l’umidità, il gruppo di lavoro di Yahoo ha scoperto che la raccomndazione 45-55% non ha grandi fondamenti scientifici: addirittura tra le fonti pare che ci sia un documento di IBM che consigliava questi valori, non per l’hardware, ma per le schede perforate!
Da notare che il funzionamento degli apparati con questi parametri climatici è spesso in contravvenzione con le raccomandazioni dei produttori, può quindi portare a un annullamento della garanzia.
Il risparmio energetico tuttavia è così elevato che Yahoo si può permettere di spendere qualcosa in più in riparazioni, ammesso che questo sia necessario. Perché, in effetti, tutti questi regimi di funzionamento sono stati testati in laboratorio in ambiente controllato da Yahoo prima di avviare la progettazione e la costruzione del datacenter e, statisticamente, non si sono verificati problemi peggiori o in maggiore numero rispetto a CED gestiti in maniera più tradizionale.
Solo pochi dati per dare l’idea di quanto questo progetto sia stato un successo: meno di sei mesi dall’inizio della costruzione all’entrata in servizio, costo totale di 5MUS$/MW e PUE di 1,08.
Ovviamente non tutti i concetti esposti possono essere riprodotti ovunque e da chiunque, però questo mi sembrava un bell’esempio di applicazione di quella parola che si sente spesso sentire: challenge.
Non un concetto astratto usato solo per riempirsi la bocca, ma la volontà di investire risorse per indagare sullo status quo e stabilire se ci siano le condizioni per modificarlo.
Ultimo concetto espresso alla fine della presentazione di Derek Webster, è stato quello che i datacenter non sono così dirty come potrebbe sembrare o come qualche associazione di sedicenti ecologisti vorrebbe farci credere.
Hanno calcolato che la lettura di una notizia riecrcata tramite il motere di Yahoo liberi qualcosa come 0,2g di CO2: la stessa notizia richiederebbe 350 volte quell’energia (e di conseguenza 350 volta di emissioni dannose) per essere impressa su carta di un quaotidiamo, mentre necessiterebbe di 4.500 volte quell’energia per essere letta in biblioteca dovendoci andare in macchina.
Ovviamente, un calcolo del genere non è universalmente valido e ha ampio margine di manovra, così come l’equazione Energia consumata = CO2 rilasciata = Effetto serra = Distruzione della Biosfera sia tutta da discutere.
Tuttavia questo ragionamento ha il pregio di ricordarci che i datacenter sparsi per il Pianeta non sono semplicemente un di più inquinante, ma una risorsa – necessaria nell’era dell’informazione – per fare molte cose diversamente da come si facevano in passato.
E questo non necessariamente inquinando di più.
Lascia un commento