Největší datová centra světa dnes a zítra – 3. díl

Switch-Supernap

Pokračujeme v našem seriálu o datových centrech. Tentokrát se blíže podíváme na pokroky v konstrukci a přiblížíme si, jak lze dosáhnout vyšší efentivity datových center.

Jak můžete vidět na obrázcích, konstrukce datových center mají mnohé specifické prvky. V drtivé většině případů jde o obrovské budovy připomínající velké sklady, na kterých je však vidno přidružené specifické chladicí systémy. Ve vnitřku datových center se pak typicky setkáte s dlouhými řadami serverových skříní. Jednotlivé servery se skládají – což nepřekvapuje – ze základní desky, procesoru, operační paměti RAM a disků. Počítače ale jsou umístněny v horizontálních racích v jakýchsi kovových zásuvkách, které se zasouvají do serverových skříní. To umožňuje jejich snadnou výměnu a údržbu.

Chlazení

Do datového centra se vhání zchlazený vzduch (ne však příliš, protože se tu pohybuje i personál), který malé větráčky serverů nasávají dovnitř a chladí tak jednotlivé komponenty. Dvě řady skříní jsou postavené obvykle zády k sobě, přičemž je mezi nimi úzký prostor, kam se ohřátý vzduch ze serverů vyfukuje a odváděcím tunelem putuje ven. Stačí při tom malé otáčky ventilátorů, protože proudění pomáhá tlakový rozdíl.

O přísun chladného vzduchu i v teplých dnech se stará chladicí soustava. Nejde však o energeticky nákladnou klimatizaci jako je tomu v běžných budovách. Jde o speciálně navržené vodní chladicí systémy. Z tohoto důvodu se datová centra stavějí v blízkosti dostatečně velkého vodního zdroje. Vzduch prochází při chlazení zařízením připomínajícím plot, který se skládá z rozstřikovačů, které zaplní prostor velmi malými kapkami vody, prakticky v podobě mlhy. Tato studená mlha proudící vzduch ochlazuje, přičemž ten po přefiltrování a odvlhčení vchází do serverové části.

Napájení

Datové centrum je energeticky velmi náročná budova, která spotřebovává několik desítek megawattů. Velké výkyvy nebo ztráta napájení je katastrofou, se kterou se musí při návrhu datového centra počítat. Výpadek totiž může způsobit ztrátu dat a poškození zařízení. Servery jsou tedy obvykle napojené na baterie, přičemž se dává přednost jednoduššímu systému, při kterém má baterii každá dvojice serverových skříní (75 kW). Baterie slouží jako UPS systém, který při výpadku zaručí napájení serverů po dobu několika desítek sekund.

Alternativou je pak setrvačníkové řešení, při kterém se drží soustava velkých a těžkých kotoučů ve velmi vysokých otáčkách, které svým otáčením při výpadku energie zhruba na 20 sekund dodávku zabezpečí. Tyto několik desítek sekund trvající zálohy slouží k tomu, aby se stihly nastartovat dieselové motory motor-generátoru, které následně zabezpečí produkci elektřiny až do té doby, dokud se provoz ze sítě opět neobnoví. Na budově datového centra anebo v jeho těsné blízkosti je tak možné vidět mnoho specifických znaků. V rámci chlazení jde o boční velké nasávače vzduchu, přilepené na budovu, a v rámci energetické zálohy je zase vidět rozsáhlá sbírka generátorů s velkými palivovými nádržemi (motory však mohou být umístěny i v budově). Nechybějí ani velké nádrže na vodu. Všechny tyto prvky vidíte i na obrázcích, díky čemu můžete poměrně bezpečně rozpoznat datová centra i na jiných, například satelitních fotografiích.

Cesta k efektivitě

Google, Facebook, Microsoft a další společnosti neustále hledají cesty, jak datová centra víc zefektivnit. Nejde při tom jen o to, že je stavějí tam, kde je laciný pozemek, laciná elektřina a přístup k vodě je zdarma. Jde zároveň i o co nejefektivnější management, údržbu a také co nejrychlejší a nejlacinější stavbu. Mnohá datová centra – například místo klasických řad serverových skříní – jsou sestaveny z přepravních kontejnerů, které jsou od podlahy až po strop plné serverů. V takovém modulárním datovém centru se kontejnery zkrátka jen postaví vedle sebe a na sebe, díky tomu jsou lehce kompletně přivážené nebo odvážené. Kontejner je soběstačný z hlediska zálohy napájení, rozvodů i chlazení. V datovém centru se zkrátka jen napojí na vodní, elektrický a datový rozvod a je připravený na provoz. Firmy při tom často dbají na to, aby jejich datová centra nezatěžovaly životní prostředí a volí lokality, kde je dostupná energie produkovaná z obnovitelných zdrojů, přičemž jde zejména o hydroelektrárny. Protože pozemky největších datových center jsou často daleko od jiných staveb, je možné v případě potřeby dobudovat v blízkosti i doplňkové solární anebo větrné elektrárny, pomáhající snižovat závislost na odběru energie od externích dodavatelů. Datové centrum nevypouští žádné zplodiny, jen ohřátý vzduch (výjimkou je výpadek proudu, kdy jsou v provozu dieselové generátory).

Jedním z parametrů, za kterým se ženou všichni provozovatelé a sestavovatelé datových center, je tzv. Indikátor energetické efektivity. Jde o číslo vyjadřující, kolik spotřebované energie datového centra jde na samotné IT vybavení a kolik na přidružené systémy v podobě obslužných mechanizmů jako je chlazení (např. čerpání vody), osvětlení a podobně. Tento parametr je označován zkratkou PUE, z anglického Power Usage Effectiveness. Ideální hodnota indikátoru je 1,0, což by znamenalo, že všechnu energii spotřebovávají jen počítače. Čím víc se tedy datové centrum k této hodnotě přiblíží, tím lépe.

Na začátku tohoto století mnohá datová centra dosahovala PUE hodnoty 2,0, což znamenalo, že obslužné systémy datového centra spotřebovávaly tolik energie, jako samotné servery. S postupným vývojem byl však dosažen obrovský pokrok a na konci první dekády se začaly PUE lídrů v tomto oboru pohybovat hluboko pod hodnotou 1,5. Velkým průkopníkem je v tomto směru Google, který už v roce 2008 dosahoval průměrného PUE 1,22 počítaného na všech datových centrech. Google svoje hodnoty PUE pravidelně publikuje a chlubí se jimi, přičemž mu slouží ke cti, že publikuje kompletní průměr všech svých datových center dohromady, a to za celý rok. Mnohé jiné společnosti se totiž chlubí dobrým PUE, které však dosahují jen na svém nejnovějším datovém centru, a to dokonce jen v chladných měsících. Google už v roce 2011 dosahoval na nejnovějších datových centrech PUE 1,11 a nejhorších 1,20, což ho dostalo pod průměr 1,18. Ve zlepšování přitom – tak jako jiné firmy – stále pokračuje a dnes je jeho PUE 1,12 v rámci celého průměru. Upozorňuje při tom, že pokud by použil méně striktní hodnocení, jako to často dělá konkurence, mohl by na některých datových centrech hlásit i 1,06!

Úsporu je však možné dosáhnout i v rámci serverové části, přičemž nejde pouze o výměnu hardwaru za novější a úspornější. V červnu loňského roku Google ohlásil, že pomocí svého systému umělé inteligence DeepMind se mu podařilo odhalit efektivnější metody na správu energie, které pomohou zredukovat spotřebu jeho datových center o masívních 15 %. Detaily o tom, jak a kde přesně k úspoře došlo, jsou tajemstvím, v základu je ale úspora založená na velmi úspěšném předpovídání budoucí energetické zátěže. Jde o to určit, kdy a jak hodně je která část systému vytížená, což závisí například na tom, jak lidé v rozličných částech světa jednotlivé služby Googlu používají. Systém umělé inteligence dokáže analyzovat obrovská množství dat a najít drobné indikace, kterých by si člověk nikdy nebyl schopen všimnout. Výsledkem je komplexní mechanismus managementu, který dosáhl úspory až 15 %.

František Urban

Související články