Hlavní navigace

Obrazem: Datacentrum svépomocí. Jak vypadá nový datový sál DC6 Shiran 2.0

17. 9. 2020
Doba čtení: 4 minuty

Sdílet

 Autor: Karel Wolf, Internet info
Utratit stovky milionů korun za datacentrum umí každý, ale operovat s desetinou byla pro skutečná výzva, říkají provozovatelé.

V bývalém areálu podniku Aritma v Praze-Vokovicích stojí v přízemí nepřehlédnutelné výškové budovy Shiran Tower datové centrum DC6 společnosti Greendata, které vzniklo před pěti lety. Díky zintenzivněné spolupráci Greendat a telekomunikační společnosti FreeTel se nyní rozrostlo o nový datový sál.

Sál, který byl slavnostně otevřen minulý týden, je zajímavý například využitím free coolingového chlazení (situace, kdy se vzduch v datovém centru chladí přes speciální výměník pomocí chladnějšího venkovního vzduchu bez použití kompresorů strojního chlazení) nebo svou nízkorozpočtovou strategií (z části využívá v non-ICT infrastruktuře repasované prvky, výstavba proběhla z velké části svépomocí), která umožnila stlačit náklady na minimum.

Nově postavený sál i celé datacentrum DC6 (nově DC6 2.0) vyhovuje podle provozovatele úrovni certifikace Tier III od Uptime Institute, kterou ovšem z finančních důvodů nevlastní (podobně jako většina pražských a českých datových center). „Z důvodu časové i finanční náročnosti jsme se rozhodli nejít cestou certifikace, ale pouze skrze tzv. checklist deklarovat shodu s úrovní Tier III. Chceme tím zákazníkům zprostředkovat určitou představu o tom, jak bude o jejich data a servery postaráno,“ okomentoval absenci certifikátu Jaroslav Střeštík, jednatel společnosti FreeTel. „Utratit stovky milionů korun za datacentrum umí každý, ale operovat s desetinou byla pro naše společnosti skutečná výzva,“ doplňuje k tomu.

Samotné datacentrum je součástí objektu bývalého podniku Aritma, který vyráběl děrnoštítkové stroje, a existuje již pátým rokem. Nový datový sál vznikl ve spolupráci hostingo-housingové společnosti Greendata a telekomunikační společnosti FreeTel a jeho výstavba, kterou si společnosti zařizovaly svépomocí, trvala 5 měsíců. Celková kapacita datacentra se díky novému sálu rozšířila na 2500 serverů s možností dalšího budoucího rozšíření.

Jednou ze zajímavostí, na kterou lze narazit spíše u profesionálně navržených datových center, je snaha o snížení spotřeby energie volným chlazením (freecooling) a zpracováním odpadového tepla. Společnosti tvrdí, že se jí podařilo srazit PUE (indikátor energetické efektivity) mezi hodnotou 1,3 a 1,4, což má být lepší výsledek, než má mít průměrné datacentrum. Potíž je ovšem trochu v tom, s čím se srovnává. PUE vyšší než 1,4 je záležitostí hlavně starších datových sálů bez oddělených teplých/studených uliček a jiných dnes zcela standardních mechanismů zvýšení energetické efektivity lepším řízením toku vzduchu v datacentru (odvod vzduchu komínem, hybridní uličky). V podobných starších datových sálech s centrálním klimatizováním lze občas skutečně narazit i na hodnotu PUE 3,3, případně vyšší. To znamená, že pouze 1/3 veškeré energie spotřebované v datacentru je spotřebována IT infrastrukturou a dvě třetiny non-ICT prvky, jako je hlavně klimatizace.

Průměrná hodnota PUE se tak dnes pohybuje podle Uptime Institute okolo hodnoty 2,5, nutno ale zároveň dodat, že se již několik let běžně nenavrhují datová centra a datové sály s hodnotou PUE vyšší než 1,3 a například Google a Microsoft vytvářejí svá datová centra pro energetickou efektivitu PUE 1,2 nebo lepší. To jsou již ale samozřejmě extrémy. Na nízkorozpočtové datové centrum je ale oněch 1,3–1,4 stále velmi pěkný výkon. DC6.cz chce tuto hodnotu do roku 2023 navíc snížit na hodnoty 1,22 až 1,25. 

Datacentrum typu Tier III by pochopitelně mělo dále znamenat (vedle zabezpečení přístupu), že jsou jednotlivé systémy (datové okruhy, zdroj elektrické energie, klimatizace) podstatné pro běh datového centra zálohovány systémem alespoň N+1 a datacentrum garantuje 99,982 % dostupnost. Jak tomu vyhovuje DC6?

Sály DC6 v budově Shiran Tower jsou napájeny primárním energetickým okruhem a současně druhým sdíleným v rámci oddělených okruhů. Všechny přívody napájení mají mít dostatečnou kapacitu, aby samy o sobě pokryly energetickou potřebu a chod každého sálu. „Na snížení ekologické i finanční zátěže jsme dbali již při výstavbě. Dennodenně jsme tak hledali chytrá řešení, kde to jen šlo a nemělo negativní vliv na bezpečnost nebo kvalitu dodávaných služeb,“ okomentoval během prohlídky Zdeněk Maršál, jednatel společnosti Greendata. „Díky tomu se nám podařilo ušetřit přírodní zdroje i finance, zároveň pořídit například výkonnější a hospodárnější chladicí systém.“

MMF24

Chladící jednotky jsou napojeny na několik chladících okruhů. Okruhy jsou na sobě nezávislé a využívají osvědčeného systému oddělených studených a teplých uliček. Volné chlazení v datacentru převládá během větší části roku, v letních měsících je doplněno, nebo zcela nahrazeno klasickým kompresorovým.

Do datacentra vedou nezávislé optické datové okruhy, spojení s okolním světem zajišťují datové propoje o nominální hodnotě 10 a 100 Gb/s o celkové kapacitě přesahující 10 Tb/s. Vnitřní datová síť datacentra je postavena na nenasvícených vláknech a pasivní CWDM/DWDM technologii. Vlastní datový transport pak na aktivních prvcích od Cisco Systems a Arista Networks. Více v samotné galerii.

Byl pro vás článek přínosný?

Autor článku

Externí spolupracovník serveru Lupa.cz a expert na blockchain a kryptoměny. Jako šéfredaktor v minulosti vedl ADASTRA Business Intelligence Magazine a server ITbiz.cz. Dnes pracuje jako redaktor časopisu Forbes.

Upozorníme vás na články, které by vám neměly uniknout (maximálně 2x týdně).