Hlavní navigace

Jak projekt Katapult mění Microsoft a pozadí světového internetu

8. 6. 2017
Doba čtení: 7 minut

Sdílet

 Autor: Microsoft
Na pozadí největších cloudů planety probíhají změny, které mají a budou mít velké dopady na počítačový byznys.

Výkonný ředitel Microsoftu Satya Nadella stojí na pódiu konferenčního centra v domovském Seattlu, prezentuje novinky v umělé inteligenci (AI) a cloud Azure, který takový rychlý pokrok ve výpočetní technice umožňuje, označuje za „první superpočítač pro AI“.

Slovo „první“ může být poněkud diskutabilní, funkce postavené na umělé inteligenci a dalších prvcích, jako jsou neuronové sítě, postupně chrlí i další provozovatelé obřích celosvětových cloudů: Google, IBM či Amazon. Faktem ovšem je, že AI superpočítačem Microsoft skutečně disponuje. Firma aktuálně začala stavět dvě nová datacentra v Kapském Městě a Johannesburgu, a až skončí, bude mít takových regionů už čtyřicet.

Azure už někdy v roce 2013 běžel na milionu serverů, dnes je těch milionů mnohem více. Výstavba dalších datacenter pokračuje obřím tempem s tím, jak Microsoft soupeří s Amazonem, svým sousedem ze Seattlu, o to, kdo bude mít největší cloud na planetě. Do investic míří desítky miliard dolarů.

Změna přístupu

Centralizace dat, výpočetní síly a běžících aplikací a systémů v několika světových centrech mění rozložení sil na internetu, kdy se velkým rybám daří ovládat čím dál větší kus potravního řetězce. To promlouvá do postavení internetových providerů a dalších hráčů, ale výrazné posuny se dějí také na pozadí v samotných datových centrech.

Tým Project Catapul v Microsoftu
Autor: Microsoft

Tým Project Catapul v Microsoftu

„Microsoft pod Satyou Nadellou opustil uzavřenost a začal se otevírat softwaru, který má smysl a který se používá,“ popisuje šéf cloudové a enterprise sekce v českém Microsoftu Dalibor Kačmář. Odkazuje například na to, že Redmond přijal open source, integruje a podporuje Linux a tak dále. „A tento přístup je možné pozorovat také u serverového hardwaru. Ve hře už je více možností než pouze Intel.“

Přijímání větší a větší otevřenosti je samozřejmě zcela hnáno pragmatismem. V případě softwaru je to skutečnost, že uzavírat dnes někoho v řešeních jedné společnosti nedává smysl, u hardwaru v datacentrech je to pak budování prvků umělé inteligence a všemožných kognitivních a dalších funkcí spojených s prací s daty.

„Přes 90 procent serverů, které aktuálně pořizujeme, je postavených na specifikacích z Open Compute Projectu (OCP),“ přibližuje Kushagra Vaid z technického týmu Azure. OCP je iniciativa rozjetá Facebookem, kde společnosti jako Microsoft, Google, Goldman Sachs, Facebook, AT&T, IBM, Deutsche Telekom a mnohé další zveřejňují specifikace a designy svého serverového hardwaru. Na míru dělané návrhy si pak každý může přizpůsobit a nechat vyrobit. Je to takový koncept open source softwaru aplikovaný na železo.

Projekt Katapult

Microsoft a další velcí provozovatelé datacenter a geograficky rozsáhlých cloudů zjistili, že při jejich objemech už úplně nedává smysl pořizovat komoditní servery či síťové prvky od zaběhnutých výrobců a je lepší si připravit sestavy vlastní. Pionýrem v této oblasti byl Google, který si do racků začal dávat čisté základní desky a dnes se koncept nadále rychle rozvíjí.

FPGA čipy od Altery využívaný v Microsoft Cloudu
Autor: Microsoft

FPGA čipy od Altery využívaný v Microsoft Cloudu

Tím se postupně došlo i k tomu, že v obřích cloudech není vždy úplně výhodné používat běžné čipy od Intelu, typicky tedy Xeony. Jsou příliš univerzální a pro specifické úlohy až moc „rozežrané“. Ještě za vlády Steva Ballmera, i když bez jeho nadšeného zapojení, se tak v laboratořích Microsoftu rozjel Project Catapult.

Úplně jednoduše řečeno, v Redmondu začali kolem roku 2011 experimentovat s tím, jak do serverů místo běžných x86 čipů nasadit takzvané FPGA čipy. O těch už bylo slyšet v dávné počítačové minulosti, aby se koncept zase na nějakou dobu vypařil a zase objevil v éře cloudů. A získal nemalou trakci.

Běžný čip od Intelu je vysoce univerzální, díky čemuž na něm lze spouštět všemožné aplikace. Daní za to je neefektivita. Když provozujete desítky datacenter a miliony serverů, musíte řešit, jak to všechno napájet a finančně živit (v oblasti Seattlu, kde je domov světových cloudů, například datacentra spotřebovávají většinu z „průmyslových kapacit“ napájení).

Čip Qualcomm Centriq 2400 vyvinutý s Microsoftem
Autor: Qualcomm

Čip Qualcomm Centriq 2400 vyvinutý s Microsoftem

Tady přichází na řadu FPGA. Tyto čipy je možné programovat na specifické úlohy, přičemž tyto úlohy lze měnit. FPGA je možné přeprogramovávat a algoritmy tak nejsou zabudovány přímo do křemíku. Díky tomu lze získat velice efektivní čipy vykonávající potřebnou úlohu. Nemusí se „živit“ jejich univerzálnost.

Pravá role Bingu

„Důvodem toho, proč tolik investujeme do FPGA, je exploze dat. Chceme s nimi pracovat v reálném čase a nechceme na nich pouze sedět, ale vyhodnocovat je. FPGA nám umožňují pracovat s daty s velice nízkou odezvou a nízkou spotřebou. Čím více univerzální jednotku máte, tím více efektivity musíte obětovat,“ popisuje na konferenci v New Orleans technologický ředitel Azure Mark Russinovich.

Centriq 2400 Motherboard
Autor: Qualcomm

Centriq 2400 Motherboard

První nasazení FPGA v Microsoftu proběhlo v rámci vyhledávače Bing. O něm se běžně mluví jako o „failu“ a zbytečné alternativě ke Googlu, v Redmondu ovšem Bing hraje nezastupitelnou úlohu. Od začátku sloužil jako prostředí, kde se firma učila využívat věci jako právě AI, strojové učení, práci s daty a budování rozsáhlých datacenter.

První testy na Bingu ukázaly, že algoritmy oproti běžným x86 čipům dokážou běžet mnohonásobně rychleji a s mnohem menší spotřebou. Z jednotlivých čipů se tak postupně začaly dělat kompletní desky a projekt Catapult se postupně rozrůstal.

V Microsoftu se tou dobou také začal rozjíždět cloud Azure a na předplatném a cloudu postavený Office 365. Zájem o FPGA tedy logicky přišel z těchto skupin. Požadavky ale nejdříve byly poněkud jiné. Cloud Microsoft se rychle rozrůstal a inženýři řešili problém, jak odbavovat ohromná množství dat.

Project Olympus
Autor: Microsoft

Project Olympus

FPGA se tak nasadilo jako „styčný“ bod mezi servery a sítě, aby bylo možné ulevovat trafficu. Tento princip nyní mohou využívat i běžní zákazníci Azure. V cloudu je k dispozici funkce Accelerated Networking, která umožňuje „offload“ datových toků. Touto cestou Microsoft půjde dále. FPGA využívá pro své interní účely stále více (v Office 365 například pro šifrování) a čipy navíc chce zpřístupňovat i pro běžné využití. Technické detaily Russinovich popisuje v přednášce z letošního Buildu, další informace jsou dostupné na blogu.

A jsou tu další

Podobná situace se opakuje také u dalších cloudových providerů. I oni využívají vlastní čipy – u Googlu je to třeba jeho TPU zpřístupňovaný pro umělou inteligenci. Tento rostoucí trend samozřejmě začal pozorovat Intel, který dodnes jasně dominuje komoditním čipům v serverech. Pokud by se velké cloudy bez jeho čipů obešly (FPGA už běží ve všech nodech v Azure) a pokud je trend v přesunu do cloudů, pro Intel to může znamenat velký problém.

Project Olympus
Autor: Microsoft

Project Olympus

Intel tak v roce 2015 oznámil, že za 16,7 miliardy dolarů kupuje společnost Altera. Právě ta Microsoftu dodává FPGA čipy a podle interních informací za akvizicí stojí právě obchodní vztah Altery s Microsoftem. Zástupci serverové sekce Intelu sami očekávají, že třetina strojů uvnitř datacenter velkých cloudů bude do roku 2020 FPGA obsahovat.

Satya Nadella už FPGA označil za „zásadní prioritu“. Microsoft do serverového hardwaru každoročně investuje mezi pěti až šesti miliardami dolarů. „Používáme více FPGA čipů než kdokoliv jiný na světě,“ navazuje Russinovich během setkání v New Orleans.

FPGA nejsou jedinou novou větví, kterou se Microsoft a další konkurenti v oblasti čipů vydávají. V Azure je možné si spouštět prvky umělé inteligence na grafických čipech od Nvidie (náš článek o firmě). „V případě strojového učení a neuronových sítí se ukazuje, že GPU čipy jsou výrazně lepší ve výkonu a škálování,“ říká Nadella.

UX DAy - tip 2

Postupné sbližování probíhá rovněž s ARMem. O nasazení těchto čipů v serverech už se mluví dlouho, nyní už dochází k serióznějším projektům. Microsoft společně s Qualcommem představil 10nm čipy Centriq 2400, které budou komerčně dostupné ještě letos. Jsou uzpůsobeny tak, aby na nich běžela nově připravená verze Windows Server pro ARM.

I toto řešení Microsoft využívá ve svém cloudu. Design je navíc jako Project Olympus dostupný přes zmiňovaný Open Compute Project a lze tak očekávat, že se ARM začne rozšiřovat více. „Každý náš nový produkt je transformován umělou inteligencí a platí to také o technologiích,“ uzavírá na konferenci Build v Seattlu šéf cloudové divize v Microsoftu Scott Guthrie.

Byl pro vás článek přínosný?

Autor článku

Reportér Lupa.cz a E15. O technologiích píše také do zahraničních médií.

Upozorníme vás na články, které by vám neměly uniknout (maximálně 2x týdně).