Hlavní navigace

GRID aneb supersítě a superpočítače

30. 1. 2001
Doba čtení: 6 minut

Sdílet

Ve sci-fi románech se setkáme s tvrzením, že Síť = Počítač, tedy že připojením se na Síť získáme přístup k nejvýkonnějšímu distribuovanému superpočítačovému systému. Přestože skutečnost má do této vize daleko, již dnes se můžeme setkat s distribuovanými počítači a možná není daleko doba, kdy opravdu pojmy síť a superpočítač splynou.

Myšlenka vytvořit počítač tak, že vezmeme existující počítače a propojíme je do sítě je stará již dvě desetiletí. Každý na síti připojený počítač můžeme chápat jako samostatný výpočetní element, sítí zprostředkovanou schopnost komunikace a pak jako obraz sběrnice (resp. mnohem komplikovanějších komunikačních systémů) virtuálního distribuovaného superpočítače. Poměrně přímočaré naplnění této myšlenky představují počítačové clustery, využívané zejména v poslední době prakticky všude, kde je třeba dosáhnout vysokého výkonu za únosnou cenu. Počítačové clustery můžeme charakterizovat dvěma základními rysy:

  • Jsou tvořeny homogenními výpočetními elementy (tedy všechny cluster tvořící počítače jsou v podstatě stejné)
  • Všechny výpočetní elementy tvořící cluster jsou rozmístěny dostatečně blízko na to, aby na jejich propojení bylo možno použít technologií lokálních sítí (LAN), a to zejména různě rychlé varianty Ethernetu

Clustery se staly velmi užitečným a v poslední době i poměrně výkonným nástrojem velmi náročných výpočtů, tedy domény, které dominují zejména velké (a příslušně drahé) specializované superpočítače. Jen pro ilustraci, největší současný cluster osobních počítačů s názvem CPLant, umístěný v Sandia National Laboratories, USA, patří svým výkonem podle listu TOP500 na 84. pozici mezi nejvýkonnějšími superpočítači světa (údaj z listopadu 2000). Z určitého úhlu pohledu do kategorie clusterů dokonce patří superpočítače na prvních třech místech seznamu, stroje s kódovým označením ASCI White (IBM, 8.192 procesorů), ASCI Red (Intel, 9.632 procesorů) a ASCI Blue-Pacific SST (IBM, 6.808 procesorů).

Rozvineme-li však myšlenku vytváření superpočítačů spojováním menších strojů počítačovou sítí do vyšších dimenzí, dostaneme se od clusterů do oblasti GRIDu, tj. jakési výpočetní mřížky, superpočítače s potenciálně neomezenými možnostmi. Konstrukce takovéhoto superpočítače má celou řadu velmi pozitivních rysů. Mezi nejvýznamnější pat­ří:

  • Možnost realizace ad-hoc, podle finančních možností i skutečných potřeb uživatelů. Máme-li již počítače do sítě propojeny, pak můžeme v daném okamžiku využít pro konstrukci aktuálního GRIDu (superpočítače, existujícího pouze pro řešení naší úlohy) přesně tolik (a takových) počítačů, jaké buď nejlépe odpovídají potřebám naší úlohy nebo jaké si můžeme finančně dovolit
  • Tvorba ad-hoc GRIDů a současně využívání zapojených počítačů lokálně (v případě pracovních stanic přímo koncovými uživateli, v případě zapojených superpočítačů lokální komunitou apod.) vede k výrazně efektivnějšímu využití jednotlivých v síti zapojených počítačů
  • Možnost pro řešení konkrétní úlohy využít různé druhy počítačů a využít tak jejich specifických předností (např. lze úlohu dekomponovat tak, že části vyžadující vektorové výpočty provádí zapojené vektorové superpočítače, zatímco skalární výpočty jsou delegovány na skalární počítače)

V neposlední řadě má idea GRIDu další obrovskou výhodu – jeho plnohodnotnou součástí se totiž může stát i váš počítač či pracovní stanice. Osobní výpočetní prostředek (a může jím být třeba i notebook nebo dokonce digitální asistent typu PDA, podstatné je jeho připojení do sítě) se tak najednou změní v jakési předpolí mnohonásobně výkonnějšího superpočítače, jehož skutečné vlastnosti, struktura apod. zůstanou skryty a pro vás se vytvoří pouze iluze výrazného vzrůstu výkonových parametrů vašeho počítače. V této souvislosti se často hovoří o superpočítačích na stole (supercomputers on the desk), velmi brzy však bude možno mluvit přímo o superpočítačích v ruce.

GRID má však další výhodu: jeho charakter rozsáhlého distribuovaného systému bez centrálního místa řízení (nepřipomíná vám to Internet?) umožňuje, aby se k (dlouhodobému) výpočtu mohli dočasně připojovat různí lidé, sledovat průběžně postup výpočtu a případně modifikovat parametry, jimiž ovlivňují jeho další průběh. Typický scénář využití GRIDu pak může vypadat např. následovně:

Analytici velkého prodejního řetězce, kteří dohlížejí na pravidelný „data mining“ dat shromážděných z jednotlivých supermarketů, si všimnou anomálního růstu zájmu o kombinaci produktů. Podrobná analýza těchto dat však již překračuje kapacitu počítačů, které mají k dispozici (ty jsou plně zatíženy rutinním „data miningem“). Real-time analýzu proto svěří výpočtu na GRIDu, současně upozorní své nadřízené, že s největší pravděpodobností bude nutná rychlá reakce. Jeden z výše postavených manažerů se na probíhající výpočet připojí ze svého notebooku na letišti a zaznamená další korelaci. Okamžitě pozmění parametry probíhajícího výpočtu a současně kontaktuje nákupčí, aby se rovněž svými PDA připojili k probíhajícímu procesu. Za nějakou dobu jim jako výsledky upraveného výpočtu začnou proudit data o nutném doplnění zásob konkrétních výrobků tak, aby byli připraveni na předpovězenou nákupní horečku ve svých regionech v následujících 24 – 48 hodinách.

Podobný scénář si lze snadno představit i ve zcela jiných souvislostech, např. při předvídání přírodních katastrof (zkuste se sami zamyslet nad tím, jaké důsledky by mohl mít včasný přístup ke GRIDu a odpovídajícím aplikacím všemi zúčastněnými ve dnech a hodinách, které předcházely záplavám v roce 1997).

Je to fikce či vzdálená budoucnost vědecko-fantastických románů? Nikoliv! První rozsáhlé, byť zatím pouze experimentální GRIDy vznikají již dnes, především v USA, ale rovněž v Evropě a je možné je nalézt i v akademické sféře v České republice.

Vytvořit funkční GRID je velmi složitý úkol, jehož realizace se pohybuje na samé hranici (a občas i za ní) současných technologických, ale i teoretických znalostí. Mezi nejvýznamnější problémy patří:

  • Heterogenita zdrojů – pro uživatele je třeba vytvořit ideu jednoho systému a co nejvíce „skrýt“ nepodstatné rozdíly mezi jednotlivými instalacemi uzlových počítačů; současně je však třeba v odůvodněných případech zpřístupnit jednotlivé stroje (typy strojů) tak, aby se v plné míře mohly využít jejich specifické přednosti
  • Bezpečnost přístupu, kdy je třeba velmi pečlivě ošetřit otázku oprávněných uživatelů, kteří získávají přístup k prakticky neomezeným zdrojům
  • Zajištění dostatečné robustnosti a odolnosti proti výpadkům, ke kterým zákonitě ve větším GRIDu musí docházet
  • Neexistence vhodných algoritmů a aplikací, které jsou schopny využít potenciálně tisíce procesorů propojených linkami o různé kapacitě
  • Vyhledávání dostupných výpočetních zdrojů a síťových propojení a plánování jejich efektivního využití (zvlášť komplikované je spouštění a následná synchronizace rozsáhlých paralelních úloh na mnoha fyzicky velmi vzdálených počítačích)
  • A v neposlední řadě to jsou politické aspekty, neboť začleněním počítače do GRIDu ztrácí lokální administrátoři určitou část své autonomie při rozhodování o konkrétním využití jimi spravovaného stroje

Jestliže sítě a jednotlivé počítače tvoří „technologickou základnu“ GRIDu, pak jeho duší je middleware, programové vybavení odpovídající za řešení většiny výše uvedených problémů. Uživatelé a jejich aplikace pak přichází do styku s tímto „prostředníkem“, který již odpovídá za korektní mapování na konkrétní stroje a síťová propojení. Zřejmě nejvýznamnějším projektem v oblasti middleware je projekt Globus, významné místo patří i projektům Condor a MOL (Metacomputer On Line).

cif 24 - early cena - média

Jejich technický popis přesahuje rámec tohoto příspěvku, na závěr se však zmíním o aktuálním projektu Evropské unie, v němž participuje i Česká republika. Jedná se o projekt DATAGRID, jehož hlavním řešitelem je CERN (Evropské výzkumné centrum fyziky vysokých energií s hlavním sídlem v Ženevě). Cílem je vytvořit podmínky pro evropský GRID, který by byl využitelný pro analýzu výsledků experimentů, plánovaných v CERNu od roku 2003 a 2005. Hlavním problémem těchto plánovaných experimentů je totiž enormní množství dat, které je odhadováno na několik PB ročně (1 PB = 1.000 TB = 1.000.000 GB). V rámci projektu (oficiálně byl zahájen 1. ledna 2001) vytvářený GRID s plánovanou schopností zapojit do výpočtů až desítky tisíc procesorů má fyzikům poskytnout dostatečně mohutný výpočetní prostředek, schopný uvedené objemy dat zpracovávat (a samozřejmě také tato data uchovávat a podle potřeby zpřístupňovat).

Česká republika je do projektu DATAGRID zapojena prostřednictvím sdružení CESNET a pracovníků zejména z Masarykovy univerzity, Západočeské univerzity a Univerzity Karlovy. Cílem tohoto zapojení je jednak přispět k základnímu výzkumu v oblasti plánování úloh a souvisejících bezpečnostních otázek, jednak využitím zkušeností s výstavbou českého akademického MetaPočítače vytvořit i v České republice část tohoto GRIDu, která bude bezprostředně přístupná nejen fyzikům vysokých energií.

Byl pro vás článek přínosný?

Upozorníme vás na články, které by vám neměly uniknout (maximálně 2x týdně).