Překryvné sítě jako lék na neduhy Internetu

Jednoduchá architektura současného Internetu stále přináší řadu výhod zejména z hlediska jeho rozšiřování, znamená však ale i potíže se správou, bezpečností a celkovým zdravím a výkonem celosvětové sítě. Současný stav nedává mnoho šancí pro budoucí požadavky informační společnosti. Kudy tedy dál s Internetem?

Na tuto otázku se snaží odpovědět mnoho výzkumných institucí, univerzit i soukromých subjektů po celém světě. S čím dál větším počtem připojovaných zařízení a adekvátně velkými ambicemi tisíců organizací na využití Internetu pro své komerční účely se totiž do popředí širokého zájmu dostává i jeho spolehlivost, bezpečnost a výkonnost (která je v tom nejčastějším pojetí chápána jako přenosová rychlost na různých úrovních připojení). S rozšiřováním sítě se však ukazuje, že zajištění těchto požadavků není tak jednoduché. Internet vznikl na základě malé množiny relativně jednoduchých protokolů, které směrují prostřednictvím routerů a jiných směrovacích uzlů v síti data ze zdroje k cíli. Jednoduchost tohoto modelu dovolila Internetu stát se rychle kritickou globální službou, na druhou stranu: nízká komplexita sítě nyní působí potíže tím, že nahrává snadnému šíření škodlivého kódu a brání účinné kontrole síťového provozu (což je však možno brát z hlediska svobody i jako výhodu).

Přestože se na první pohled celosvětová komunikace prostřednictvím Internetu může zdát spolehlivá, stabilní a „zaručená“ řadou komerčních institucí, není skutečnost zdaleka tak růžová, jak se ostatně často sami můžeme přesvědčit. Servery se mohou z důvodů zahlcení požadavky přetížit, může dojít k hardwarové závadě či úspěšnému pokusu útočníka. Přetížené routery a trasy mohou způsobovat zpoždění přenosu či úplnou nedostupnost služeb. Útočníci a škodlivý kód navíc nachází výhodu v nesnadném stopování svého původu, téměř nekonečném množství děr v software a anonymním prostředí milionů koncových stanic. Problémy se přitom budou spíše zhoršovat, neboť čím dál více nových aplikací a služeb je dostupných „online“ a stále větší počet organizací přesouvá své důležité funkce do světa Internetu.

Limity současného Internetu lze krátce popsat například tak, jak nedávno učinil Vint Cerf, jedna ze známých postav počátků této sítě a spoluautor protokolu TCP/IP:

  • Kapacitní problém: mnoho vizí vývoje Internetu zdůrazňuje nutnost připojení koncových zařízení v počtech jednotek až desítek miliard. Jak se s tím může dnešní Internet vypořádat?
  • Problém s šířkou pásma: uživatelé i jednotlivé aplikace vyžadují stále větší přenosové rychlosti, přičemž současná infrastruktura se jen obtížně vyrovnává s tímto dlouhodobým nárůstem, stejně jako s lokálními krátkodobými nápory.
  • Problém s kvalitou služeb: s narůstající „šířkou“ Internetu lze očekávat i větši rozdíly v dostupnosti služeb, což znamená hůře zajistitelnou úroveň jejich kvality.
  • Problém s právním prostředím: čím více aktivit společnosti přejde do „virtuálního“ světa, tím naléhavější bude nutnost aplikovat i v tomto prostředí pravidla a zejména jejich vynucování, jak je známe ze světa „skutečného“. (To znamená hlavně postihování původců škodlivých zásahů.)

Víc vrstev víc ví

Jeden z relativné málo diskutovaných druhů vylepšení internetové infrastruktury představují takzvané překryvné sítě (overlay networks). Český název by také mohl znít „vícevrstevné,“ neboť právě na existenci více „vrstev“ síťového provozu je tento koncept založen. Od běžného typu síťové komunikace na Internetu se odlišuje tím, že ke „spodní“ vrstvě, tvořené IP pakety (a daty routovacích protokolů), přidává i komunikaci „vyšší,“ probíhající mezi „inteligentními“ routery a aplikacemi, distribuovanými mezi jednotlivými koncovými uzly. Smyslem této komunikace je pak dodat běžnému provozu na Internetu řadu podpůrných služeb a nových schopností: dohled nad provozem v síti, analýza informací ze všech uzlů ohledně virové nákazy či poškození a přímé řízení komunikace podle takto získaných údajů.

V současnosti asi nejznámějším projektem, zkoumajícím možnosti překryvných sítí, je PlanetLab, již dva roky fungující otevřená výzkumná síť více než 196 subsítí ve 25 zemích. Jako participant se se svojí podsítí může přihlásit libovolná organizace (nikoliv však jednotlivci). Na počítačích, které pro tento účel vyhradí, pak probíhají experimenty členů projektu, které mají za úkol prověřit schopnosti navrhovaných schémat pro nový Internet. Důvodem, proč testy probíhají na takto odděleném prostoru, je zejména fakt, že „otevřený“ Internet není pro takové pokusy vhodným prostředím právě z důvodu svého jednoduchého návrhu, který mají překryvné sítě vylepšit. Není zkrátka možné „jen tak“ nasadit do běžného provozu například nové typy routerů s úplně jiným způsobem fungování, aniž by prošly důkladným otestováním své neškodnosti pro běžný provoz. Tyto zkoušky však zároveň musí proběhnout v dostatečně velkém prostoru, neboť právě pro takové podmínky jsou nové koncepty internetové komunikace navrhovány.

Ve své konečné podobě by měl PlanetLab obsahovat na tisíc serverů (na jednotlivých počítačích běží modifikovaný Red Hat Linux) s dostatečným geografickým rozptylem, avšak už nyní poskytuje svým členům dostatek místa pro experimentování. Jeho aktivními členy jsou vedle univerzit (těch je v projektu zatím na 150) firmy jako Intel nebo Hewlett-Packard, a právě Intel se netají svými nadějemi na expanzi schopností Internetu (které by mu pochopitelně zajistily řadu nových příležitostí ke zvyšování zisků). Cíle jednotlivých projektů jsou různé: od výzkumu možností přidat Internetu „paměť,“ tedy distribuovaného datového skladu, přes monitorování výtěžnosti sítě až na úroveň zátěže procesorů jednotlivých stanic, po techniky „stopování“ virové nákazy až k místu vzniku. Jistě ne každá z prověřovaných technologií dojde své realizace ve „skutečném“ Internetu, avšak většina z nich je za tímto účelem vyvíjena a při osvědčení v inkubátoru PlanetLab by jej mohla významně obohatit.

Co z toho

Nakonec PlanetLab se již může pochlubit několika zajímavými výsledky. Jedním z nich je třeba projekt Kalifornské univerzity v Berkeley, zaměřený na boj proti útočníkům v síti. Pod názvem Public Health for the Internet se v PlanetLabu zkouší systém monitorující pokusy o útoky proti jednotlivým počítačům, což ve svém důsledku vede ke snadnému určení původce těchto činů. Základem je (jako u většiny projektů v PlanetLabu) síť monitorovacích jednotek v podobě aplikací, instalovaných na každý počítač. Zároveň každý uživatel tohoto počítače může sledovat vývoj situace u svých „kolegů,“ čímž získává výhodu včasné výstrahy a náskoku k přípravě na obranu.

MIF16

Jiným příkladem úspěšného projektu z PlanetLabu je práce členů z Carnegie Mellon University na vylepšení streamingu formou distribuce požadavků na servery. Obdobou End System Multicastu v „klasickém“ Internetu může být technologie poskytovatele Akamai, avšak rozdílem je, že balancování zátěže zde probíhá na úrovni speciálních „media proxy serverů“. Ty se starají o to, aby ke každému uživateli dorazil video či audio stream o takové kvalitě, která odpovídá možnostem připojení uživatele. Ta se však neřídí jen „tloušťkou“ jeho přípojky, ale i možnostmi trasy, po které data proudí. Celá síť se navíc samoorganizuje tak, aby rychlé servery posílaly video či audio stream počítačům s rychlým a volným připojením, zatímco pomalejší media servery obsluhují méně náročné uživatele.

PlanetLab se na první pohled podobá již osm let běžícímu projektu Internet2, jeho autoři se s ním však necítí být v konkurenci, právě naopak. Podle zástupců Intelu mohou technologie z PlanetLabu dojít nejlepšího naplnění právě ve vysokorychlostním prostředí Internetu2 a oba projekty spolu intenzivně spolupracují. Kdy se s výsledky spojeného úsilí vědců setkáme v tom Internetu obyčejném, je však těžké předvídat. Mnohé projekty PlanetLabu by navíc pravděpodobně mezi dnešními uživateli sítě sítí nenašly tak nadšenou odezvu, jakou by ke svému fungování potřebovaly – nutnost instalace klienta na počítač, který o vás bude sdělovat informace „chytrému společenství sítě“, by nejspíš řadě z nich příliš nevyhovovala. Myšlenku překryvných sítí a inteligentních směrovacích prvků však podle všeho čeká ještě zajímavá budoucnost. Nové technologie se v Internetu vyvíjí poměrně bouřlivě a ne vždy předvídatelně a je dost dobře možné, že budoucí požadavky na bezpečnost nás donutí přehodnotit stávající postoje. Ostatně Internet je pro velkou část lidí stále ještě překvapením sám o sobě…

Anketa

Chybí podle vás Internetu více inteligence?

19 názorů Vstoupit do diskuse
poslední názor přidán 29. 9. 2004 23:07

Školení web copywritingu

  •  
    Jak strukturovat text na webové stránce.
  • Tajemství atraktivního a úderného titulku.
  • Optimalizace webového textu pro vyhledávače.

Detailní informace o školení psaní pro web »