Hlavní navigace

Martin Rehák (Bulletproof AI): Umělá inteligence se neumí účinně bránit cílené manipulaci

23. 4. 2019
Doba čtení: 21 minut

Sdílet

Po Cognitive Security a Ciscu se mladý český podnikatel vrhá do nového projektu. Znovu chce pomocí AI spoluvytvořit nový trh.

Martin Rehák společně s Michalem Pěchoučkem na ČVUT vytvořil startup Cognitive Security, který později prodali společnosti Cisco, a ta díky tomu v Praze vytvořila výzkumné a vývojové centrum. Rehák v Ciscu ještě asi šest let působil. Od letošního února už se ale věnuje jeho novému projektu, kterým je firma Bulletproof AI.

Cognitive Security se zaměřovala na hledání bezpečnostních anomálií v sítích, k čemuž využívala umělou inteligenci. Ve své době šlo o novou metodu. Podobně se nyní snaží vytvořit nový trh i Bulletproof AI. Pražský tým se pomocí umělé inteligence snaží hlídat další umělé inteligence a učinit je tak bezpečnější. Rehák v rozhovoru pro Lupu popisuje, jak to funguje a co vlastně lze od takové AI čekat.

Co to je Bulletproof AI?

Věnujeme se otázce, která je nyní mezi odborníky celkem módní, a to je bezpečnost umělé inteligence. Velká část odborníků zachytila, jak si výzkumníci firmy Tencent „hráli“ s Teslou. Pomocí správně zvolených teček na vozovce se jim podařilo auto navést mimo jízdní pruh. Ukázalo se, že Tesla byla postavená robustně vůči očekávatelným chybám, ale pak ji zmátly tři dobře umístěné tečky.

To je obecný problém. Většina algoritmů umělé inteligence pracuje v hodně velkých prostorech a pro svá rozhodnutí používá pět, deset tisíc proměnných. Tam neplatí běžné představy o tom, co se navzájem podobá nebo co je to podobnost. Útočník dokáže pro každou situaci sestrojit situaci, která je pouze malinko odlišná (třeba ona malá tečka na vozovce), ale způsobí tím úplně opačné rozhodnutí.

V dnešním stavu vědy a poznání se jeví, že velká část rozhodnutí umělé inteligence, ačkoliv je bezpečná v průměrném případě, se neumí účinně bránit cílené manipulaci. To je přesně ten problém, který řešíme. Bulletproof AI se věnuje ochraně algoritmů před někým, kdo jim obrazně řečeno namaluje ony tečky, aby rozhodnutí algoritmů nějak zvrátil.

Takže se pokoušíte zajistit to, aby AI nešla „oblbnout“?

My si myslíme, že to vždy půjde do nějaké míry „oblbnout“, ale chceme, aby v daných situacích bylo těžší zmást AI než člověka. A aby následky případného zmatení nebyly katastrofální. Aby byl k dispozici systém, který bude hlavní systém sledovat, a když si ten nebude jistý rozhodnutím, kontrolní systém převezme kontrolu. Nejde nám o kompletní řešení problému. Očekávám vývoj, který je v kybernetické bezpečnosti běžný. Bude iterovat. Jakmile se zlepší obránci, zlepší se útočníci a pořád dokola. My chceme být na straně obránců a budeme se snažit zlepšovat bezpečnost systémů.

Jak přesně tedy do celého procesu vstupujete?

Sledujeme to, jak moc si je algoritmus jistý rozhodnutím, které dělá. A jak moc si má být jistý. Uvedu to na příkladu z naší domény, které se věnujeme, a to jsou primárně finanční služby a operace týkající se peněz. Tam totiž očekáváme primární zájem útočníků.

V Evropě se rozbíhá PSD2, což je proces, kdy banky musí jiným bankám či fintech startupům otevřít přístup ke svým službám. To znamená, že můžete říci své bance, aby někomu, u koho žádáte o hypotéku, otevřela přístup k vašemu účtu. Tato instituce se podívá na váš účet a například pomocí strojového učení zjistí, jaké máte riziko, jaký máte plat a jaké máte platit úroky.

Otázkou je, jakým způsobem dokáži na účtu vygenerovat transakce, abych měl co nejnižší úrok. Protože proti mně stojí AI algoritmus, můžu odvodit, že se mu bude líbit, když budu mít vysoký měsíční příjem. Nebo pokud bude velký rozdíl mezi příjmy a výdaji. Takže mohu například udělat to, že hned, jak dostanu výplatu, ji pošlu na účet manželky, ta ji pošle tchýni a ta mi ji pošle zpátky ze svojí firmy. Je to v dnešní době podvod, když vše řeší AI systém a nikde se nepodepisuje žádné prohlášení? Podobné operace, kterých lze vygenerovat nekonečné množství, mohou systém jednoduše manipulovat.

My nabízíme systém, který dohlíží na AI modely, které běží v různých bankách, institucích a fintech firmách. Náš nástroj „sedí“ nad AI systémem a dělá dvě věci. Konkrétně sleduje tento AI systém a zjišťuje, jestli jeho rozhodnutí nejsou zvláštní, což nám ovšem pouze ex post umožňuje konstatovat, že se něco nepovedlo. Co nás zajímá mnohem více, je to, že systém bude sám aktivně hledat zranitelnosti. Na základě znalosti systému a běžného chování zkouší situace, o kterých si myslí, že by mohly být problematické. Když narazí na zranitelnost, monitoruje ji a pomůže zalátat. Náš systém v podstatě zkouší vynalézat možné zločiny ještě předtím, než tam zločinec přijde.

Martin Rehák, Bulletproof AI

Martin Rehák, Bulletproof AI

Jaký přístup k trénování vaší AI volíte?

V podstatě se jedná o umělou inteligenci, která chrání jinou umělou inteligenci tím, že na ni neustále útočí. Používáme kategorii přístupů, kterým se říká generativní metody. Ty se dnes používají třeba k tomu, že vygenerujete obrázek člověka, který neexistuje. My to využijeme tak, že z několika malých transakcí a za pomocí dalších vstupních dat vygenerujeme další plauzibilní transakce. Poté z nich vybereme ty, které dávají ekonomický smysl pro útočníka. Máme model toho, jakým způsobem danou aktivitu ekonomicky vytěžit. Tohle vůči systému zkoušíme.

Jak přistupujete k tomu, že se AI často chová jako černá skříňka, která vygeneruje nějaký výsledek, ale není jasné, jak k němu došla? A do toho přichází vaše další černá skříňka.

To je dobrá teoretická otázka. V praxi generátory, kterým se říká generativní sítě, fungují tak, že spolu soupeří dva modely – jeden, který se snaží odhalit padělek, a druhý, který se snaží vyrábět lepší padělky. Soupeří v generacích a postupně se zlepšují. My používáme několik stran. Máme vnější útočníky, systém, který chráníme, a také náš systém, který si bere to nejlepší z chráněného systému i od útočníků a učí se z obou stran. Myslíme si, že do budoucna je toto stabilní. Nebude to tak, že by byl jeden super chytrý a bezpečný model, ale bude existovat spousta malých modelů, které spolu spolupracují. Stejně tak, jako má lidský mozek různé komponenty, které spolu interagují a vyměňují si informace, vznikne aglomerativně AI model. Může se stát, že se z toho pak zase stane jedna velká síť, která bude mít různé podčásti. Ale to je pořád řada let v budoucnosti.

Takže se spíše kloníte k názorům, že nějaká případná „větší AI“ vznikne spojením velkého množství „menších AI“?

Myslím si, že to bude trochu jinak. Umělá inteligence nevznikne jako jedna jasně vymezená entita. Umělá inteligence vždy bude sestávat z týmů lidí a inteligentních zařízení a algoritmů, které budou soupeřit s dalšími týmy. Vždy tam bude nezastupitelná úloha malého množství lidí, kteří budou umělou inteligenci řídit a hlídat. Inteligentní algoritmy budou řešit dobře definované úlohy a půjdou do hloubky nějakého úzkého zaměření. Lidé budou hlídat, že platí všechny předpoklady a že se algoritmus nedostal někam jinam, než kam má jít. Ukazuje se, že tento princip funguje lépe než izolovaní lidé či zcela autonomní automaty.

Dobrým příkladem jsou šachy. V nich platí, že počítač porazí jakéhokoliv člověka. Ale týmy, které jsou mixem lidí a počítačů, dokáží přehrát jakýkoliv počítač. Mají kreativitu a něco málo navíc a dokáží zkombinovat hluboké zaměření a soustředění stroje a náhodné kreativity a zdravého selského rozumu lidí. Rozhodně se nebojím, že by lidstvo stálo proti nějakému Skynetu a byl zde souboj lidstva proti počítači. Bude to konkurenční souboj stovek tisíců týmů počítačů a lidí proti sobě.

Každopádně to tedy vypadá, že nad umělou inteligencí bude další vrstva umělé inteligence a lidí, která ji bude hlídat?

Ano. A nemusí to být nad ní, ale i vedle ní. Na dnešních finančních trzích proti sobě bojují do jisté míry autonomní algoritmy, které jsou pod dohledem lidí, protože každá chyba znamená ztráty v řádech miliard. To třeba dělají lidé z RSJ. Tam není systém, který je nad nimi, ale ten trh mezi nimi hlídá a trestá každou chybu. Když to někdo dělá hůř, přijde o peníze a prohraje.

Takže je tedy možné, abychom jako lidstvo dali umělé inteligenci nějaký rámec?

Myslím si, že aby se umělá inteligence vzepřela lidstvu a udělala mu něco hrozného, je v dnešní době nereálná představa. Je to něco, čeho se většina odborníků vůbec nebojí. Problém asi bude trochu v terminologii. Když se řekne umělá inteligence, představím si něco strašně sofistikovaného. Kdybych ale řekl pojmy matematická optimalizace a vysokodimenzionální lineární algebra, tak se lidé bojí podstatně méně, protože to není tak sexy a nezní to tak nebezpečně.

Ale v podstatě dnes AI není nic moc jiného. Jsou to základní operace v algebře, které jsou velmi chytře složené do algoritmů a aplikované na data. K tomu jsou přidány optimalizační techniky, které řeší, jak vše nastavit a složit dohromady – a to je všechno. Algoritmy dokáží perfektně zvládnout dobře definované úlohy, kde je spousta dat a ony úlohy jsou podobné a dobře se trénují. Ale naprosto se utopí v úlohách, které jsou špatně zadané a kritéria úspěchu jsou nejednoznačná.

Co z vašeho pohledu znamená, že Evropská komise před nedávnem představila pravidla pro bezpečnou AI?

Tento dokument nedává žádné povinnosti a není v něm nic, co by mě šokovalo nebo mi vadilo. Dokument pojmenovává rizika a říká, jakým směrem by se měla ubírat regulace. Otázky, které řeší, jsou z principu správné. Systém by se měl rozhodovat férově proti chráněným skupinám obyvatelstva. Na tom není nic, co by nedávalo smysl. AI například začne nahrazovat určité části byrokracií, takže na tuto AI musíme mít stejné požadavky jako na lidské úředníky, které tato AI bude nahrazovat. Jsou tam také požadavky na to, abychom rozhodnutí AI byli schopní vysvětlit. To není úplně jednoduché a z principu je to ve své úplnosti skoro neřešitelný problém, ale nějaká aproximace je možná.

Dokument bude předmětem řady debat kvůli parciálním doménám a aplikacím. Ukazuje také to, jak jednotlivé země k regulaci AI přistupují. Spojené státy se snaží systémy regulovat pomocí důsledků a pomocí toho, jaký mají efekt. Evropa se spíše snaží regulovat mechanismy, které jsou uvnitř. Důsledek už je prostě důsledek. Amerika říká „je mi jedno, co uděláš uvnitř té krabičky, ale chci, aby toto byl výsledek“. Oba přístupy mají své klady a zápory, mně osobně je bližší ten evropský.

Kde je pozice Evropy v AI vůči USA a Číně? V kontextu toho, že americké firmy mají velké platformy jako Google nebo Facebook, které nasávají data z celého světa. Čínské podniky to zase dělají na obrovském domácím trhu a částečně i v Asii. Evropa nic takového nemá a data jsou k AI potřeba.

To je dobrá otázka. Čína je kapitalismus v rámci stranické politiky a společnost se, ať už dobrovolně, nebo ne, vydává směrem k více direktivnímu řízení. To má z pohledu čínské vlády jisté výhody. Z pohledu Evropana je těžko představitelné, že by něco takového mohlo být zavedeno i u nás. U Spojených států je to pak naopak. Tam se k informacím nedostává ani tak stát, jako velké nadnárodní korporace. Evropa je v tomto pozadu. Je otázkou, zda je to špatně. Je to špatně z pohledu výnosnosti evropských médií a podobně. Ale zase například evropská regulace směřující k větší otevřenosti finančních služeb a bankovních domů může být oproti světu napřed. Zde můžeme udávat tempo.

A jsou tedy na místě obavy, že Čína bude díky masivní digitalizaci života lidí a sběru dat moci vytvořit takové AI systémy, na které my nedosáhneme? Stejně tak, jako když v USA zase tyto schopnosti koncentrují velké podniky?

Nemyslím si, že je to takto jednoduché. Umělá inteligence jako obor v poslední inkarnaci existuje několik let. Když jsme s AI v kybernetické bezpečnosti začínali před dvanácti lety v Cognitive Security, tak to neexistovalo. Říci po pár letech, že někdo má definitivní konkurenční výhodu, je jako říci, že MySpace je neporazitelná sociální síť.

Nikdo dnes ještě neví, jak správně trénovat a škálovat modely. Nikdo třeba neví, jak natrénovat modely pro samořídící automobily. Původní predikce, které spoléhaly na lineární princip a postupné zlepšování, se v podstatě neplní. Waymo, které je v této oblasti asi nejpokročilejší startup, sliboval, že už v roce 2015 bude mít nějakou službu, která bude lidi samořídícím autem vozit. Je rok 2019 a nic takového nevidíme.

Služby, které se začínají objevovat, spíše počítají s kontrolovaným prostředím a malým množstvím situací, uzavřenou komunitou, malou rychlostí a podobně. Problém samořídících aut se pravděpodobně podaří vyřešit, ale bude to podstatně těžší a složitější, než si to myslíme dnes. A tím vyřešením myslím i otázky typu, zda jsou lidé připravení na to, že je bude zabíjet chybující robot, i když statisticky zřejmě budou autonomní auta bezpečnější. I když toto pomocí statistické matematiky dokážeme vypočítat, psychologicky to zřejmě stále nebude úplně přijatelné.

Jak se stavíte k myšlenkám, že by se měly začít dělit monopoly typu Google a Facebook? Objevují se také názory, že namísto dělení by bylo lepší donutit tyto firmy k interoperabilitě, tedy poskytnout data, na kterých sedí, třetím stranám.

Nejsem si jistý, zda je rozdělení technologicky i z dalších aspektů možné a zda by to vůbec něčemu pomohlo. Když se rozhodneme z Googlu vyčlenit Gmail, pomůže to něčemu? Pravděpodobně ne. A co se týče dat – Facebook je svým klientům poskytoval. Cambridge Analytica je příkladem takového klienta. A víme, že to nedopadlo úplně dobře, a to jak z pohledu PR, tak pohledu faktického. Proto té myšlence nejsem úplně nakloněn. Možná to, že data vlastní Facebook, je lepší, než kdyby je měl „každý“. Musel by pak tedy existovat mechanismus, jak by si lidé mohli kontrolovat, kdo má přístup k jejich datům. Já ovšem ze své zkušenosti vím, jak lidé přistupují k tomu, když mají řešit vlastní kybernetickou bezpečnost. Nespoléhal bych se na to, že lidé dokáží správně naklikat řadu check boxů na Facebooku týkajících se jejich dat.

Pojďme zpět k Bulletproof AI, což je tedy ona AI, která počítá s menším a kontrolovaným prostředím. Jak jste s vaší technologií daleko a kde už je nasazená?

Začali jsme v únoru 2019 a nyní máme dva zákazníky, oba z finančního sektoru a oba jsou to české firmy. Původně jsme nečekali, že budeme mít z Česka zájem, ale ukázalo se, že tuzemský sektor je na evropské úrovni a najdou se zde subjekty, kteří myslí dopředu a mají pokročilé modely, které stojí za to zabezpečovat.

Mohu zmínit, že spolupracujeme s brněnskou firmou ThreatMark, která zabezpečuje bankovní systémy před převzetím účtů a chrání tak internetové bankovnictví zdejších i zahraničních bank. Této společnosti pomáháme s ochranou před útoky pomocí AI, která simuluje chování konkrétních lidí nebo skupin lidí. Pomáháme s posunem systému o jednu generaci dopředu. Zároveň se snažíme rozvíjet kyberbezpečnostní oblast, což je schopnost, kterou Česko objektivně má.

To, že je Česko v kyberbezpečnostní oblasti na vysoké úrovni, se skloňuje často. Je tomu skutečně tak, nebo si to jen tak obecně říkáme, protože máme Avast?

Očekávat, že každá kyberbezpečnostní firma bude velká jako Avast, není úplně reálné. Trochu mohlo vzniknout očekávání, že když firma nestojí miliardy, nemusí to být ono. Avast a AVG jsou výborný úspěch a nyní to Ondřej Vlček přebral, což je skvělé. Avast je dnes v situaci, kdy má dobrý byznys, pěkně vydělává, ale zároveň ví, že se musí změnit a musí podpořit nové produkty a posunout se dopředu. Avast tedy čeká značná výzva a myslím si, že Ondřej je na to člověk na správném místě.

Ale Avast je jedna firma. Co je podstatně důležitější, je ta další úroveň, kde jsou firmy jako GreyCortex, ThreatMark a další. Tyto firmy tvoří podhoubí, že kterého se rozvíjí zbytek. A nejsou to pouze české firmy, ale také řada zahraničních podniků zde má svá vývojová centra zaměřená i na bezpečnost. A funguje zde také efekt, že firmy jako Blindspot Solutions nabízí své služby zahraničním startupům, což vede k tomu, že si u nás tyto startupy otevírají svá centra. Díky tomu se komunita rozšiřuje. Je to nesmírně zdravé, protože toto je proces, kterým si prošel Izrael. Tam to ještě mají ozvláštněné vojenskou službou, která je velmi efektivním prvkem. Izrael je obecně příklad hodný následování.

Takže obecně lze říci, že každá firma u nás sice není veliká jako Avast, ale to, že je tedy řada těch menších, které se opravdu snaží, je skvělá zpráva.

Kdo toto podhoubí tvoří a nejvíce rozvíjí? První generace lidí, kteří například získali peníze díky AVG a Avastu a teď je dále investují? Existuje pouze tento řetězec, nebo se objevují další nové vlivy?

Je tam to, co říkáte. Také jsme se například bavili s estonskými investory a ti nám říkali, že Estonsko jako země byla fundamentálně proměněná díky Skypu. Díky němu tak vznikla komunita technicky zdatných a bohatých lidí, kteří financují další startupy. Díky tomu vznikl třeba TransferWise, což je další velký úspěch. Z něj se odlupují další startupy. Úspěch plodí úspěch. Třeba u nás je Karel Obluk, který byl jedním z šéfů AVG, a ten nám hodně pomáhal a hodně se věnuje budování tuzemské komunity. Stejně jako se tomu věnují zakladatelé Avastu a další lidé. Ačkoliv to často není s velkým PR, lidé v kyberbezpečnostní komunitě hodně s rozvojem pomáhají. To je třeba nesmírně ocenit.

Dalším faktorem je u nás kvalitní technické vzdělávání, což je něco, co je třeba podporovat. Kvalita bohužel objektivně klesá a vysoké školy snižují laťku, protože k nim chodí méně vzdělaní a připravení studenti ze středních škol. Řešením je zainvestovat do budoucí generace skrze vzdělávání. To je hlavní riziko, které Česko má. Já třeba považuji za skandální, že se děti na základních školách učí pracovat s Wordem, ale nikdo je neučí základy programování. To je z pohledu rozvoje mozku a schopností daleko důležitější aktivita.

Jste v branži, kterou teď děláte, průkopníci podobně, jako se vám to podařilo s Cognitive Security? Nebo už je Silicon Valley plné podobně zaměřených startupů?

Je to vznikající trh a Silicon Valley není plné podobných startupů. Oblasti se věnuje několik týmů v Googlu, konkrétně v části Google Brain. Oblast začíná nabírat na zajímavosti. Už jsou zde první startupy, ty se ale většinou zaměřují na kompletní otázky, zatímco my na jeden úsek. V tento okamžik naším problémem není konkurence, ale povědomí klientů o hrozbách a rizicích, které souvisí s používáním AI. Když přijdeme někam do banky, tak tam říkáme, že jim ochráníme umělou inteligenci. A oni nám řeknou „my jsme v pořádku, my žádnou nemáme“. Na to odpovíme, že se pojďme podívat, co udělá náš inteligentní útočící algoritmus s jejich statickým systémem. Většinou to není úplně hezký pohled.

Firmy tedy nejsou připraveny na AI a práci s daty?

Nějaký pokrok tam je, ale velké množství firem o tom především ráda mluví. (Ale aspoň, že o tom mluví, pak se to bude dát posunout dopředu.) Ne každý bude moci najít hodnotu, kterou AI má. Pokud je byznys objektivně pořád stejný a nevznikne žádná hodnota například o poznání svých klientů, nemá smysl AI dělat. A také jsou někdy byznysy tak jednoduché, že AI skutečně nepotřebují. Kolem AI je nyní velké nadšení a osobně si myslím, že se blížíme k bodu, který bude možné nazvat rozčarováním. Velká část firem si uvědomí, že pro AI nenajde využití. Na druhou stranu ty firmy, které na AI budou záviset, to začnou dělat intenzivněji. Firmy, které o tom jen mluví a předstírají, že AI mají, to velmi rychle zavřou. AI je z velké části o automatizaci procesů a nahrazování lidí tam, kde jejich činnost lze automatizovat. Je to hezky vidět u velkých bank a fintechů. Tyto mladé firmy často na obsluhu jednoho klienta potřebují řádově menší počet lidí než velké finanční domy.

Vy jste se po letech opět vrátil do startupového prostředí. Poslední roky většina investorů mluvila o tom, jak musí být všechno AI a jak investují do AI. Jak se vám situace jeví dnes?

Investoři, kteří se baví s námi a se kterými se bavíme my, se vedle toho, že se ptají, zda máme AI, zeptají také na to, proč ji tam máme. Což spousta startupů kupodivu neumí říci a pak je to většinou krátká debata. Ale hodně startupů se na AI zaměřuje, protože šance, že se zaměří na nějakou část průmyslu, kde lze provést automatizaci a zefektivnění, je poměrně značná.

Vy vyjednáváte s investory?

Zatím si vše financujeme z vlastních kapes. Nechceme získávat externí peníze do té doby, než přesně zjistíme, co prodáváme, komu a za kolik. V okamžiku, až toto budeme vědět, budeme komfortní v tom dávat někomu sliby a vzít si peníze.

Ve firmě je nás osm spoluzakladatelů a také máme jednoho obchodníka, který je placený v akciích. A firma je vedená hodně demokraticky, někdo by možná řekl, že až anarchisticky. Všichni se známe dlouho a dlouho spolupracujeme a navzájem víme, jak přemýšlíme. Většina lidí, co zde je, tak má velké znalosti AI a kybernetické bezpečnosti a asi polovina lidí má z AI doktoráty.

Co vás motivovalo odejít z Cisca, kde jste po prodeji Cognitive Security budoval pražské vývojové centrum?

Sešlo se několik faktorů. Prvním bylo to, že jsem v Ciscu byl šest let, což bylo podstatně déle, než jsem já nebo kdokoliv jiný očekával. Vydržel jsem tam tak dlouho díky skvělým kolegům v Česku i Americe. Dostali jsme naši službu ke zhruba 25 milionům uživatelů po celém světě, což mnohonásobně přesáhlo naše dřívější neformální závazky. Mě zároveň bylo jasné, že dostat tuto službu dál už chce do vedení jiný typ člověka, než jsem já sám. Další věcí byla únava z domény, kterou jsme řešili. Chtěli jsme dělat něco jiného, něco víc nezávislého a trochu modernějšího. Třetím faktorem bylo to, že jsme viděli příležitost, která je zároveň ve stavu, jenž nás baví. To znamená, že to stále není jasně definovaný trh a dává nám to možnost účastnit se vytváření zcela nové oblasti. Už jsme to jednou dělali a chceme si to zopakovat.

Jak Cisco vnímalo váš odchod?

Díky tomu, že jsme tam byli dlouho a produkt jsme někam dostali, tak to nebylo bráno jako nějaká velká zrada. Bylo určitě těžké, že nás odešlo několik, takže zásah do týmu byl větší. Na druhou stranu tým, který nyní v Ciscu vede Jaroslav Gergič, je velmi silný a talentovaný. Jarda dlouhodobě působil ve vedení startupu GoodData, mnoho se ve startupu naučil a nyní to přenáší do prostředí, které se stále snaží jako startup fungovat.

Vás kolega z Cognitive Security a Cisca Michal Pěchouček se nyní snaží z Česka vytvořit evropský hub ve výzkumu a vývoji umělé inteligence. Vidíte zde šance, že by Česko v rámci starého kontinentu skutečně mohlo vynikat?

Pokud někdo podniká ve Francii nebo třeba Německu, je validní podívat se, co dělá firma ve Spojených státech, a na domácím trhu udělat uzpůsobenou kopii. Jsou to velké trhy a může to fungovat. V Česku to většinou není postup, jak uspět, a to je naše výhoda. Vzniká tak u nás hodně technologických firem, které se od začátku snaží orientovat na zahraničí. Otevřená ekonomika, která je zaměřená na export, je to, co nás odlišuje.

V AI se určitým centrem stáváme, ale mohlo by to být ještě lepší. Je třeba více investovat do základního výzkumu na univerzitách. Michal Pěchouček se snaží získat financování z EU, protože financování českých univerzit není dostatečné. Stejně tak málo českých firem investuje dopředu a místo toho, aby investovaly do základního výzkumu a vývoje, dělají spíše inkrementální změny. To souvisí i s tím, že velká část průmyslu je v pozici subdodavatelů. Na druhou stranu ale vidíme firmy, jako jsou Prusa Research, což je světový úspěch. Není to sice AI, ale 3D tisk je další věc, která mění lidstvo. To jsou příklady, které je třeba podpořit.

Iniciativa Prague AI, kterou Michal Pěchouček dělá, je primárně o tom, abychom připravili podhoubí pro další generaci českého průmyslu. Je jasné, že velká část automobilového průmyslu v Česku zahyne, protože jakmile nastoupí elektromobily, tak u nás vyráběné součástky nebudou potřeba.

To jsme tak trochu zpátky u Izraele, který se „zničehonic“ stal silným hráčem v automobilovém průmyslu. Sice nikdy neuměl žádná auta vyrábět, ale vytvořil firmy jako Mobileye zaměřené na počítačové vidění v autech a tak dále.

To je přesně ono. Je třeba jít změně naproti, nebránit současné byznysy a snažit se investovat dopředu. Spousta lidí v automobilovém průmyslu říká, že elektromobily nebudou fungovat. Když se ale podívám na dynamiku trhu v zahraničí či to, jak klesá cena baterií, je pozice běžných automobilů neudržitelná. Je například šokující, že se Česko nesnaží získat větší podíl na trhu s výrobou baterií a akumulátorů na úkor toho, že rozvíjíme strojírenství pro spalovací motory.

BRAND24

Kdybyste se realisticky zasnil, jak by z vašeho pohledu měla vypadat struktura české ekonomiky a průmysl v budoucnosti?

V horizontu dvaceti let musí česká ekonomika projít velkou změnou. Co se musí rozvíjet, je náhražka dnešního automobilového průmyslu. Je třeba se posunout k ekonomice postavené na službách a „měkkých dovednostech“. Tam patří i umělá inteligence, kvalita rozhodování a další věci. Pokud se nám to podaří, může Česká republika prosperovat. A to i bez navyšování kapacit dálniční sítě, což je jedna z věcí, které nám objektivně nejdou. Může se nám podařit přeskočit určité vývojové stádium. Velká část západních ekonomik dnes v podstatě exportuje byrokracii. Jsou tam střediska zahraničních firem, které mají desítky tisíc lidí a která řídí výrobu v jiných zemích. Pokud by se nám podařilo vytvořit ekonomiku, která nebude exportovat byrokracii, ale inteligenci, tak to může být podstatně zajímavější.

Byl pro vás článek přínosný?

Upozorníme vás na články, které by vám neměly uniknout (maximálně 2x týdně).