Hlavní navigace

Marek Rosa (GoodAI): Autonomní zbraně už tu jsou. Rozhodování o životech ale nelze nechat strojům

Autor: TriStar Pictures
Marek Rosa

Česká společnost GoodAI podepsala otevřený dopis, který vyzývá k zákazu autonomních robotických válečníků. Její šéf vysvětluje proč.

Redakce Lupy oslovila zástupce jediné české firmy, která podepsala otevřený dopis varující před zneužitím AI ve zbraních, aby popsal své důvody, proč se k výzvě připojil. 

Jako CEO společnosti GoodAI jsem nedávno spolu se 116 AI firmami podepsal otevřený dopis, který vyzývá Organizaci spojených národů k zákazu autonomních „robotů-zabijáků“.

Dopis, který měl velký mediální ohlas, byl zveřejněn na mezinárodní konferenci o umělé inteligenci (International Joint Conference in Artificial Intelligence – IJCAI 2017) v australském Melbourne. Chtěl bych podtrhnout význam tohoto dopisu, vyjádřit se k několika komentářům, které jsem v této souvislosti obdržel, a zmínit další bezpečnostní aspekty, o nichž je třeba diskutovat.

Umělá inteligence je stále výkonnější. Ačkoli jsme zatím nedosáhli toho, čemu říkáme obecná inteligence – lidská úroveň, vznikají roboti s úžasnými schopnostmi. Žijeme v nesmírně vzrušující době, zároveň ale musíme dbát na zavádění odpovídajících pravidel v souvislosti s militarizací autonomních robotů a umělé inteligence.

Roboti ve válce místo lidí

Chci zdůraznit, že tento dopis nevolá po absolutním zákazu využívání AI nebo robotů pro vojenské účely, požaduje ale zákaz konkrétních autonomních přístrojů. Zbraní, které samy přemýšlejí a samy činí veškerá důležitá rozhodnutí pro zmáčknutí spouště.

Vlády celého světa už autonomní zbraně využívají. Jižní Korea například používá kontroverzní kulometné věže Samsung SGR-A1. Zpráva Kalifornské státní polytechnické univerzity uvádí, že tato zbraň má schopnost autonomní střelby. Samsung ovšem tvrdí, že ačkoli jeho kulometná věž může samostatně detekovat cíle, ke spuštění palby potřebuje lidské rozhodnutí. Právě tohle poslední slovo v rozhodování je nezbytné zachovat. 

Od zveřejnění dopisu slýchám, že je přece lepší posílat do války roboty namísto našich synů a dcer. Ano, samozřejmě, že je. Nebudeme sice umět úplně zastavit veškeré války, ale musíme zajistit, že to nebudou roboti, kteří rozhodnou, na koho nebo na co zaútočit. Pokud to nedokážeme, budou výsledky pro lidstvo katastrofální.

Jedním z mnoha problémů je neschopnost garantovat nulovou chybovost. Když autonomní zbraň selže, může to potenciálně vést ke zkáze. Stroje mohou také být napadeny hackery, přeprogramovány a vyslány k autonomnímu vyhledávání a zneškodňování cílů. Technologie nepřinesou převrat jen ve vojenské technice, ale i v terorismu.

Prevence ve výzvě

Navíc nejde jen o vojenský kontext, u něhož musíme pečlivě zkoumat otázky bezpečnosti. V GoodAI jsme nedávno vyhlásili nadcházející druhé kolo naší výzvy General AI Challenge. Jde o celosvětovou soutěž, kterou jsme spustili počátkem roku 2017. Každé kolo má překonat důležitý technický nebo teoretický milník na cestě k obecné umělé inteligenci.

První kolo se zaměřilo na vývoj AI agentů, kteří se budou schopni učit podobným způsobem jako lidé. Jako milník druhého kola jsme zvolili řešení otázek bezpečnosti v takzvaných AI závodech uvnitř byznysové komunity.

Challenge, kterou spouštíme v listopadu 2017, se bude věnovat scénáři, v němž se vývoj umělé inteligence stane soutěží mezi společnostmi, pro které je AI strategickou záležitostí. V souvislosti se vzrušujícím závodem o dosažení obecné umělé inteligence roste riziko, že otázky AI bezpečnosti mohou být zanedbávány v zájmu rychlejší implementace výkonnějších AI algoritmů.

Challenge vyzve účastníky, aby předložili návrh konkrétních kroků, které mohou být podniknuty v zájmu prevence negativních důsledků takového AI závodu a v zájmu dalšího pokroku v bezpečném vývoji obecné umělé inteligence.

Našli jste v článku chybu?