Hlavní navigace

Roboti už jdou? Roboti už tady jsou

14. 6. 2017
Doba čtení: 8 minut

Sdílet

 Autor: Jiří Ryszawy, VIC ČVUT
Nahradí roboti právníky? A kdo bude právně odpovědný za činy umělé inteligence? Na konferenci LAW FIT, pořádanou FIT ČVUT, se zajímavě střetl svět IT a práva.

Umělá inteligence je velkým tématem letošního roku. Inteligentní systémy, chytří roboti, konverzační chatboti, kteří rozumí přirozené lidské řeči, to jsou věci, o kterých čteme na každém kroku. Letošní ročník konference LAW FIT byl věnován právě AI a robotům a tomu, jaké právní problémy nástup chytrých a autonomních strojů přináší. Kdo bude odpovědný za činy „inteligentního“ robota či autonomního auta? Měly by mít „chytré“ automaty nějaká práva nebo povinné pojištění? A nahradí jednou roboti i právníky? 

Systémy vybavené tzv. umělou inteligencí se v posledních letech rychle zlepšují, stále ale zdaleka nedosahují inteligence lidí, argumentoval na konferenci Rudolf Kadlec, který v IBM pracuje na vývoji systémů pro porozumění řeči. Stroje podle něj budou pokračovat v porážení lidských protivníků v jedné deskové hře za druhou a budou schopné řešit stále více problémů, o kterých jsme si dosud mysleli, že jsou doménou lidí. Na skutečnou univerzální umělou inteligenci si podle něj ale ještě dlouho počkáme. 

„Z mého pohledu jsou to stovky let, než dojdeme do stavu, kdy umělá inteligence bude schopná zastat libovolnou lidskou práci. Ale jsou lidé v AI komunitě, kteří říkají, že se to stane do roku 2050,“ tvrdil Kadlec. Momentálně hojně medializované úspěchy AI ve hrách jsou podle něj zajímavé, ale jde o algoritmy, které vlastně žádným velkým způsobem neovlivňují náš každodenní život.


Autor: Jiří Ryszawy, VIC ČVUT

Rudolf Kadlec, IBM

„U her máme vždy na začátku jasný abstraktní model, matematický popis ideálního algoritmu, o kterém víme, že když ho budeme následovat, vždycky vyhrajeme. Jeho problém typicky na začátku bývá, že propočítání jednoho tahu na počítači trvá třeba rok. Takže se pak v druhé fázi řeší reálná aplikace tohoto algoritmu. Mezitím typicky pokročí hardware a také přijde pokrok v algoritmech, takže najednou máme nějaké techniky pro přibližné řešení, které zkrátí dobu řešení z roku třeba na pár vteřin. Ale důležité je, že na začátku máme ten jasný algoritmus, který řeší hru. U ‚soft‘ problémů, jako je třeba strojový překlad nebo porozumění přirozenému jazyku, je to ale jiné. Sice se neustále zlepšujeme a překlady jsou dnes mnohem lepší než před deseti lety, ale nevíme, jestli cesta, po které jdeme, garantuje to, že nakonec dojdeme do cíle a budeme problém zvládat stejně jako lidé,“ vysvětloval. 

Jak dopadne soud 

Praktické problémy řeší s pomocí AI už dnes startup Neuron soundware, který je čtenářům Lupy určitě známý. Za pomoci neuronových sítí se snaží hledat vzory ve zvucích (přesně řečeno v jejich grafické interpretaci) a pak tyto vzory využít například pro detekci závad na různých mechanických systémech – aktuálně například na eskalátorech. 

Neuronovou síť musí na začátku vývojáři s pomocí učebních vzorů naučit, co má poznávat. „Je to jako když s malým dítětem přijdete do ZOO a ukážete mu všechna zvířata,“ popisoval na LAW FIT zakladatel startupu Pavel Konečný. Neuronová síť zatím podle něj není při učení tak rychlá jako člověk, kterému pro to, aby se naučil rozpoznávat konkrétní zvíře, stačí často ukázat jen několik málo fotografií. Počítač ale člověka dokáže dohnat s pomocí výkonu a statistiky. 

Dnešní AI systémy ale nejsou zdaleka neomylné. „Neuronové sítě jsou oklamatelné – existují obrázky, kterými se jim dají podsunout vzory, které jsou pro lidi absolutně jiné a nedávají jim smysl, ale neuronová síť si je třeba na 99 % jistá, že vidí tučňáka. K takovému oklamání samozřejmě musíte mít k dispozici onu neuronovou síť a data, ale jde to, podklad se dá zpětně zmanipulovat tak, aby neuronovou síť zmátl,“ popisoval limity AI Konečný. Ale je člověk jiný a proti takovým klamům imunní? I my přece dokážeme naletět na různé optické klamy, dodal. 


Autor: Jiří Ryszawy, VIC ČVUT

Pavel Konečný, Neuron soundware

„AI se ale bude zlepšovat. Už dnes umělé inteligence v autech porážejí lidi v tom, jak jsou schopné rozpoznávat dopravní značky. Všechno, co dnes děláme hlavou, půjde za čas udělat strojem. Něco dřív, něco později,“ řekl. A zmínil příklad loňského výzkumu, ve kterém skupina vědců vytvořila počítačový model, který dokázal s využitím strojového učení a modulu pro porozumění řeči s velkou úspěšností předpovídat, jak v konkrétních případech rozhodnou soudci Evropského soudu pro lidská práva. Úspěšnost stroje přitom byla 79 %. „To je první krok k tomu, aby se někdo zeptal, co má s důkazy nebo svými argumenty udělat, aby u soudu zvýšil své šance,“ spekuloval o možném vývoji Konečný. 

Strojové zpracovávání dokumentů a předpovídání toho, které argumenty nebo dokumenty budou v právním sporu podstatné, už dnes není v právním světě neznámé. Podle letošní studie McKinsey Global Institutem, citované v New York Times, by se dalo dnes dostupnými technologiemi zautomatizovat asi 23 % práce, kterou dnes právníci vykonávají. Jiné odhady jsou ještě vyšší – většinu práce právníků (podle některých až 80 %) totiž tvoří procházení dat, dokumentů a podkladů a příprava a kontrola smluv. A to jsou úkoly, které automatické systémy dokáží spolehlivě zastat. 

Roboti ale právníky nenahradí úplně, řekl na LAW FIT šéfredaktor odborného měsíčníku Právní rádce Jaroslav Kramer. Zatím totiž podle něj nedošlo k raketovému nárůstu online podání a řešení sporů a žádný stát zatím tuto oblast plně neelektronizoval. Chybí podle něj také inovace, které by oblast poskytování právních služeb radikálně změnily. Pro právníky sice existují platformy jako ROSS, která je schopná rozumět dotazům v přirozeném jazyce, analyzovat dokumenty a sama se učit, a vznikají systémy jako francouzský Predictice, který má umět předpovídat soudní rozhodnutí, ale ani podobné automaty právníky nedokáží nahradit, řekl Kramer. Tento vývoj podle něj pochopil i právní expert Richard Susskind, který ještě v roce 2008 vydal knihu nazvanou Konec právníků? (End of Lawyers?), ale jeho knížka z roku 2013 se už jmenovala Právníci zítřka (Lawyers of Tomorrow). 

Může robot nakupovat drogy? 

Právníci se každopádně s nástupem AI a robotů budou muset vyrovnat i z hlediska toho, jak bude právo s automatickými systémy zacházet. Kdo bude odpovědný za chování nebo jednání autonomních a učících se robotů? Právní úpravy jsou dnes v různých částech světa odlišné, popisovala na LAW FIT Alžběta Krausová z Ústavu státu a práva. Jako příklad problému, který se už dnes reálně řeší, zmínila švýcarský umělecký projekt Random Darknet Shopper – automat, který je naprogramován k tomu, aby za bitcoiny kupoval náhodně vybrané věci na darknetových tržištích. Nakoupené zboží pak nechává doručovat do galerie, ve které je momentálně vystaven (poprvé to bylo na přelomu let 2014 a 2015 ve švýcarském St. Galenu). 

Random Darknet Shopper
Autor: !MEDIENGRUPPE BITNIK

Random Darknet Shopper

Software nakoupil celou řadu věcí (jejich seznam najdete na webu projektu), včetně různých padělků, scanu maďarského pasu nebo databáze 1,8 milionu e-mailů. Zásadním testem ale prošel, když pořídil 10 pilulek extáze – a umělci o tom řekli novinářům. Ráno 12. ledna 2015 do galerie dorazila policie a laptop se softwarem i všechny nakoupené věci zabavila. Po třech měsících ale švýcarské státní zastupitelství vyšetřování ukončilo s tím, že společenská nebezpečnost výstavy je nízká, a naopak zájem veřejnosti o otázky, které umělecký projekt vzbuzuje, ospravedlňuje vystavení drog jako uměleckého artefaktu. Policie pak umělcům vrátila všechny zabavené věci – s výjimkou drog, které úředně zničila. 

Krausová představila také tři odlišné úpravy práv robotů a AI, které momentálně ve světě fungují – systém japonský, americký a evropský. Japonsko podle ní vůbec nemá v právním řádu definici umělé inteligence. Rozlišuje pouze mezi průmyslovými roboty, u kterých platí odpovědnost za výrobek podle zákona z roku 1995, a softwarem. A to může být problém. „Když máte umělou inteligenci, která například automaticky obchoduje přes internet, tak když tento systém způsobí nějakou škodu, dochází často ke komplikovaným a neřešitelným problémům v tom, jak vzniklou škodu kompenzovat,“ řekla Krausová. USA mají podle ní odlišnou právní úpravu. Systémy umělé inteligence, tedy software, jsou tam z hlediska práva považovány za robota.  


Autor: Jiří Ryszawy, VIC ČVUT

V Evropské unii je momentálně v případě škody způsobené robotem možné využít pravidla týkající se odpovědnosti za výrobek. Ten, komu byla škoda způsobena, ale musí prokázat, že její příčinou byla závada na výrobku, což jej dostává do nevýhodné pozice. Evropský parlament ale nedávno přijal doporučení Evropské komisi o občanskoprávních pravidlech pro robotiku a v tomto materiálu vyzývá Komisi, aby se otázkou odpovědnosti AI a robotů začala zabývat. Doporučení podle Krausové míří k tomu, aby poškozený už nemusel závadu na výrobku prokazovat. Případná škoda by se mohla hradit ze systému povinného pojištění – mohla by to být obdoba současného povinného ručení u automobilů. Poškozenému by pak stačilo prokázat, že škodu způsobil automat. 

Druhým navrhovaným přístupem je tzv. přístup řízení rizik, který předpokládá, že se robot v průběhu své existence vyvíjí a učí. Případná způsobená škoda by se pak posuzovala podle toho, jak k ní kdo přispěl. „Odpovědnost by se přenášela na osobu, která by měla největší šanci rizika minimalizovat. A to by mohl být jak výrobce, tak uživatel,“ dodala Krausová. Neboli, jak stojí v doporučení: „…čím má robot větší schopnost učení nebo vyšší autonomii a čím delší je doba jeho učení, tím větší by měla být odpovědnost jeho ‚učitele‘.“ 

TIP: Sdílené poznámky z konference LAW FIT 2017 najdete zde.

Otázky odpovědnosti přitom budou klíčové zejména při rozvoji autonomních automobilů, které by měly postupně přebírat řízení z rukou člověka a svěřovat je inteligentním systémům. Do problémů vás ale může už dnes dostat například váš chatbot. Právník Jindřich Kalíšek z firmy PRK Partners v této souvislosti zmínil známý loňský případ, kdy Microsoft spustil AI chatbota jménem Tay, který reagoval na dotazy lidí na Twitteru. „Tato umělá inteligence skončila neslavně, po 24 hodinách byla její existence na tomto světě ukončena, protože ji uživatelé naučili řadu neslušností, včetně toho, že vykřikovala, že popírá holocaust a podobné věci. Vzhledem k tomu, že v Česku máme právní odpovědnost právnických osob, tak pakliže váš chatbot bude vykřikovat podobné věci, může za to být celá společnost trestněprávně odpovědná,“ řekl Kalíšek. 

BRAND24

Máme se rozhodně na co těšit…

Byl pro vás článek přínosný?

Autor článku

Šéfredaktor Lupa.cz a externí spolupracovník Českého rozhlasu Plus. Dříve editor IHNED.cz, předtím Aktuálně.cz a Českého rozhlasu. Najdete mě na Twitteru nebo na LinkedIn

Upozorníme vás na články, které by vám neměly uniknout (maximálně 2x týdně).