Hlavní navigace

Alžběta Krausová (Ústav státu a práva): Nad AI technologií musíme mít navrch, nesmíme se stát jejím nástrojem

13. 12. 2021
Doba čtení: 8 minut

Sdílet

 Autor: Depositphotos
Kdo má být odpovědný za škodu způsobenou systémem s prvky AI? Třeba za škodu při nehodě autonomního auta nebo za dopady systémů doporučujících obsah?

Nesmíme se stát obětmi AI systémů, kdy si zvykneme na jejich rozhodování a přestaneme se ptát, říká právnička Alžběta Krausová, která se souvislostmi práva a systémů s prvky umělé inteligence zabývá v Ústavu státu a práva Akademie věd ČR

Jako členka evropské expertní skupiny se také podílela na formulování pravidel pro odpovědnost AI systémů za případné škody. „Byly zde úvahy o tom, abychom zavedli systém elektronické osoby – například registrovaného robota nebo systému, který by převzal odpovědnost, bylo by na něj navázáno pojištění a žádné další osoby by se nemusely o nic starat,“ popisuje průběh diskuse.

Evropská pravidla by se podle ní nakonec měla ubírat jiným směrem. Budoucí pravidla by měla motivovat vývojáře, prodejce, provozovatele i uživatele AI systémů, aby se každý z nich choval odpovědně. Jak mají evropská pravidla pro AI vypadat? Jak se dá určit škoda, kterou chytrý systém způsobil? A proč má mít umělá inteligence lidský dohled? 

Část rozhovoru jsme přepsali do textové podoby, celý si jej můžete poslechnout ve formě podcastu:

 

PARTNER SERIÁLU

Autonomní automobily, vyhodnocování bonity v bance nebo systémy třídící životopisy. To vše jsou riziková využití umělé inteligence. Ovlivňují naše životy a mohou ublížit či diskriminovat. Proto potřebujeme pravidla, která nám zajistí ochranu před zneužitím.

Technologický pokrok vpřed nesmí znamenat krok vzad z pohledu občanských svobod. Práva evropských občanů jsou vždy na prvním místě. Právě nová evropská pravidla by měla vyplnit všechny mezery, které by mohly být zneužity a na které je současné právo krátké.

Marcel Kolaja (Piráti / europoslanec)

Dnes je kolem nás spousta autonomních, robotických systémů, nebo systémů, které využívají prvky umělé inteligence. Jaká právní pravidla pro odpovědnost těchto systémů za způsobenou škodu už dnes platí?

V současné době probíhá na evropské úrovni velká debata o odpovědnosti za umělou inteligenci. A právě proto, že ještě nemáme obecná evropská pravidla, aplikují se běžná národní ustanovení na odpovědnost za škodu, za výrobek a podobně. 

Bohužel tato právní ustanovení mají ve vztahu k systémům s prvky AI svoje limity. Jsou dány zejména tím, že u těchto systémů je zapojeno velké množství subjektů: osoby, které poskytují datové soubory, programátoři, firma, která je zaměstnává, a také uživatelé, kteří ten systém mohou ovlivňovat. To znamená, že když dojde k nějaké škodě, je velice těžké zjišťovat, kdo je skutečně odpovědný – pokud mluvíme o tzv. subjektivní odpovědnosti, kde se hledá zavinění.

V českém právu máme – a promítne se to i do budoucí evropské úpravy – také tzv. objektivní odpovědnost, kdy vám právo jasně řekne, že v tuto danou chvíli je odpovědný například provozovatel. U systémů autonomního řízení tradičně máme objektivní odpovědnost. To znamená, že kdybyste měl autonomní vozidlo, které bude fungovat v autonomním režimu, zapnete ho a jedete, tak ve chvíli, kdy vaše auto do něčeho nabourá nebo někoho zraní, jste odpovědný vy jako provozovatel. I když nehodu mohla způsobit závada na výrobku.

Tak to vypadá docela jednoduše. Máme vyřešeno…

Tak jednoduché to samozřejmě není (smích). Provozovatel může poukázat na to, že selhal systém autonomního řízení. A v tu chvíli by podle českého práva nastoupila odpovědnost za výrobek. Majitel by tedy měl právo jít po výrobci autonomního vozidla a chtít po něm náhradu škody, kterou on zaplatil poškozené osobě.

Dobře, to už začíná být složitější. Je v tom vlaku odpovědností ještě nějaký další vagón? 

Ano, je (smích). Právě proto říkáme, že jsou současná pravidla odpovědnosti za systémy umělé inteligence složitá, a snažíme se přijít s novými zásadami, které by odpovědnost zjednodušily. Takže si vemte, že jste provozovatel vozidla a jdete po výrobci. Ten je za výrobek odpovědný v tom smyslu, že musí být tak bezpečný, jak lze od něj rozumně očekávat. 


Autor: Alžběta Krausová

Alžběta Krausová

Ovšem jsou tady ještě liberační důvody, kvůli kterým se výrobce může zprostit odpovědnosti. Jeden z nich je pro systémy s AI vhodný: výrobce může říct, že není odpovědný, protože výrobek byl vyráběn za určitého stavu poznání, za kterého výrobce nemohl předpokládat, že dojde ke škodě. Může se tedy u soudu vyvinit a vy jako provozovatel vozidla nesete všechny náklady, byť selhal systém. To je nepříznivá situace, vždyť kdo by si chtěl koupit vozidlo, při jehož selhání nedostane náhradu škody? 

Dalším problémem je dokazování. AI systémy jsou složité, a kdybyste chtěl něco prokazovat u soudu, je pro vás důkazní situace velice obtížná. Byla jsem členkou odborné evropské expertní skupiny, která se zabývala vývojem principů odpovědnosti za umělou inteligenci. A naše principy míří právě na to, abychom tyto problémy vyřešili.

Podle vašeho popisu jsou současná pravidla výhodná pro firmy, které se mohou z odpovědnosti vyvinit, a nevýhodná pro majitele zařízení s prvky umělé inteligence. Jak se to tedy dá vyřešit, aby odpovědnost nezůstala vždy na něm?

Nebude to úplně jednoduché. Autonomní vozidla jsou samostatná kapitola, která má i speciální právní regulaci, protože jde o auta. Ale představte si i další systémy, které s vámi komunikují, doporučují vám obsah, pečující roboty, nejrůznější systémy navigace, které vás navedou třeba na Vinohradské schody

Přijít s obecnými pravidly a zárukami bylo velice složité. Když to zrekapituluji, máme problém – někdy – s určením příčiny škody, protože AI systémy jsou často netransparentní a my nevíme, co přesně se v nich děje. Dalším problémem je mnohost subjektů – pokud používáte například různé chatboty, které se vyvíjejí na základě toho, co jim říkáte, tak je sám ovlivňujete.

Naše expertní skupina po dlouhé analýze a konzultacích s experty na umělou inteligenci z různých oblastí došla k tomu, že abychom vyřešili tyto problémy, měli bychom podporovat to, aby se osoby nemohly vzdát odpovědnosti. Byly zde totiž úvahy, abychom zavedli systém elektronické osoby – byl by to například registrovaný robot nebo systém, který by převzal odpovědnost, bylo by na něj navázáno pojištění a žádné další osoby by se nemusely o nic starat.

Jenomže takový systém, kdy by všechno bylo pojištěné a každý by se mohl chovat, jak by chtěl, by měl pro společnost nepříznivé následky. A my chceme všechny – uživatele, vývojáře, firmy i prodejce – motivovat k tomu, aby se každá osoba zúčastněná v systému chovala odpovědně. 

Navrhujeme tedy určité odpovědnosti pro každého. Například firmy by měly zavést povinně logování toho, co se v AI systémech děje – samozřejmě tam, kde je to možné. Takto by měla být jasnější ona důkazní situace, protože v případě škody by firmy předávaly data té osobě, která se brání před soudem. Kdyby povinnost neplnily a nelogovaly, obrátilo by se důkazní břemeno. Firma sama by při stížnosti uživatele musela prokázat, že škodu nezpůsobila.

Mezi další opatření patří třeba nová osoba – osoba operátora, který monitoruje, jak daný systém s inteligentními prvky funguje. Operátor má největší možnost kontroly, takže má taky nejvyšší míru odpovědnosti. Tam, kde to půjde, by nad AI systémy měl vždycky být přítomen lidský prvek, který může zasáhnout, zejména v rizikových oblastech.

Jak si to mám představit konkrétně? Třeba u těch autonomních aut by mělo jít o nějaký dispečink, který bude mít vozidla pořád pod online dohledem?

Třeba. Pokud je tak nastavený jeho obchodní model. Samozřejmě záleží na každém konkrétním systému. Pokud třeba půjde o systémy, které zajišťují určité služby na síti, může jít o někoho, kdo na pozadí monitoruje, zda celý systém funguje dobře. Může jít i o systém záruk, které vás upozorní na to, že došlo k nějaké chybě, aby se dalo předejít škodě.

Takže by mohlo jít i o automatický systém, který sleduje, jestli v AI systému nedochází k nějakým neočekávaným chybám, a hlásí to někam na centrálu?

Asi tak. Otázky konkrétní implementace nejsou zatím ještě přesně vyřešeny. Zatím tu je návrh nařízení o pravidlech pro používání AI (psali jsme o něm ve zprávě Umělá inteligence jako riziko. Evropská komise představila, jak chce regulovat AI – pozn. redakce), který není schválen a bude o něm velká debata. Ten zavádí nové povinnosti, které se odpovědnosti budou také týkat. Pak má ale vyjít speciální nařízení jen na odpovědnost za umělou inteligenci. Návrh měl být zveřejněn v říjnu či listopadu, ale Evropská komise datum posunula na první čtvrtletí příštího roku. Ale zase půjde teprve o návrh, který se bude dlouho vyjednávat, a předpokládám, že ještě tak dva až tři roky s pevnými pravidly nemůžeme počítat.

Pokud vím, tak požadavek na lidský dohled nad AI systémy je obsažen už v tom právě projednávaném návrhu nařízení. U některých systémů si to dokážu představit, u některých méně. 

Požadavek na lidský dohled vychází z doporučení na důvěryhodnou umělou inteligenci, která vypravovala vysoká expertní skupina pro etiku umělé inteligence. Podle nich by člověk měl být vždy v centru – jde o tzv. human-centric AI. Jde o to, aby nedocházelo k porušování základních lidských práv, abychom vždy měli navrch nad technologií a nestali se jejím nástrojem. To se například už teď děje v Číně.

Myslíte tamní algoritmické hodnocení chování obyvatel?

Rovněž, ano, tomu se v Evropské unii snažíme předejít. Ale jde i o jinou věc. V červnu jsem se účastnila vyjednávání etických doporučení pro AI v rámci UNESCO a jeden z delegátů tam zmínil zajímavý dokument z Číny nazvaný Harmonická umělá inteligence. Hovoří se v něm o tom, že člověk by měl žít v harmonii se systémy umělé inteligence, neškodit jim a nezasahovat do jejich působení. Že tedy člověk musí chránit ty systémy. Je to přesně naopak proti hodnotám, které máme v Evropě, a odpovědnost je také zcela opačná.

Takže Asimovovy zákony robotiky naopak? Zákony robotiky, které platí pro lidi? Je jasné, že přístupy k AI se ve světě budou zásadně lišit podle kulturního zázemí, politické orientace a režimu v daných zemích. Ale pojďme se ještě vrátit k tomu, že lidé mají mít nad AI systémy navrch. Nebude to příliš omezovat fungování AI systémů? Jejich výhoda přece spočívá také v tom, že dokáží automaticky vyhodnotit velké množství dat a na jejich základě učinit nějaké rozhodnutí, které by člověku trvalo mnohem déle. Když ale do toho automatického procesu přidáte lidský dohled, možnosti AI systémů tak výrazně snížíte. Není to příliš velké omezení?

Máte pravdu, že AI systémy mají nesporné výhody, které bychom určitě měli využívat. Na druhou stanu je potřeba neustále si klást otázku, jak zabezpečit, abychom se ale nestali obětmi těchto systémů, kdy si na ně zvykneme, zvykneme si na jejich rozhodování a přestaneme se ptát. Může jít třeba o doporučování obsahu, které následně formuje, jak myslíme, jak se cítíme, jak vykonáváme svá občanská práva. Je tady hrozba, kterou nesmíme podcenit.

Samozřejmě například u AI systému v zemědělství, který vyhodnocuje data o půdě, nebo u chytrých systémů, které pomáhají v logistice, tam určitě není tak velký lidský dohled potřeba. Jde spíš o oblasti, kde by mohla být zasažena přímo autonomie člověka, jeho soukromí, důstojnost, způsob jeho myšlení.

Celý rozhovor si poslechněte ve formě podcastu:

Byl pro vás článek přínosný?