Hlavní navigace

Tvůrci umělé inteligence budou muset před soudem dokazovat, že neškodili

4. 10. 2022
Doba čtení: 5 minut

Sdílet

 Autor: Depositphotos
Nově představená evropská směrnice má ambici otočit důkazní břemeno u některých sporů o náhradu škody. Třeba autor softwaru havarovaného dronu by se podle ní mohl z odpovědnosti vyvinit. Musel by ale prokázat, že ničím nepochybil.

Evropská komise představila pravidla, která nejspíš nepotěší tvůrce zařízení využívajících umělou inteligenci. Návrh směrnice o odpovědnosti za škodu způsobenou prostředky umělé inteligence (AI) bude pro tyto vývojáře znamenat nová rizika. Pokud jimi vyvinutý dron, samořiditelné vozidlo, anebo třeba hlasový asistent či vyhledávač někomu způsobí škodu, mělo by být daleko snazší po nich vymáhat odškodnění.

„Nová pravidla poskytnou obětem škod způsobených systémy umělé inteligence rovné šance a přístup ke spravedlivému soudnímu řízení a odškodnění,“ řekl v rámci představení návrhu eurokomisař pro spravedlnost Didier Reynders.

Návrh direktivy obsahuje dvě zásadní opatření: vyvratitelnou domněnku příčinné souvislosti a právo na zpřístupnění důkazů. Obojí má usnadnit případný soudní spor o náhradu škody, v němž je třeba dokazovat, že došlo k porušení uložené povinnosti, že vznikla škoda a že mezi příčinou (porušením povinnosti) a následkem (vznikem škody) existuje souvislost (tzv. kauzální nexus). A právě to může být u složitých systémů AI problém.

Obrácené dokazování

Alžběta Krausová (Ústav státu a práva): Nad AI technologií musíme mít navrch, nesmíme se stát jejím nástrojem Přečtěte si také:

Alžběta Krausová (Ústav státu a práva): Nad AI technologií musíme mít navrch, nesmíme se stát jejím nástrojem

Důkazní břemeno dnes leží na poškozeném, a před soudem tak je na něm, aby dokázal, že nebýt chyby výrobce, ke škodě by nedošlo. „Když vás zraní probíjející pračka nebo žehlička, prokázat závadu na elektroinstalaci nebude nic těžkého. Když do vás ale narazí dron, který se vymkne kontrole a nereaguje na pokyny pilota, bude dokazování o dost obtížnější,“ naznačuje advokátka Marie Koričanská z BKS advokáti. Jak pilot, tak výrobce dronu totiž mohou vinu svalovat jeden na druhého a poškozený se může dostat do úzkých, když nebude mít jak prokázat, vůči kterému z nich je jeho nárok oprávněný.

A přesně na podobné případy návrh směrnice cílí. Snižuje důkazní břemeno tím, že ve vyjmenovaných případech nově zavádí fikci, že škodlivý následek umělá inteligence způsobila. Půjde o takzvanou vyvratitelnou domněnku, to znamená, že tvůrce umělé inteligence se bude moci vyvinit, pokud sám prokáže, že na nehodě nemá žádný podíl. 

Jedná se o princip obrácení důkazního břemene, který české civilní právo zná například u diskriminačních sporů. Pokud budete svého zaměstnavatele žalovat, že s vámi nerovně zachází, nebudete to vy, kdo bude muset diskriminaci dokázat, ale bude to žalovaná firma, která bude muset prokázat, že k žádným nepravostem nedochází.

„Díky těmto opatřením budou mít oběti účinnou šanci prokázat své oprávněné nároky z odpovědnosti u soudu,“ navrhl eurokomisař Didier Reynders. „Základní právo na přístup ke spravedlnosti se totiž stává účinným teprve tehdy, když mají strany rovné nástroje k tomu, aby se mohly před soudem obhájit.“

Na Twitteru pak podpořil i další příklady využití nové směrnice. Má jít o situace, kdy například dron doručující balík svým nákladem někomu rozbije okno, anebo kdy někoho zraní robotický vysavač.

Soud bude moci nařídit poskytnutí důkazů

I druhá sada pravidel má zjednodušit vymáhání nároku a poškozeným dát přístup k potřebným důkazům. Mají mít možnost soudu navrhnout, aby nařídil zpřístupnění informací o vysoce rizikových systémech AI. Poškozený by tak mohl nahlédnout pod ruce vývojářům a dostat se k cenným podkladům, které mohou ukázat na viníka: mohl by třeba identifikovat osobu, která by mohla být shledána odpovědnou, a zjistit, kde se stala chyba. Na druhou stranu se i na toto zveřejnění bude vztahovat přiměřená záruka na ochranu citlivých informací, jako je obchodní tajemství.

Radim Polčák (MUNI): Evropská komise říká, že každé použití AI je problém. To je chyba Přečtěte si také:

Radim Polčák (MUNI): Evropská komise říká, že každé použití AI je problém. To je chyba

Právník John Buyers, vedoucí oddělení AI u mezinárodní advokátní kanceláře Osborne Clarke, poukazuje na to, že pokud se dokumentace bude moci takto snadno dostat do rukou nespokojených žalobců, ovlivní to způsob, jakým jsou tyto texty psány. „Není pochyb o tom, že přinejmenším u aplikací klasifikovaných jako vysoce rizikové budou tvůrci muset zvažovat, jak zákon dodržet, a přitom ochránit svoje zájmy,“ říká.

Návrh směrnice připouští dosavadní „roztříštěnost pravidel, jakými se jednotlivé členské státy při vyřizování nároků řídí“, a proto je potřebný harmonizovaný právní rámec. Pokud se podíváme na tuzemskou právní úpravu, zrovna tato část evropské direktivy (na rozdíl od prve zmíněného odlehčení důkazního břemene) žádný hmatatelnější užitek nepřináší. Žalující strana má už teď v Česku možnost označit důkaz, který není v jejím držení, a nechat na soudu, aby si ho od žalovaného nebo třetí osoby vyžádal. Předpokládá to však alespoň elementární znalost toho, jaké systémy jsou v zařízení používány a který z nich by mohl být v nepořádku.

Regulace robotů Brusel láká

Návrh směrnice je nejnovějším pokusem evropských úředníků regulovat AI a nastavit standard, podle kterého se budou tyto technologie kontrolovat. Iniciativa přichází v době, kdy je v běhu projednávání návrhu Artificial Intelligence Act (AIA), tedy evropského nařízení, které významně omezí případy, kdy bude možné přistoupit k automatizovanému rozpoznávání obličejů, nasadit systém bodování sociálního statusu, jaký používá třeba Čína, nebo nechat umělou inteligenci rozhodovat o tom, komu udělit víza nebo nárok na sociální dávky.

Loni v dubnu představené evropské nařízení AIA zakazuje ty systémy umělé inteligence, které představují jasnou hrozbu pro bezpečnost, živobytí a práva lidí. Nerespektování pravidel pak znamená hrozbu vysokých pokut, a to až do výše 6 % celosvětového obratu. Pro největší technologické společnosti je toto riziko vyčíslitelné v řádech miliard eur.

Aby bylo možné určit, jak moc které systémy a aplikace škodí, zavádí AIA jejich kategorizaci. Do zakázané skupiny „nepřijatelného rizika“ spadají ty aplikace, které manipulují s lidským chováním s cílem obejít svobodnou vůli uživatelů.

Aplikace ve vysoce rizikové kategorii principiálně vyloučené nejsou, před jejich nasazením je však nutné splnit celou řadu podmínek. Do této skupiny patří sektor vzdělávání, zaměstnanost, finance nebo vymáhání práva. Tím pádem by například program pro třídění životopisů při náboru zaměstnanců nebo systém hodnocení bonity u bankovních úvěrů musely prokázat přesnost a spravedlnost, vést záznamy o všech svých činnostech a mít odpovídající lidský dohled.

BRAND24

Naprostá většina technologií umělé inteligence by ale spadala do kategorie s nízkým rizikem a platila by pro ně mnohem mírnější pravidla. Například chatboti v zákaznickém servisu bank nebo e-shopů by jen měli jednoduše dát najevo, že lidé komunikují se strojem. A jednoduché systémy, například spamfiltery rozřazující došlou poštu na základě strojového učení, by pak neměly omezení žádná.

Za fantastickou příležitost pro Evropu považuje AI předsedkyně Evropské komise Ursula von der Leyen. Podle ní si občané zaslouží technologie, kterým mohou důvěřovat. A proto je nutné stanovit vysoké standardy založené na různých úrovních rizika.

Byl pro vás článek přínosný?

Autor článku

Redaktor serveru Lupa.cz se zaměřením na telekomunikace, média, IT a právo. Dříve šéfredaktor Právního rádce a mluvčí Českého telekomunikačního úřadu.

Upozorníme vás na články, které by vám neměly uniknout (maximálně 2x týdně).