Hlavní navigace

Umělá inteligence jako riziko. Evropská komise představila, jak chce regulovat AI

Sdílet

David Slížek 21. 4. 2021

Zákaz AI technologií manipulujících lidské chování nebo počítajících tzv. sociální skóre obyvatel, certifikace tzv. vysoce rizikových AI systémů či vznik nové Evropské rady pro umělou inteligenci. To mimo jiné obsahuje návrh nového nařízení o pravidlech pro používání technologií založených na tzv. umělé inteligenci (Artificial Intelligence Act), který dnes představila Evropská komise.

Nařízení má podle Komise přinést jednotná evropská pravidla pro používání AI technologií napříč všemi obory. Povinnost se jimi řídit mají mít všichni (tedy i mimoevropští)  provozovatelé AI systémů, pokud jejich používání ovlivňuje osoby nacházející se v EU.

Návrh počítá s úplným zákazem technologií představujících tzv. nepřijatelné riziko: „Patří sem systémy nebo aplikace UI, které manipulují s lidským chováním s cílem obejít svobodnou vůli uživatelů (např. hračky s hlasovým asistentem, který navádí nezletilé k nebezpečnému chování), a systémy, které umožňují vládám provádět tzv. ‚sociální hodnocení‘,“ vysvětluje Komise.

Definuje pak také systémy s tzv. vysokým rizikem, které mají být povoleny jen v případě, že úspěšně projdou posouzením rizik a splní požadavky Komise na kvalitu používaných dat, technickou dokumentaci, vedení záznamů, lidského dohledu, transparentnosti, kybernetické bezpečnosti a další.

Mezi vysoce rizikové systémy návrh řadí například AI aplikace na biometrickou identifikaci či kategorizaci osob, systémy sloužící jako automatizované zabezpečení kritické infrastruktury, kreditní systémy hodnotící, zda občan může nebo nemůže získat půjčku, systémy, které mohou určovat přístup občanů ke vzdělávání a jejich profesní směřování (např. hodnocení zkoušek) a další.

Návrh výslovně zakazuje bezpečnostním složkám používání systémů pro biometrickou identifikaci v reálném čase na veřejných místech (tedy například využívání tzv. chytrých bezpečnostních kamer s rozpoznáváním obličejů). Komise ovšem počítá s výjimkami „např. pokud je to nezbytně nutné k pátrání po pohřešovaném dítěti, k zabránění konkrétnímu a bezprostřednímu teroristickému ohrožení nebo k odhalení, nalezení, identifikaci nebo stíhání pachatele nebo podezřelého ze závažného trestného činu.“ 

Jaké dopady by návrh mohl mít na výzkum a vývoj AI aplikací v Evropě? Přečtěte si komentář Jana KleslyEU chce tvrdě zregulovat umělou inteligenci. Doplatit na to mohou startupy.

Další detaily si můžete přečíst v kompletním textu návrh nařízení (v angličtině).

Našli jste v článku chybu?