V Evropské unii vstoupí druhého srpna letošního roku v platnost nová pravidla zabývající se transparentností takzvané umělé inteligence. Bude nutné označovat obsah generovaný velkými jazykovými modely (LLM), informovat o deepfakes a upozorňovat uživatele, že komunikují s AI. Cílem je snížit riziko zneužití této technologie, manipulace, klamavého obsahu, podvodů a tak dále.
Nová opatření jsou součástí regulace Akt o umělé inteligenci (AI Act). Jeho jednotlivé začínají platit postupně, některé části se i díky aktivitě České republiky podařilo zmírnit či odložit.
Jana Vorlíček Soukupová z advokátní kanceláře Dentons situaci shrnula takto:
Nová pravidla se týkají především generativní umělé inteligence, tedy systémů, které vytvářejí texty, obrázky, audio nebo video obsah. Mají zajistit, aby bylo jasně rozpoznatelné, kdy byl obsah vytvořen člověkem a kdy algoritmem. AI dokáže vytvořit obsah, který je od reality téměř nerozpoznatelný. Regulace proto zavádí jednoduchý princip – lidé mají právo vědět, kdy byl obsah vytvořen umělou inteligencí nebo kdy komunikují s AI namísto člověka.
Podle nových pravidel musí poskytovatelé AI systémů (například OpenAI) zajistit, aby veškeré výstupy – texty, obrázky, audio nebo video – obsahovaly strojově čitelné označení, že byly vytvořeny či upraveny umělou inteligencí. Typicky půjde o metadata, digitální vodoznaky, kryptografické značky nebo jiné technické identifikátory, vložené přímo do souboru. Technické označení je klíčové. Umožní, aby sociální sítě, vyhledávače a nástroje pro ověřování obsahu, média i další digitální platformy automaticky rozpoznaly, že byl obsah vytvořen umělou inteligencí.
Vedle technického označování bude od srpna 2026 zavedena také povinnost viditelného označení výstupů pro koncové uživatele. Některým subjektům zavádějícím AI systémy vzniká povinnost tyto výstupy řádně, jasně a rozpoznatelně označit. Platí to zvlášť pro takzvané deepfakes, napodobeniny skutečných osob či událostí vytvořené umělou inteligencí, stejně jako pro obsah určený k informování veřejnosti. Pravidla, jak obsah označit, se v současné době finalizují, lze však očekávat, že půjde o vizuální ikony, textová označení, slovní upozornění, případně o sdělení v titulcích.
Další změna se dotkne interaktivních systémů, jako jsou chatboti či virtuální asistenti. Pokud člověk s AI systémem komunikuje, musí na to být hned při první interakci jasně upozorněn. Transparentnost je základní podmínkou důvěry v digitálním prostředí. Uživatel by se nikdy neměl ocitnout v situaci, kdy si myslí, že komunikuje s člověkem, ale odpovídá mu algoritmus.
Povinnost transparentnosti ukládá vývojářům, dodavatelům a provozovatelům AI systémů článek 50 nařízení Evropské unie o umělé inteligenci (AI Act), přijatého v roce 2024. Pravidla pro detekci a identifikaci AI generovaného obsahu včetně deepfakes a komunikace s chatboty vstoupí v účinnost počátkem srpna 2026. Evropská komise proto připravuje Kodex správné praxe pro transparentnost obsahu generovaného umělou inteligencí, který má pomoci tyto povinnosti prakticky naplnit a definitivně má být představen v červnu 2026.
Druhý návrh kodexu, zveřejněný v polovině března, definuje mimo jiné technické standardy pro označování AI obsahu, jako jsou metadata nebo digitální vodoznaky. Kodex má dvě části. První obsahuje pravidla pro poskytovatele AI systémů týkající se detekce a označování AI generovaného obsahu. V druhé části jsou pak pokyny pro označování deepfaků adresované subjektům zavádějící AI systémy.
Jedním ze základních principů kodexu je vícevrstvé označování AI generovaného obsahu pro poskytovatele AI systémů, tedy používání více technik dohromady. Kromě toho by poskytovatelé měli uživatelům dát k dispozici nástroje pro detekci AI generovaného nebo manipulovaného obsahu. Pro označovaní deepfake obsahu pak kodex navrhuje zavedení “AI” ikony.