Označování AI generovaného obsahu: Druhý návrh kodexu zásad otevírá poslední kolo připomínek

Evropská komise zveřejnila druhý návrh Code of Practice on Transparency of AI-Generated Content. Jeho cílem je usnadnit organizacím naplnění povinností, které nařízení AI Act zavádí v oblasti označování syntetického obsahu a deepfaků.
Jedná se o dobrovolné pokyny, které mají organizacím pomoci prakticky naplnit požadavky stanovené v článku 50 AI Actu. Podepsání a dodržování kodexu může sloužit také jako jeden z nástrojů, jak prokázat soulad s legislativou. Pravidla pro označování AI obsahu budou v celé EU účinná od 2. srpna 2026.
Oproti první verzi, zveřejněné na konci minulého roku, druhý draft kodexu přináší podrobnější pravidla a posouvá dokument od obecného rámce ke konkrétnějším technickým a organizačním opatřením.
Zveřejněná verze je zatím pracovním návrhem. Evropská komise nyní sbírá zpětnou vazbu od zainteresovaných aktérů a finální podoba kodexu se může na základě připomínek ještě dále upravovat.
Dvě různé povinnosti označování: AI obsah a deepfaky
AI Act zavádí dvě odlišné povinnosti označování, které se v praxi často zaměňují. Jedna se týká poskytovatelů AI systémů, druhá subjektů, které publikují deepfaky.
Povinnosti poskytovatelů AI systémů
První povinnost se vztahuje na poskytovatele generativních AI systémů, tedy firmy vyvíjející nástroje, jako jsou například generátory textu, obrázků nebo videa.
Tyto společnosti musí zajistit, aby výstupy jejich systémů byly rozpoznatelné jako uměle vytvořené. V praxi půjde typicky o technická řešení. Odpovědnost za tuto formu označení tak leží na poskytovatelích technologií, nikoli na běžných uživatelích.
Tuto povinnost stanovuje článek 50, odstavec 2 AI Actu.
Povinnosti při publikování deepfaků
Druhá povinnost se týká subjektů, které vytvářejí a zveřejňují deepfake obsah. Deepfakem se rozumí obrazový, zvukový nebo video obsah vytvořený nebo upravený pomocí AI, který se podobá reálným osobám, místům nebo událostem a může působit jako autentický.
V těchto případech musí být obsah viditelně označen pro lidské publikum jako AI generovaný, například pomocí textového upozornění nebo jiného jasného označení.
Povinnost označovat deepfaky se však vztahuje pouze na použití AI v rámci profesní nebo podnikatelské činnosti a nevztahuje se na čistě osobní či neprofesionální použití.
Tuto povinnost stanovuje článek 50, odstavec 4 AI Actu.
Pokyny pro poskytovatele generativních AI systémů
Pro vývojáře generativních systémů kodex definuje technický rámec, jak zajistit, aby byl jejich výstup rozpoznatelný jako syntetický.
Vícevrstvové označování AI obsahu
Základním principem je vícevrstvové označování (multi-layered marking). Protože žádná metoda není stoprocentní, poskytovatelé mají kombinovat více technických způsobů označení.To je zásadní posun oproti prvnímu draftu.
Kodex zmiňuje zejména:
- metadata s informací o původu obsahu a digitálním podpisem,
- neviditelné digitální vodotisky (watermarking) vložené přímo do obsahu,
- případně také fingerprinting nebo logging, tedy ukládání charakteristických otisků obsahu, které umožní zpětně ověřit, zda byl vytvořen konkrétním AI systémem.
Poskytovatelé by zároveň měli usilovat o zachování těchto označení i při dalších úpravách obsahu a zakázat jejich úmyslné odstraňování v podmínkách používání systému.
Kodex dále doporučuje zaznamenávat řetězec původu obsahu (provenance), tedy historii toho, jak byl obsah generován nebo upravován, a umožnit uživatelům přidávat viditelné označení deepfaků přímo při generování obsahu.
Detekce AI obsahu
Vedle samotného označování se kodex věnuje také tomu, jak bude možné AI obsah ověřit a detekovat.
Poskytovatelé by měli zpřístupnit nástroje, které umožní ověřit, zda byl obsah vytvořen jejich systémem, například prostřednictvím detekčních nástrojů nebo API. Tyto mechanismy by měly být dostupné i třetím stranám, například online platformám nebo výzkumníkům. Detekční rozhraní a nástroje mají být z důvodu bezpečnosti a suverenity dat hostovány v rámci evropské infrastruktury.
Dokument také podporuje vývoj forenzních detekčních metod, které dokážou identifikovat AI obsah i v případě, že označení chybí. Detekční nástroje by přitom měly zůstat dostupné po celou dobu životního cyklu systému, a to i v případě, že poskytovatel ukončí svou činnost.
AI gramotnost a práce s detekčními nástroji
Kodex také zdůrazňuje význam AI gramotnosti. Poskytovatelé by měli poskytovat dokumentaci, návody nebo další materiály, které pomohou uživatelům pochopit, jak fungují nástroje pro označování a detekci AI obsahu a jak interpretovat jejich výsledky. Cílem je usnadnit práci s informacemi o původu obsahu a podpořit schopnost ověřovat jeho autenticitu.
Technické požadavky, testování a compliance
Kodex zároveň stanovuje obecné požadavky na kvalitu označovacích a detekčních mechanismů. Ty by měly být efektivní, spolehlivé, odolné vůči manipulaci a interoperabilní napříč různými platformami.
Poskytovatelé by proto měli zavést také interní procesy pro jejich průběžné ověřování. Dokument doporučuje například pravidelné testování označovacích technologií v reálných podmínkách, využívání benchmarků pro měření jejich spolehlivosti nebo vytvoření interního compliance frameworku, který popisuje používané metody označování a detekce.
Pokyny pro publikování deepfaků
Zatímco poskytovatelé řeší neviditelnou digitální stopu, zavádějící subjekty (firmy a profesionálové) mají povinnost zajistit, aby lidské publikum na první pohled poznalo, pokud je jejich obsah deepfake. Kodex v této části definuje standardy pro vizuální, zvukové i interaktivní označování.
Jednotný styl a AI ikona
Hlavním prvkem označení má být zkratka „AI“, případně jiné jasné označení informující, že obsah byl vytvořen nebo upraven pomocí umělé inteligence.
- Designové požadavky: Štítek musí být vysoce kontrastní (poměr minimálně 4.5:1) a čitelný. Kodex pracuje s návrhem jednotné „AI ikony“, která by měla být časem rozpoznatelná stejně jako například symbol recyklace.
- Interaktivita: Dokument zavádí koncept „vícevrstvého štítku“. První vrstva je prosté upozornění (např. ikona v rohu), zatímco druhá vrstva (např. po kliknutí nebo najetí myší) poskytne detailnější informace o tom, co konkrétně bylo upraveno.
Takto vypadají dva návrhy na jednotné AI ikony:


Pravidla podle typu média
Umístění a forma označení se liší podle toho, jaký obsah publikujete:
- Video: Označení musí být viditelné od samotného začátku a u delších formátů také během přehrávání. U videí v reálném čase (např. AI livestream) musí být štítek přítomen po celou dobu trvání přenosu.
- Audio: U zvukových stop musí zaznít jasné slovní upozornění v přirozeném jazyce, a to hned v úvodu nahrávky.
- Text: U článků informujících o věcech veřejného zájmu má být označení umístěno u nadpisu nebo na začátku dokumentu.
Specifika pro umění a redakční odpovědnost
Kodex pamatuje i na kreativní průmysl a svobodu slova:
- Umělecká a satirická díla: Označení by mělo být provedeno citlivě, aby nenarušilo umělecký prožitek (např. formou titulků na začátku či konci), ale stále musí být dostatečně jasné, aby nedošlo k oklamání veřejnosti.
- Výjimka pro text s lidským dohledem: Povinnost označovat text se nevztahuje na případy, kdy AI sloužila pouze jako asistent a výsledný text prošel důslednou lidskou redakční kontrolou. V takovém případě přebírá odpovědnost editor nebo vydavatel a text se nemusí označovat jako AI dílo.
Poslední kolo připomínek
Zveřejněná verze kodexu je stále pracovním návrhem, který se může na základě zpětné vazby ještě dále měnit. Evropská komise nyní sbírá připomínky od odborné veřejnosti, zástupců firem i dalších zainteresovaných aktérů.
Současná konzultace představuje poslední kolo připomínek před finalizací dokumentu.
Pokud máte k návrhu kodexu jakékoli připomínky nebo podněty, budeme rádi, když se o ně s námi podělíte. Česká asociace umělé inteligence bude zpětnou vazbu shromažďovat a předá ji Evropské komisi v rámci probíhající konzultace.
Připomínky je možné zasílat do 27. března na e-mail: mala@asociace.ai.
Plné znění návrhu kodexu si můžete přečíst tady.
