AI compliance není volitelný benefit. Je to klíčová konkurenční výhoda.

Právo nestíhá. Rizika spojená s AI rostou rychleji, než zákonodárci stíhají psát paragrafy. Firmy, které včas adaptují AI ruku v ruce se zvládnutím AI governance, si zajistí právní bezpečí, důvěru zákazníků, investorů a partnerů. Současná legislativa nestačí a pravděpodobně AI nikdy nedožene. Potřebujeme hlubší systém řízení AI rizik. Jenže, aby bylo možné rizika správně vyhodnotit a řídit, je potřeba porozumět tomu jak funguje AI a současně tomu, jak funguje právní řád. Je to podobné jako když chcete zhubnout. Bude potřeba si sem tam něco odepřít, i když je to hodně lákavé. Máme na to kuráž? 

AI není statický software. Je adaptivní, nepředvídatelná a někdy i nebezpečná

AI halucinuje. Možná si říkáte, že tohle je informace, kterou opravdu nepotřebujete číst znovu. Zkuste se ale někdy podívat na nepravdivé informace, které podobné nástroje generují optikou konkrétních lidí. ChatGPT například mylně obvinil jednoho norského uživatele z vraždy. Vy snad máte jistotu, že se vaše osoba neobjeví v poškozujících kontextech? 

AI není jako běžný program, který udělá přesně to, co naprogramujeme. AI systémy se učí, adaptují a mohou generovat nesprávné výsledky. Je to s podivem, ale v půlce roku 2025 se této skutečnosti stále ještě dokážeme divit. Stejně tak ale zcela dobrovolně a zdarma “krmíme” nástroje svými osobními údaji. Je potřeba si uvědomit, že vývojáři AI prioritizují dvě věci. Vliv a zisk. Bezpečnost? Uvidíme až vyděláme. 

AI risk management: Proč nestačí „předem napsané zákazy“

Evropská unie zvolila tzv. přístup založený na hodnocení rizik (EU AI Act). Zjednodušeně řečeno — zákon předem stanovuje, jaká AI je:

  • zakázaná,
  • vysoce riziková,
  • nízce riziková,
  • nebo spadá pod obecnou transparentnost.

Na papíře to vypadá logicky. Po prvním přečtení máte pocit, že to bude procházka růžovou compliance zahradou. Srážka s praxí ale odhalí nelítostný průchod džunglí, kde je užitečné vyzbrojit se mačetou. Co je důvod nedostatečnosti regulace AI? 

  • Časové zpoždění: Mezi návrhem zákona a jeho účinností může uplynout i několik let. Mezitím technologie uteče jinam. Přirozeně. O tento rozpor se nikdo nemusí účelově snažit. Tento proces se navíc bude neustále cyklicky opakovat a právo bude dýchavičně zaostávat za technologií. Průšvih nastává ve chvíli, kdy je adaptace na novou technologii rychlá a technologie sama o sobě pádí neuvěřitelným tempem. Ve srovnání s čím? Když lidstvo objevilo elektřinu trvalo roky než jsme si všichni mohli pohodlně rozsvítit. Internet už nabral rychlejších otáček. AI je z pohledu rychlosti adaptace doslova tsunami.  AI act stejně jako většina dnešního platného práva byla konstruována v době, kdy jsme plně nedokázali odhadovat rizika plynoucí z používání AI. Většina povinností AI Actu ještě ani nezačala platit, přesto víme, že řadu rizik AI Act vůbec nemá v pod kontrolou. A nadto je tady řada “skupin”, které volají po “zjednodušení regulace”. A tady bude potřeba důsledně rozlišit motivy takových požadavků. Škála totiž může být bohatá od “usnadníme výzkum a vývoj” po “chceme snadněji manipulovat s lidským vědomím”. 
  • Právní optimalizace: Právní a technické týmy firem dnes běžně „ohýbají“ design systému tak, aby nespadal do přísnějších kategorií — bez ohledu na to, zda riziko reálně existuje. Prací mnoha právníků se stává kategorizovat systémy směrem z high risku do nižších kategorií. Motivace je stará jako lidstvo samo. Ušetřit náklady na compliance. Je totiž jasné, že pokud váš systém spadne pod high risk, pak bude stát o dost více peněz než ten v limited risku. A budou tady celé týmy právníků, které společně s vývojem budou hledat kličky v tom, jak se z regulace vymanit. 

  • Svět není černobílý: Psychologická zranitelnost, digitální závislosti, nebo izolace nejsou jednoduše zákonem definovatelné, ale riziko pro ně je reálné. A tak až si vaše dítě bude replikovat kamaráda, který tady bude “vždy pro něj” a “vždy bude na jeho straně”, položte si otázku: Je to pokrok, za který bojujeme? Protože aplikace typu charakter.ai nebo Replika, mají potenciál zranit dětskou duši a nejen to. Algoritmus se sice “tváří” jako empatický, emotivní, ale ve skutečnosti není. Jenom statisticky přesně reaguje na data, která u uživateli má. Přesto z pohledu AI Actu pravděpodobně spadnou pod regulaci LIMITED risk, což znamená poměrně vágní pravidla ohledně transparentnosti. A víme, že celé týmy vývojářů pracují právě na tom, aby podobné aplikace byly co nejvíce přitažlivé a návykové. Je toto pokrok, který ta nežádoucí regulace brzdí? Kdo přesně ponese odpovědnost za mladé dívky v nejzranitelnějším věku, které se v důsledku manipulace s reálnými očekávání mohou sebepožkozovat? 

AI Governance: Co to vlastně je a proč ji potřebujeme

AI Governance je v jádru systém řízení odpovědnosti, bezpečnosti a etiky při vývoji a nasazování AI. Není to jen o regulaci, ale o celém ekosystému řízení rizik — zahrnuje:

  • identifikaci rizik u konkrétních aplikací,
  • nastavení interních kontrolních mechanismů,
  • odpovědnost za data a modely,
  • průběžný monitoring dopadů,
  • transparentnost vůči uživatelům.

AI Governance musí fungovat jak u velkých platforem (OpenAI, Google, Hugging Face…), tak u firem, které si hotové modely stahují a integrují do svých produktů (tzv. Off-the-Shelf modely). Právě v těchto decentralizovaných řetězcích vznikají největší díry v odpovědnosti.

AI governance není luxus pro právníky. Je to nástroj na ochranu demokracie, lidské důstojnosti a zdravých společností v éře strojového rozhodování.