ČAUI varuje: Babička Libuška je umělá, ale rizika jsou skutečná

Na sociálních sítích se v posledních týdnech objevil profil vystupující pod jménem „Babička Libuška“. Profil publikuje videa a texty, které klidným, láskyplným a autoritativním tónem oslovují uživatele. Stylizací napodobuje skutečnou českou babičku z Českých Budějovic poskytující rady, povzbuzení a „životní pravdy“. Začátkem března sleduje profil na Instagramu přes 23,5 tis. uživatelů a na Facebooku přes 54 tisíc uživatelů.
V době, kdy syntetické persony zaplavují sociální sítě a AI generovaný obsah je nezřídka k nerozpoznání od reality, je vhodné na příkladu Babičky Libušky demonstrovat rizika generativní AI i možné etické výzvy. Nejde o morální paniku ani zákaz inovací. Jde o ochranu uživatelů, transparentnost a zachování důvěry v digitálním prostoru.
Co odhalila naše analýza obsahu a 2543 uživatelských komentářů na Instagramu a proč představuje zrovna Babička Libuška větší nebezpečí než běžné AI profily?
Většina uživatelů neví, že jde o AI
Třebaže jsou na platformě Instagram u příspěvků babičky tzv. „Informace o AI“, pouze 7,9 % komentujících explicitně zmiňuje, že profil je generovaný umělou inteligencí. To znamená, že více než 92 % reakcí se k postavě vztahuje, jako by šlo o skutečnou osobu.

Navíc se ukazuje, že povědomí o umělé povaze profilu v čase klesá. Čím déle profil funguje, tím méně uživatelé jeho syntetickou podstatu reflektují. Komentáře jsou převážně pozitivní nebo neutrální, negativní reakce jsou minimální. To naznačuje přenos důvěry a morální autority. Uživatelé přijímají sdělení jako bezpečné, hodnotné a lidské.
Vysoká důvěra publika
Část publika oslovuje profil osobně, sdílí vlastní emoce či zdravotní problémy, reaguje, jako by šlo o blízkou lidskou bytost. Tento jev odpovídá tzv. parasociální vazbě, jednostrannému vztahu k mediální postavě. V případě AI je však zesílen tím, že postava působí konzistentně, neomylně a vždy laskavě.
Profil funguje jako emocionální validátor („to je pravda“), zdroj uklidnění, symbol „morální autority“ nebo náhrada laskavé starší osoby.
Z jazykových vzorců lze vysledovat převahu ženských komentářů, časté oslovování „babičko“, osobní sdílení („já jsem…“, „moje babička…“) a emocionální otevřenost. Profil přitahuje mladší ženy, lidi hledající emoční podporu a lidi s nostalgickou vazbou na prarodiče.
Riziko budoucího zneužití
Pokud uživatelé ignorují, že komunikují s AI, nemohou se informovaně rozhodnout, jakou míru důvěry obsahu přisoudí. Transparentnost je základní podmínkou etického využívání umělé inteligence. Profil aktuálně vystupuje jako nositel „pravdy“ a morálního rámce, avšak bez jasně identifikovatelné odpovědnosti. Vytváří autoritu, která nepodléhá běžným společenským mechanismům kontroly.
Třebaže je současný obsah relativně „neškodný“, stejný profil může být použit v budoucnu pro komerční ovlivňování, politická sdělení nebo cílenou manipulaci zranitelných skupin.
Česká asociace umělé inteligence považuje za minimum odpovědného přístupu jasné a viditelné označení, že jde o AI postavu (v BIO, u každého příspěvku i ve videu), nepoužívání archetypů založených na důvěře (např. babička, terapeut, lékař) bez transparentního vysvětlení, určení odpovědné osoby nebo subjektu za obsah (třebaže majitele přidružené domény k profilu je v tomto případě možné dohledat), respekt k možným dopadům na zranitelné uživatele.
Babička Libuška v tom není sama
Případ „Babičky Libušky“ není izolovaným jevem. Ukazuje, jak rychle může vzniknout silná emocionální vazba k syntetické postavě a jak snadno může většina publika přestat řešit, že nejde o skutečného člověka. Nejde o konkrétní profil ani o jednu platformu. Jde o precedens.
Generativní umělá inteligence dnes dokáže napodobit hlas, tvář i lidskou moudrost s přesvědčivostí, která byla ještě před několika lety nepředstavitelná. Pokud však společnost nepřijme jasné standardy transparentnosti a odpovědnosti, může se důvěra (jeden z nejcennějších prvků veřejného prostoru) stát nástrojem manipulace.
Evropská unie již na tato rizika reaguje prostřednictvím nařízení EU AI Act, který zavádí mimo jiné povinnost transparentnosti u určitých typů AI systémů, včetně povinnosti informovat uživatele, že komunikují se strojově generovaným obsahem.
Česká asociace umělé inteligence proto vyzývá k pokračování otevřené debaty o pravidlech pro syntetické persony na sociálních sítích. Ne proto, abychom brzdili technologii, ale abychom chránili důvěřivé uživatele s mylným přesvědčením o lidské identitě profilu.
