Bezpečnost AI jako globální priorita? Je tady International AI Safety Report 2026

V únoru 2026 byla zveřejněna druhá Mezinárodní zpráva o bezpečnosti umělé inteligence (International AI Safety Report 2026). Jde o dosud nejrozsáhlejší a nejkomplexnější vědecké hodnocení schopností a rizik obecně použitelných systémů umělé inteligence, tzv. general-purpose AI. Zpráva vznikla na základě mandátu světových lídrů z AI Safety Summitu v britském Bletchley Parku a navazuje na první vydání z roku 2025.

Na přípravě zprávy se podílelo více než sto předních odborníků z oblasti umělé inteligence, bezpečnosti, ekonomie, práva a společenských věd. Odborný poradní panel tvořili nominanti z více než třiceti států a mezinárodních organizací, včetně Evropské unie, OECD a OSN. Vedením celého procesu byl pověřen Yoshua Bengio, jeden z nejrespektovanějších světových výzkumníků v oblasti AI a držitel Turingovy ceny. Rozsahem, hloubkou analýzy i mezinárodní participací jde o největší globální spolupráci na téma bezpečnosti umělé inteligence v historii.

Proč zpráva vznikla a čím je výjimečná

Vývoj umělé inteligence postupuje mimořádně rychlým tempem. Schopnosti dnešních systémů se zlepšují rychleji, než je společnost schopna systematicky sbírat a vyhodnocovat důkazy o jejich dopadech. Autoři zprávy tento stav popisují jako tzv. dilema důkazů. Pokud se politická rozhodnutí přijímají příliš brzy, hrozí neefektivní nebo dokonce kontraproduktivní zásahy. Pokud se naopak čeká na jednoznačná data, může být společnost vystavena závažným rizikům.

Cílem zprávy proto není navrhovat konkrétní regulace ani politická opatření. Jejím hlavním smyslem je vytvořit společný, vědecky podložený základ pro informované rozhodování vlád, institucí, firem i veřejnosti. Zásadním rozdílem oproti běžným AI analýzám je důraz na syntézu existujících poznatků, transparentní pojmenování nejistot a identifikaci oblastí, kde chybí data a další výzkum je nezbytný.

Oproti prvnímu vydání se zpráva více soustředí na tzv. emerging risks, tedy rizika vznikající na samotné hranici schopností nejpokročilejších AI systémů. Vědomě se tak zaměřuje na oblasti s vysokou mírou nejistoty, ale potenciálně velmi vysokým dopadem.

Co dnes general-purpose AI skutečně dokáže

Zpráva potvrzuje, že nejvyspělejší systémy umělé inteligence dnes dosahují nebo překračují expertní úroveň v řadě oblastí. Patří mezi ně matematika, programování, přírodní vědy, práce s jazykem i multimodální úlohy kombinující text, obraz, video a zvuk. Významným trendem posledních let je rozvoj tzv. AI agentů, tedy systémů schopných s omezeným dohledem samostatně plánovat, rozhodovat se a vykonávat úkoly.

Současně však zpráva zdůrazňuje, že schopnosti AI nejsou rovnoměrné. Výkon systémů je často „zubatý“. Modely mohou excelovat ve velmi složitých úlohách, ale selhávat v relativně jednoduchých situacích. Přetrvávají problémy s nespolehlivostí výstupů, halucinacemi, dlouhodobým plánováním a porozuměním reálnému fyzickému světu.

Autoři upozorňují také na to, že významná část pokroku již není dána pouze zvětšováním modelů, ale post-training technikami, lepším využitím výpočetního výkonu při samotném používání modelů a rozvojem tzv. reasoning systémů, které pracují s vícekrokovým uvažováním.

Tři hlavní skupiny rizik

Zpráva systematicky rozděluje rizika spojená s general-purpose AI do tří hlavních kategorií.

První skupinou jsou rizika zneužití. Patří sem využívání AI pro podvody, phishing, generování manipulativního obsahu, kybernetické útoky nebo asistenci při hledání zranitelností v softwarech. Zvláštní pozornost je věnována oblasti biologických a chemických rizik, kde některé AI systémy mohou poskytovat informace, které by při nesprávném použití mohly výrazně snížit bariéry pro nebezpečné aktéry.

Druhou skupinou jsou rizika selhání a ztráty kontroly. S rostoucí autonomií AI agentů se zvyšuje obtížnost jejich dohledu. Zpráva upozorňuje na rizika spojená s nepředvídatelným chováním systémů, selháními v kritických aplikacích a situacemi, kdy lidé ztrácejí schopnost včas a efektivně zasáhnout. Významným problémem je také skutečnost, že systémy se mohou chovat jinak v testovacím prostředí než v reálném nasazení.

Třetí kategorií jsou systémová rizika. Ta se týkají dlouhodobých a plošných dopadů na společnost a ekonomiku. Zahrnují transformaci trhu práce, zejména u znalostních profesí, oslabení lidské autonomie a kritického myšlení nebo koncentraci technologické moci a know-how u omezeného počtu globálních aktérů. Empirická data jsou v těchto oblastech zatím nejednoznačná, ale potenciální dopady jsou natolik významné, že je nelze ignorovat.

Jak řídit rizika umělé inteligence

Jedním z klíčových závěrů zprávy je, že neexistuje jediné opatření, které by rizika spojená s AI vyřešilo. Efektivní přístup musí kombinovat více vrstev ochrany. Patří mezi ně technické evaluace schopností a hrozeb, interní bezpečnostní rámce vývojářů, monitoring incidentů, sdílení informací mezi institucemi a systematické budování společenské a institucionální odolnosti.

Zvláštní pozornost je věnována otevřeným modelům s volně dostupnými vahami. Ty přinášejí významné inovační a výzkumné přínosy, ale zároveň výrazně komplikují dohled, kontrolu a možnost zpětného omezení jejich zneužití.

Zpráva zároveň otevřeně přiznává limity současných přístupů k řízení rizik a zdůrazňuje potřebu dalšího výzkumu, lepších evaluačních metod a posilování kapacit veřejných institucí.

Význam pro Českou republiku a Evropu

Mezinárodní AI Safety Report 2026 představuje důležitý referenční rámec i pro Českou republiku. Je relevantní pro implementaci evropské regulace umělé inteligence, tvorbu národních AI strategií i pro širší veřejnou debatu o tom, jak sladit inovace, konkurenceschopnost a bezpečnost.

„Závěry International AI Safety Report 2026 ukazují, že rizika spojená s nejpokročilejšími AI systémy už nejsou hypotetická, ale postupně se materializují. Zpráva zároveň upozorňuje na zásadní mezeru mezi technologickým vývojem a schopností států tato rizika systematicky řídit. Pro Českou republiku je to jasný signál, že bez investic do kapacit a institucionální připravenosti nebude možné dlouhodobě využívat potenciál AI bezpečně ani konkurenceschopně,“ doplňuje Lukáš Benzl, ředitel České asociace umělé inteligence..

Mezinárodní AI Safety Report 2026 nenabízí jednoduchá řešení ani hotové politické recepty. Nabízí však něco zásadního: společný, vědecky podložený základ, na kterém mohou vlády, firmy, akademická sféra i občanská společnost stavět informovaná rozhodnutí o budoucnosti umělé inteligence.

V době, kdy se AI stává jednou z klíčových technologií 21. století, je právě takováto globální shoda jedním z nejcennějších nástrojů, které dnes máme.