Bletchleyská deklarace: Vyjádření ČAUI ke globální snaze o zajištění bezpečnosti umělé inteligence

Nedávno proběhlý AI Safety Summit přináší dohodu předních států v oblasti AI včetně EU ustanovující společný přístup k příležitostem a rizikům spojeným s AI. Co obsahuje znění tzv. Bletchley Declaration a co znamená pro Českou republiku?

Dohoda o mezinárodní spolupráci v oblasti AI

Poprvé se 28 zemí svolaných Velkou Británií včetně USA, EU a Číny dohodlo na příležitostech, rizicích a potřebě mezinárodní akce ohledně AI systémů, u kterých čelíme nejnaléhavějším a nejnebezpečnějším rizikům.

Bletchleyská deklarace adresuje potřebu porozumět a společně zvládnout potenciální rizika prostřednictvím nového společného globálního úsilí, aby se zajistilo, že je umělá inteligence vyvíjena a nasazována bezpečným a odpovědným způsobem. Deklarace splňuje klíčové cíle summitu ve stanovení společné dohody a odpovědnosti ohledně rizik, příležitostí a procesu pro mezinárodní spolupráci ohledně bezpečnosti a výzkumu, zvláště prostřednictvím větší vědecké spolupráce.

Deklarace také slibuje podporu rozvoje dovedností a inovací a podporu odvětví AI prostřednictvím udržitelného růstu a řízení, což je důležité pro budoucnost pracovních míst a ekonomiky. Premiér Spojeného království Rishi Sunak řekl: „Vítězství ve druhé světové válce by nebylo možné bez průkopnického výzkumu a inovací, které probíhaly právě zde v Bletchley Parku. Dnes jsme se zavázali udržet tento duch inovace při rozvoji nových technologií, jako je AI, ale s jistotou, že je to v bezpečí a prospěch všech.“

Bletchley Park, místo, kde se summit uskutečnil, je historicky známý jako centrum britského dešifrování kódů během druhé světové války a nyní slouží jako muzeum a památník inovací ve vědě a technologii.

Vyjádření České asociace umělé inteligence

Jako Česká asociace umělé inteligence považujeme deklaraci za důležitý milník v globální spolupráci a ve snaze minimalizovat rizika spojená s AI, avšak současně zdůrazňujeme, že se jedná pouze o první krok.

Výzvy spojené s AI jsou multidimenzionální a vyvíjejí se stejně rychle jako technologie samotná. Vzhledem k tomu, že AI proniká do všech sfér našeho života, od zdravotnictví po vzdělávání a bezpečnost, je nezbytné, aby deklarace byla podložena konkrétními a smysluplnými opatřeními. To zahrnuje vytvoření standardů transparentnosti, odpovědnosti a regulace, které jsou nezbytné pro budování důvěry veřejnosti a zajištění, že benefity AI budou dostupné všem občanům rovnoměrně.

Dále je zásadní podporovat otevřený dialog mezi vývojáři AI, uživateli, etickými odborníky a legislativci, aby bylo možné předvídat a řešit nová rizika. Česká asociace umělé inteligence je připravena podílet se na tomto dialogu a aktivně přispět k formulaci konkrétních doporučení a postupů, které povedou k bezpečnějšímu a inkluzivnějšímu využívání AI.

Vyzýváme proto všechny zainteresované strany, aby se připojily k našemu závazku a pracovaly na vytváření udržitelného a eticky zodpovědného AI prostředí, které bude sloužit k dobru všech. Deklarace je důležitým východiskem, ale teprve soustavná a koordinovaná práce v nadcházejících letech ukáže, jak efektivně dokážeme čelit výzvám, které AI přináší.

Český překlad Bletchleyské deklarace

Česká asociace umělé inteligence vám přináší český strojový překlad originálního znění deklarace:

Umělá inteligence (AI) představuje obrovské globální příležitosti: má potenciál proměnit a podpořit blahobyt, mír a prosperitu. Abychom si to uvědomili, prohlašujeme, že pro dobro všech by umělá inteligence měla být navržena, vyvinuta, nasazena a používána způsobem, který je bezpečný, tak, aby byla zaměřena na člověka, byla důvěryhodná a zodpovědná. Vítáme dosavadní úsilí mezinárodního společenství o spolupráci v oblasti umělé inteligence za účelem podpory inkluzivního hospodářského růstu, udržitelného rozvoje a inovací, ochrany lidských práv a základních svobod a posílení důvěry veřejnosti v systémy umělé inteligence, aby bylo možné plně využít jejich potenciál.

Systémy umělé inteligence jsou již nasazeny v mnoha oblastech každodenního života včetně bydlení, zaměstnání, dopravy, vzdělávání, zdraví, dostupnosti a spravedlnosti, a jejich využívání pravděpodobně poroste. Uvědomujeme si, že toto je jedinečný okamžik k jednání a potvrzení potřeby bezpečného rozvoje AI a transformačních příležitostí AI, které mají být využívány pro dobro a pro všechny, inkluzivním způsobem v našich zemích i na celém světě. To zahrnuje veřejné služby, jako je zdravotnictví a vzdělávání, bezpečnost potravin, ve vědě, čistá energie, biologická rozmanitost a klima, k realizaci požívání lidských práv a posílení úsilí o dosažení cílů udržitelného rozvoje OSN.

Vedle těchto příležitostí představuje AI také významná rizika, a to i v těchto oblastech každodenního života. Za tímto účelem vítáme příslušné mezinárodní úsilí o zkoumání a řešení potenciálního dopadu systémů umělé inteligence na stávajících fórech a dalších relevantních iniciativách. Je třeba se zabývat lidským dohledem, etikou, zmírňováním zkreslení, ochranou soukromí a údajů. Uvědomujeme si také možnost nepředvídaných rizik vyplývajících ze schopnosti manipulovat s obsahem nebo vytvářet klamavý obsah. Všechny tyto problémy jsou kriticky důležité a my potvrzujeme nezbytnost a naléhavost jejich řešení.

Zvláštní bezpečnostní rizika vznikají na „pomezí“ umělé inteligence, přičemž se jedná o vysoce schopné univerzální modely umělé inteligence včetně základních modelů, které by mohly provádět širokou škálu úkolů – stejně jako relevantní specifické úzké umělé inteligence, které by mohly vykazovat schopnosti způsobující poškození – které odpovídají nebo překračují schopnosti současných nejpokročilejších modelů. Značná rizika mohou vyplynout z potenciálního úmyslného zneužití nebo nezamýšlených problémů s kontrolou souvisejících se sladěním s lidskými záměry. Tyto problémy jsou částečně způsobeny tím, že tyto schopnosti nejsou plně pochopeny, a proto je těžké je předvídat. Obzvláště jsme znepokojeni takovými riziky v oblastech, jako je kybernetická bezpečnost a biotechnologie, a také tam, kde mohou hraniční systémy umělé inteligence zesilovat rizika, jako jsou dezinformace. Existuje potenciál pro vážné, dokonce katastrofické poškození, ať už úmyslné nebo neúmyslné, pramenící z nejvýznamnějších schopností těchto modelů AI . Vzhledem k rychlému a nejistém tempu změn umělé inteligence a v souvislosti se zrychlením investic do technologií prohlašujeme, že prohloubení našeho porozumění těmto potenciálním rizikům a opatřením k jejich řešení je obzvláště naléhavé.

Mnoho rizik vyplývajících z umělé inteligence má ze své podstaty mezinárodní charakter, a proto je nejlépe řešit mezinárodní spolupráci. Rozhodli jsme se spolupracovat inkluzivním způsobem, abychom zajistili AI zaměřenou na člověka, důvěryhodnou a odpovědnou, která je bezpečná a podporuje dobro všech prostřednictvím stávajících mezinárodních fór a dalších relevantních iniciativ, abychom podpořili spolupráci při řešení široké škály rizik, která představují AI. Uvědomujeme si přitom, že země by měly zvážit význam proinovačního a přiměřeného přístupu k řízení a regulaci, který maximalizuje přínosy a zohledňuje rizika spojená s AI. To by mohlo zahrnovat, kde je to vhodné, klasifikaci a kategorizaci rizik na základě vnitrostátních okolností a příslušných právních rámců. Všímáme si také důležitosti spolupráce tam, kde je to vhodné, na přístupech, jako jsou společné zásady a kodexy chování. S ohledem na specifická rizika s největší pravděpodobností zjištěná v souvislosti s hraniční umělou inteligencí jsme se rozhodli zintenzivnit a udržet naši spolupráci a rozšířit ji s dalšími zeměmi, abychom ji identifikovali, porozuměli a podle potřeby zakročili prostřednictvím stávajících mezinárodních fór a dalších relevantních iniciativ, včetně budoucí mezinárodní summity o bezpečnosti umělé inteligence.

Všichni aktéři mají hrát roli při zajišťování bezpečnosti AI: státy, mezinárodní fóra a další iniciativy, společnosti, občanská společnost a akademická obec budou muset spolupracovat. Uvědomujeme si důležitost inkluzivní umělé inteligence a překlenutí digitální propasti a znovu potvrzujeme, že mezinárodní spolupráce by měla usilovat o zapojení a zapojení široké škály partnerů podle potřeby a vítáme přístupy a politiky zaměřené na rozvoj, které by mohly pomoci rozvojovým zemím posílit budování kapacit umělé inteligence a využívat role umělé inteligence při podpoře udržitelného růstu a řešení mezery v rozvoji.

Prohlašujeme, že ačkoli bezpečnost musí být zvažována v průběhu celého životního cyklu umělé inteligence, aktéři vyvíjející schopnosti umělé inteligence, zejména ty systémy umělé inteligence, které jsou neobvykle výkonné a potenciálně škodlivé, mají obzvláště silnou odpovědnost za zajištění bezpečnosti těchto systémů umělé inteligence, a to i prostřednictvím systémů pro testování bezpečnosti, prostřednictvím hodnocení a dalších vhodných opatření. Vyzýváme všechny relevantní aktéry, aby zajistili transparentnost a odpovědnost přiměřenou kontextu ve svých plánech na měření, sledování a zmírňování potenciálně škodlivých schopností a souvisejících účinků, které se mohou objevit, zejména aby se zabránilo zneužití a problémům s kontrolou a zesílením dalších rizik.

V souvislosti s naší spoluprací a pro informování opatření na národní a mezinárodní úrovni se naše agenda pro řešení rizika hraniční AI zaměří na:

  • Identifikace bezpečnostních rizik umělé inteligence se společným zájmem, budování sdíleného vědeckého a na důkazech podloženého chápání těchto rizik a udržování tohoto porozumění, jak se schopnosti neustále zvyšují, v kontextu širšího globálního přístupu k pochopení dopadu umělé inteligence v našich společnostech .
  • Vytváření příslušných politik založených na rizicích v našich zemích, abychom zajistili bezpečnost ve světle takových rizik, vhodnou spoluprací a zároveň si uvědomujeme, že naše přístupy se mohou lišit v závislosti na vnitrostátních podmínkách a příslušných právních rámcích. To zahrnuje spolu se zvýšenou transparentností ze strany soukromých subjektů vyvíjejících schopnosti umělé inteligence vhodné metriky hodnocení, nástroje pro testování bezpečnosti a rozvoj příslušných schopností veřejného sektoru a vědeckého výzkumu.

Při prosazování této agendy jsme se rozhodli podporovat mezinárodně inkluzivní síť vědeckého výzkumu o bezpečnosti hraniční umělé inteligence, která zahrnuje a doplňuje stávající a novou mnohostrannou, vícestrannou a dvoustrannou spolupráci, mimo jiné prostřednictvím stávajících mezinárodních fór a dalších relevantních iniciativ, s cílem usnadnit poskytování nejlepších vědeckých poznatků pro tvorbu regulací a veřejné blaho.

V uznání transformačního pozitivního potenciálu umělé inteligence a v rámci zajištění širší mezinárodní spolupráce v oblasti umělé inteligence jsme se rozhodli udržovat inkluzivní globální dialog, který zapojí stávající mezinárodní fóra a další relevantní iniciativy a přispěje otevřeným způsobem k širším mezinárodním diskusím, a pokračovat ve výzkumu bezpečnosti umělé inteligence, aby bylo zajištěno, že výhody této technologie lze zodpovědně využít k dobru a pro všechny. Těšíme se na další setkání v roce 2024.

Odkazy na „vlády“ a „země“ zahrnují mezinárodní organizace jednající v souladu se svými legislativními nebo výkonnými pravomocemi.