Centrum pro digitalizaci a umělou inteligenci v justici

vzniklo s cílem zvýšit povědomí pracovníků v justici o otázkách souvisejících se zaváděním a užitím umělé inteligence a snahou eliminovat negativní vliv umělé inteligence na soudní procesy, zejména pokud jde o využití tzv. deepfakes.

Registrační formulář

Pracujete v justici a máte zájem zapojit se do činnosti Centra pro digitalizaci a umělou inteligenci v justici (CENDAI)? Stačí vyplnit jednoduchý registrační formulář a o zbytek se postaráme sami.

Otevřená iniciativa, kde se justice setkává s AI

Věříme, že iniciativa CENDAI přispěje k lepšímu a spravedlivému využití této nové technologie i v oblasti velice konzervativní, kterou justice je. Máme několik hlavních úkolů.

Řídící tým

Organizaci a chod centra zajišťuje řídící tým ve spolupráci s Českou asociací umělé inteligence

Roman Horáček
Roman Horáček Místopředseda pro civilní úsek - Vrchní soud v Praze, Katedra právních disciplín a veřejné správy - Metropolitní univerzita v Praze
Pavel Klíma
Pavel Klíma Vedoucí - Centrum srovnávacího veřejného a evropského práva (CSVEP), Katedra právních disciplín a veřejné správy - Metropolitní univerzita v Praze
Josef Kratochvíl
Josef Kratochvíl Předseda - Úřad průmyslového vlastnictví

Rizika využití AI v justici

Využití umělé inteligence (AI) při soudních řízeních přináší řadu rizik, která mohou ovlivnit spravedlnost, transparentnost a bezpečnost právního procesu. Mezi hlavní rizika patří:

  1. Předpojatost a diskriminace: AI se často učí na historických datech, která mohou obsahovat skryté předsudky. Pokud se algoritmus naučí z dat, která obsahují diskriminační vzorce (např. na základě rasy, pohlaví nebo socioekonomického statusu), může tyto předsudky reprodukovat nebo dokonce zesílit, což vede k nespravedlivým rozhodnutím.
  2. Nedostatek transparentnosti: Složitost algoritmů AI může způsobit, že jejich rozhodování je pro laiky, a dokonce i pro právníky, obtížně pochopitelné. Tento „black box“ efekt komplikuje ověření, zda rozhodnutí bylo učiněno spravedlivě a podle právních norem. Bez možnosti nahlédnout do procesu rozhodování je těžké vyhodnotit, zda je AI v konkrétním případě vhodným nástrojem.
  3. Chyby a neúplnost dat: Pokud AI pracuje s nepřesnými, neúplnými nebo zastaralými daty, výsledky mohou být nesprávné. V soudním prostředí mohou i malé chyby vést k vážným důsledkům, včetně nespravedlivých rozsudků.
  4. Etické otázky: Existuje debata o tom, zda je etické, aby rozhodování o osudech lidí bylo delegováno na stroje. Automatizované systémy nemusí chápat lidské emoce, kontext nebo morální dilemata, což může vést k mechanickým a neempativním rozhodnutím.
  5. Narušení soukromí: AI může zpracovávat velké množství osobních údajů, což vytváří riziko pro ochranu soukromí účastníků řízení. K narušení soukromí může dojít, pokud jsou tyto údaje nesprávně zpracovány, sdíleny nebo napadeny hackery.
  6. Závislost na technologii: Nadměrné spoléhání na AI může vést k degradaci kritického myšlení mezi právníky a soudci. Pokud právníci ztrácejí dovednosti samostatně analyzovat případy a spoléhat se na technologii, mohlo by dojít k poklesu kvality právní praxe.
  7. Právní odpovědnost: V případě chybného rozhodnutí vyvstává otázka odpovědnosti – kdo nese zodpovědnost za nesprávné rozhodnutí AI? Zda tvůrce algoritmu, jeho dodavatel nebo soudce, který na něj spoléhá?
  8. Právní a regulační nejasnosti: AI v soudnictví je relativně novým fenoménem a právní rámec kolem jeho využití často není dostatečně vyvinut. Absence jednotných standardů a norem může vést k nekonzistentnímu používání technologií v různých jurisdikcích, což ohrožuje rovnost přístupu ke spravedlnosti a komplikuje případné spory o zodpovědnost.
  9. Nedostatek lidského faktoru: Právní proces není jen o faktických informacích, ale také o porozumění lidským motivacím, emocím a morálnímu kontextu. AI může postrádat schopnost plně porozumět nuancím, které mohou být klíčové pro spravedlivý rozsudek, například při posuzování svědeckých výpovědí nebo v případech s etickými dilematy. Tento nedostatek lidského faktoru by mohl způsobit, že by AI přijímala rozhodnutí, která nejsou eticky nebo morálně vhodná.
  10. Kybernetická bezpečnost: S rostoucím množstvím údajů zpracovávaných AI se zvyšuje riziko jejich zneužití nebo kybernetického útoku. Citlivé údaje o účastnících soudního řízení jsou obzvláště ohrožené a jejich zneužití může mít vážné důsledky. Zajištění kybernetické bezpečnosti je proto klíčové, aby se předešlo kompromitaci důvěrných informací a manipulaci s rozhodovacím procesem AI.
  11. Překročení technologických možností: Někdy je AI přeceňována a nasazována do rolí, kde ještě není schopná správně plnit požadavky. Technologie nemusí být schopna reagovat na všechny právní či procesní výzvy. Překračování schopností AI může vést k nerealistickým očekáváním nebo k selhání v důležitých situacích.
  12. Riziko dehumanizace justice: Automatizace a technologie mohou vytvořit atmosféru odosobnění. Soudní řízení často zahrnují lidské tragédie a emočně náročné situace, kde je lidský přístup nezbytný. Plné spoléhání na AI by mohlo přispět k dehumanizaci procesu, kdy jsou lidé vnímáni pouze jako data a nikoli jako jednotlivci s jedinečnou situací.
  13. Potenciální dopady na důvěru veřejnosti: Důvěra veřejnosti v soudnictví je základním kamenem právního systému. Jakékoliv selhání AI v soudních řízeních by mohlo podkopat důvěru občanů v jeho nestrannost a spravedlnost. Vnímání technologie veřejností má proto zásadní vliv na její přijetí a případný odpor může vést k odmítání AI v právní praxi.

Pro zmírnění těchto rizik je důležité zajistit, aby byly AI systémy transparentní, podléhaly pravidelnému auditu a jejich výstupy byly vnímány pouze jako podpora, nikoli náhrada za lidské rozhodování v soudním procesu.

Ukázat rizika Skrýt vše

Návrhy na řešení rizik

Následující seznam předkládá obecné návrhy na řešení rizik včetně, která jsou spojena s využíváním umělé inteligence v justici:

  1. Předpojatost a diskriminace: AI se často učí na historických datech, která mohou obsahovat skryté předsudky. Pokud se algoritmus naučí z dat, která obsahují diskriminační vzorce (např. na základě rasy, pohlaví nebo socioekonomického statusu), může tyto předsudky reprodukovat nebo dokonce zesílit, což vede k nespravedlivým rozhodnutím.
  2. Nedostatek transparentnosti: Složitost algoritmů AI může způsobit, že jejich rozhodování je pro laiky, a dokonce i pro právníky, obtížně pochopitelné. Tento „black box“ efekt komplikuje ověření, zda rozhodnutí bylo učiněno spravedlivě a podle právních norem. Bez možnosti nahlédnout do procesu rozhodování je těžké vyhodnotit, zda je AI v konkrétním případě vhodným nástrojem.
  3. Chyby a neúplnost dat: Pokud AI pracuje s nepřesnými, neúplnými nebo zastaralými daty, výsledky mohou být nesprávné. V soudním prostředí mohou i malé chyby vést k vážným důsledkům, včetně nespravedlivých rozsudků.
  4. Etické otázky: Existuje debata o tom, zda je etické, aby rozhodování o osudech lidí bylo delegováno na stroje. Automatizované systémy nemusí chápat lidské emoce, kontext nebo morální dilemata, což může vést k mechanickým a neempativním rozhodnutím.
  5. Narušení soukromí: AI může zpracovávat velké množství osobních údajů, což vytváří riziko pro ochranu soukromí účastníků řízení. K narušení soukromí může dojít, pokud jsou tyto údaje nesprávně zpracovány, sdíleny nebo napadeny hackery.
  6. Závislost na technologii: Nadměrné spoléhání na AI může vést k degradaci kritického myšlení mezi právníky a soudci. Pokud právníci ztrácejí dovednosti samostatně analyzovat případy a spoléhat se na technologii, mohlo by dojít k poklesu kvality právní praxe.
  7. Právní odpovědnost: V případě chybného rozhodnutí vyvstává otázka odpovědnosti – kdo nese zodpovědnost za nesprávné rozhodnutí AI? Zda tvůrce algoritmu, jeho dodavatel nebo soudce, který na něj spoléhá?
  8. Právní a regulační nejasnosti: AI v soudnictví je relativně novým fenoménem a právní rámec kolem jeho využití často není dostatečně vyvinut. Absence jednotných standardů a norem může vést k nekonzistentnímu používání technologií v různých jurisdikcích, což ohrožuje rovnost přístupu ke spravedlnosti a komplikuje případné spory o zodpovědnost.
  9. Nedostatek lidského faktoru: Právní proces není jen o faktických informacích, ale také o porozumění lidským motivacím, emocím a morálnímu kontextu. AI může postrádat schopnost plně porozumět nuancím, které mohou být klíčové pro spravedlivý rozsudek, například při posuzování svědeckých výpovědí nebo v případech s etickými dilematy. Tento nedostatek lidského faktoru by mohl způsobit, že by AI přijímala rozhodnutí, která nejsou eticky nebo morálně vhodná.
  10. Kybernetická bezpečnost: S rostoucím množstvím údajů zpracovávaných AI se zvyšuje riziko jejich zneužití nebo kybernetického útoku. Citlivé údaje o účastnících soudního řízení jsou obzvláště ohrožené a jejich zneužití může mít vážné důsledky. Zajištění kybernetické bezpečnosti je proto klíčové, aby se předešlo kompromitaci důvěrných informací a manipulaci s rozhodovacím procesem AI.
  11. Překročení technologických možností: Někdy je AI přeceňována a nasazována do rolí, kde ještě není schopná správně plnit požadavky. Technologie nemusí být schopna reagovat na všechny právní či procesní výzvy. Překračování schopností AI může vést k nerealistickým očekáváním nebo k selhání v důležitých situacích.
  12. Riziko dehumanizace justice: Automatizace a technologie mohou vytvořit atmosféru odosobnění. Soudní řízení často zahrnují lidské tragédie a emočně náročné situace, kde je lidský přístup nezbytný. Plné spoléhání na AI by mohlo přispět k dehumanizaci procesu, kdy jsou lidé vnímáni pouze jako data a nikoli jako jednotlivci s jedinečnou situací.
  13. Potenciální dopady na důvěru veřejnosti: Důvěra veřejnosti v soudnictví je základním kamenem právního systému. Jakékoliv selhání AI v soudních řízeních by mohlo podkopat důvěru občanů v jeho nestrannost a spravedlnost. Vnímání technologie veřejností má proto zásadní vliv na její přijetí a případný odpor může vést k odmítání AI v právní praxi.

Pro zmírnění těchto rizik je důležité zajistit, aby byly AI systémy transparentní, podléhaly pravidelnému auditu a jejich výstupy byly vnímány pouze jako podpora, nikoli náhrada za lidské rozhodování v soudním procesu.

Ukázat návrhy Skrýt vše

Kontaktujte nás

Často kladené dotazy

01 - Co je cílem Centra pro digitalizaci a umělou inteligenci v justici?

Cílem je zvýšit povědomí pracovníků v justici o otázkách souvisejících se zaváděním a užitím umělé inteligence. Naší snahou je taktéž eliminovat negativní vliv umělé inteligence na soudní procesy, zejména pokud jde o využití tzv. deepfakes.

02 - Kdo se může zapojit do činnosti centra?

Zapojit se mohou osoby s prokazatelným vztahem k justici.

03 - Je účast v CENDAI zpoplatněna?

Ne, zapojení do centra je bezplatné. Každý účastník si však nese své vlastní náklady.

04 - Jak se mohu do činnosti CENDAI zapojit?

Vyplněním přihlášky, která obsahuje základní údaje a vyjádření zájmu o aktivní účast.

05 - Jaká jsou očekávání od účastníků?

Aktivní účast na setkáních, sdílení zkušeností, zapojení do diskuzí a spolupráce s ostatními účastníky.

07 - Stanu se zapojením do činnosti CENDAI i členem České asociace umělé inteligence?

Ne, CENDAI je samostatné a nezávislé uskupení, které se rozhodlo spolupracovat s ČAUI kvůli její profesionalitě a odbornosti. Tato spolupráce nejen, že výrazně zjednodušuje fungování CENDAI, ale navíc přináší osobám zapojeným do činnosti centra řadu výhod. Nicméně zapojení do CENDAI nesouvisí s členstvím v ČAUI.