
Centrum pro digitalizaci a umělou inteligenci v justici
vzniklo s cílem zvýšit povědomí pracovníků v justici o otázkách souvisejících se zaváděním a užitím umělé inteligence a snahou eliminovat negativní vliv umělé inteligence na soudní procesy, zejména pokud jde o využití tzv. deepfakes.
- řešení potřeb justice v kontextu AI
- výměna informací o konkrétních řešeních
- vzájemná podpora a networking
- sdílení dobré praxe
Registrační formulář
Pracujete v justici a máte zájem zapojit se do činnosti Centra pro digitalizaci a umělou inteligenci v justici (CENDAI)? Stačí vyplnit jednoduchý registrační formulář a o zbytek se postaráme sami.
Otevřená iniciativa, kde se justice setkává s AI
Věříme, že iniciativa CENDAI přispěje k lepšímu a spravedlivému využití této nové technologie i v oblasti velice konzervativní, kterou justice je. Máme několik hlavních úkolů.
Digitalizace
Identifikace potřeb justice, a to jak soudů, tak justičního aparátu, zjištění rizik při zavádění umělé inteligence v justici.
Využití umělé inteligence
Vyhodnocení požadavků veřejnosti a podnikatelů v souvislosti s zaváděním umělé inteligence v justici.
Ochrana justice
Definování slabých míst justice s ohledem na možnost využití tzv. deepfakes při dokazování a hodnocení důkazů.
Řídící tým
Organizaci a chod centra zajišťuje řídící tým ve spolupráci s Českou asociací umělé inteligence
Rizika využití AI v justici
Využití umělé inteligence (AI) při soudních řízeních přináší řadu rizik, která mohou ovlivnit spravedlnost, transparentnost a bezpečnost právního procesu. Mezi hlavní rizika patří:
- Předpojatost a diskriminace: AI se často učí na historických datech, která mohou obsahovat skryté předsudky. Pokud se algoritmus naučí z dat, která obsahují diskriminační vzorce (např. na základě rasy, pohlaví nebo socioekonomického statusu), může tyto předsudky reprodukovat nebo dokonce zesílit, což vede k nespravedlivým rozhodnutím.
- Nedostatek transparentnosti: Složitost algoritmů AI může způsobit, že jejich rozhodování je pro laiky, a dokonce i pro právníky, obtížně pochopitelné. Tento „black box“ efekt komplikuje ověření, zda rozhodnutí bylo učiněno spravedlivě a podle právních norem. Bez možnosti nahlédnout do procesu rozhodování je těžké vyhodnotit, zda je AI v konkrétním případě vhodným nástrojem.
- Chyby a neúplnost dat: Pokud AI pracuje s nepřesnými, neúplnými nebo zastaralými daty, výsledky mohou být nesprávné. V soudním prostředí mohou i malé chyby vést k vážným důsledkům, včetně nespravedlivých rozsudků.
- Etické otázky: Existuje debata o tom, zda je etické, aby rozhodování o osudech lidí bylo delegováno na stroje. Automatizované systémy nemusí chápat lidské emoce, kontext nebo morální dilemata, což může vést k mechanickým a neempativním rozhodnutím.
- Narušení soukromí: AI může zpracovávat velké množství osobních údajů, což vytváří riziko pro ochranu soukromí účastníků řízení. K narušení soukromí může dojít, pokud jsou tyto údaje nesprávně zpracovány, sdíleny nebo napadeny hackery.
- Závislost na technologii: Nadměrné spoléhání na AI může vést k degradaci kritického myšlení mezi právníky a soudci. Pokud právníci ztrácejí dovednosti samostatně analyzovat případy a spoléhat se na technologii, mohlo by dojít k poklesu kvality právní praxe.
- Právní odpovědnost: V případě chybného rozhodnutí vyvstává otázka odpovědnosti – kdo nese zodpovědnost za nesprávné rozhodnutí AI? Zda tvůrce algoritmu, jeho dodavatel nebo soudce, který na něj spoléhá?
- Právní a regulační nejasnosti: AI v soudnictví je relativně novým fenoménem a právní rámec kolem jeho využití často není dostatečně vyvinut. Absence jednotných standardů a norem může vést k nekonzistentnímu používání technologií v různých jurisdikcích, což ohrožuje rovnost přístupu ke spravedlnosti a komplikuje případné spory o zodpovědnost.
- Nedostatek lidského faktoru: Právní proces není jen o faktických informacích, ale také o porozumění lidským motivacím, emocím a morálnímu kontextu. AI může postrádat schopnost plně porozumět nuancím, které mohou být klíčové pro spravedlivý rozsudek, například při posuzování svědeckých výpovědí nebo v případech s etickými dilematy. Tento nedostatek lidského faktoru by mohl způsobit, že by AI přijímala rozhodnutí, která nejsou eticky nebo morálně vhodná.
- Kybernetická bezpečnost: S rostoucím množstvím údajů zpracovávaných AI se zvyšuje riziko jejich zneužití nebo kybernetického útoku. Citlivé údaje o účastnících soudního řízení jsou obzvláště ohrožené a jejich zneužití může mít vážné důsledky. Zajištění kybernetické bezpečnosti je proto klíčové, aby se předešlo kompromitaci důvěrných informací a manipulaci s rozhodovacím procesem AI.
- Překročení technologických možností: Někdy je AI přeceňována a nasazována do rolí, kde ještě není schopná správně plnit požadavky. Technologie nemusí být schopna reagovat na všechny právní či procesní výzvy. Překračování schopností AI může vést k nerealistickým očekáváním nebo k selhání v důležitých situacích.
- Riziko dehumanizace justice: Automatizace a technologie mohou vytvořit atmosféru odosobnění. Soudní řízení často zahrnují lidské tragédie a emočně náročné situace, kde je lidský přístup nezbytný. Plné spoléhání na AI by mohlo přispět k dehumanizaci procesu, kdy jsou lidé vnímáni pouze jako data a nikoli jako jednotlivci s jedinečnou situací.
- Potenciální dopady na důvěru veřejnosti: Důvěra veřejnosti v soudnictví je základním kamenem právního systému. Jakékoliv selhání AI v soudních řízeních by mohlo podkopat důvěru občanů v jeho nestrannost a spravedlnost. Vnímání technologie veřejností má proto zásadní vliv na její přijetí a případný odpor může vést k odmítání AI v právní praxi.
Pro zmírnění těchto rizik je důležité zajistit, aby byly AI systémy transparentní, podléhaly pravidelnému auditu a jejich výstupy byly vnímány pouze jako podpora, nikoli náhrada za lidské rozhodování v soudním procesu.
Návrhy na řešení rizik
Následující seznam předkládá obecné návrhy na řešení rizik včetně, která jsou spojena s využíváním umělé inteligence v justici:
- Předpojatost a diskriminace: AI se často učí na historických datech, která mohou obsahovat skryté předsudky. Pokud se algoritmus naučí z dat, která obsahují diskriminační vzorce (např. na základě rasy, pohlaví nebo socioekonomického statusu), může tyto předsudky reprodukovat nebo dokonce zesílit, což vede k nespravedlivým rozhodnutím.
- Nedostatek transparentnosti: Složitost algoritmů AI může způsobit, že jejich rozhodování je pro laiky, a dokonce i pro právníky, obtížně pochopitelné. Tento „black box“ efekt komplikuje ověření, zda rozhodnutí bylo učiněno spravedlivě a podle právních norem. Bez možnosti nahlédnout do procesu rozhodování je těžké vyhodnotit, zda je AI v konkrétním případě vhodným nástrojem.
- Chyby a neúplnost dat: Pokud AI pracuje s nepřesnými, neúplnými nebo zastaralými daty, výsledky mohou být nesprávné. V soudním prostředí mohou i malé chyby vést k vážným důsledkům, včetně nespravedlivých rozsudků.
- Etické otázky: Existuje debata o tom, zda je etické, aby rozhodování o osudech lidí bylo delegováno na stroje. Automatizované systémy nemusí chápat lidské emoce, kontext nebo morální dilemata, což může vést k mechanickým a neempativním rozhodnutím.
- Narušení soukromí: AI může zpracovávat velké množství osobních údajů, což vytváří riziko pro ochranu soukromí účastníků řízení. K narušení soukromí může dojít, pokud jsou tyto údaje nesprávně zpracovány, sdíleny nebo napadeny hackery.
- Závislost na technologii: Nadměrné spoléhání na AI může vést k degradaci kritického myšlení mezi právníky a soudci. Pokud právníci ztrácejí dovednosti samostatně analyzovat případy a spoléhat se na technologii, mohlo by dojít k poklesu kvality právní praxe.
- Právní odpovědnost: V případě chybného rozhodnutí vyvstává otázka odpovědnosti – kdo nese zodpovědnost za nesprávné rozhodnutí AI? Zda tvůrce algoritmu, jeho dodavatel nebo soudce, který na něj spoléhá?
- Právní a regulační nejasnosti: AI v soudnictví je relativně novým fenoménem a právní rámec kolem jeho využití často není dostatečně vyvinut. Absence jednotných standardů a norem může vést k nekonzistentnímu používání technologií v různých jurisdikcích, což ohrožuje rovnost přístupu ke spravedlnosti a komplikuje případné spory o zodpovědnost.
- Nedostatek lidského faktoru: Právní proces není jen o faktických informacích, ale také o porozumění lidským motivacím, emocím a morálnímu kontextu. AI může postrádat schopnost plně porozumět nuancím, které mohou být klíčové pro spravedlivý rozsudek, například při posuzování svědeckých výpovědí nebo v případech s etickými dilematy. Tento nedostatek lidského faktoru by mohl způsobit, že by AI přijímala rozhodnutí, která nejsou eticky nebo morálně vhodná.
- Kybernetická bezpečnost: S rostoucím množstvím údajů zpracovávaných AI se zvyšuje riziko jejich zneužití nebo kybernetického útoku. Citlivé údaje o účastnících soudního řízení jsou obzvláště ohrožené a jejich zneužití může mít vážné důsledky. Zajištění kybernetické bezpečnosti je proto klíčové, aby se předešlo kompromitaci důvěrných informací a manipulaci s rozhodovacím procesem AI.
- Překročení technologických možností: Někdy je AI přeceňována a nasazována do rolí, kde ještě není schopná správně plnit požadavky. Technologie nemusí být schopna reagovat na všechny právní či procesní výzvy. Překračování schopností AI může vést k nerealistickým očekáváním nebo k selhání v důležitých situacích.
- Riziko dehumanizace justice: Automatizace a technologie mohou vytvořit atmosféru odosobnění. Soudní řízení často zahrnují lidské tragédie a emočně náročné situace, kde je lidský přístup nezbytný. Plné spoléhání na AI by mohlo přispět k dehumanizaci procesu, kdy jsou lidé vnímáni pouze jako data a nikoli jako jednotlivci s jedinečnou situací.
- Potenciální dopady na důvěru veřejnosti: Důvěra veřejnosti v soudnictví je základním kamenem právního systému. Jakékoliv selhání AI v soudních řízeních by mohlo podkopat důvěru občanů v jeho nestrannost a spravedlnost. Vnímání technologie veřejností má proto zásadní vliv na její přijetí a případný odpor může vést k odmítání AI v právní praxi.
Pro zmírnění těchto rizik je důležité zajistit, aby byly AI systémy transparentní, podléhaly pravidelnému auditu a jejich výstupy byly vnímány pouze jako podpora, nikoli náhrada za lidské rozhodování v soudním procesu.
Kontaktujte nás
cendai@asociace.ai
Telefon
+420 728 854 479
Adresa
Česká asociace umělé inteligence z.ú.
Na Zderaze 1275/15
120 00 Praha 2
Často kladené dotazy
Cílem je zvýšit povědomí pracovníků v justici o otázkách souvisejících se zaváděním a užitím umělé inteligence. Naší snahou je taktéž eliminovat negativní vliv umělé inteligence na soudní procesy, zejména pokud jde o využití tzv. deepfakes.
Zapojit se mohou osoby s prokazatelným vztahem k justici.
Ne, zapojení do centra je bezplatné. Každý účastník si však nese své vlastní náklady.
Vyplněním přihlášky, která obsahuje základní údaje a vyjádření zájmu o aktivní účast.
Aktivní účast na setkáních, sdílení zkušeností, zapojení do diskuzí a spolupráce s ostatními účastníky.
Ne, CENDAI je samostatné a nezávislé uskupení, které se rozhodlo spolupracovat s ČAUI kvůli její profesionalitě a odbornosti. Tato spolupráce nejen, že výrazně zjednodušuje fungování CENDAI, ale navíc přináší osobám zapojeným do činnosti centra řadu výhod. Nicméně zapojení do CENDAI nesouvisí s členstvím v ČAUI.