AI může soudnictví pomoct, ale poslední slovo musí mít člověk

úterý, 21. listopad 2023 07:02

Kritické myšlení a kreativitu člověka úplně zastoupit nedokáže – zatím. Zcela jistě se z AI stane užitečná pomocnice jednotlivých právnických profesí. Jak zapojit umělou inteligenci do soudnictví, a přitom neporušit právo na spravedlivý proces? I touto otázkou se zabývá expertní tým Miroslava Sedláčka z Právnické fakulty UK.

VS1 2637

Jméno Juan Manuel Padilla Garcia na začátku roku obletělo svět. Kolumbijský soudce totiž prohlásil, že se jeho rozhodnutí případu, zda má být léčba autistického dítěte hrazena ze zdravotního pojištění, shodovalo s tím, jak ho navrhl „robot“ ChatGPT. Garcia se tak stal zřejmě jedním z prvních soudců, který připustil, že ke svému rozhodnutí využil velký jazykový model. A udělal to záměrně. Chtěl totiž poukázat na jeho schopnosti a možnosti využití. Ale: sesypala se na něj kritika ze strany odborné veřejnosti, a to nejen z Kolumbie.

VS1 2537Miroslav Sedláček z pražských práv, jenž se zabývá řešením civilních sporů prostřednictvím digitálních technologií, vysvětluje, v čem je využívání AI při rozhodování problematické: „Generativní modely nakonec mohou dojít k neobjektivním závěrům, diskriminačním či rasisticky zabarveným. To je také jeden z důvodů, proč řada soudců s využíváním generativní umělé inteligence při rozhodování nesouhlasí a proč Garciu kritizovali, i když deklaroval, že si všechny odpovědi, které mu ChatGPT dal, ověřil,“ podotýká Sedláček.

Jak na spravedlivý proces?

Evropská Úmluva o ochraně lidských práv a základních svobod, kterou ratifikovalo i Československo v roce 1992, hovoří o tom, že každý má právo na spravedlivý proces, a to musí být jako základní pilíř všech právních řádů demokratických států zachováno i při zapojení nových nástrojů. „Umělá inteligence směřuje k nejpravděpodobnějšímu typu řešení na základě analýzy jazykových podkladů, což je rizikové a může přinášet ničím nepodložené výsledky. To je v podstatě v rozporu s právem na spravedlivý proces. Přesto však k jejímu zapojení soudní systém směřuje, v některých případech to je proveditelné,“ míní Sedláček.

Nejen práci soudců, ale i dalších právnických profesí AI nejspíše promění. Vyhledávání a rešerše soudních rozhodnutí, jimiž soudci, advokáti a žalobci tráví množství času, zvládne umělá inteligence výrazně rychleji. Stejně tak umí rychle generovat smlouvy nebo různá procesní podání či na základě zadaných dat odpovídat na jednoduché dotazy z různých oblastí práva. Už dnes v některých státech USA pomáhá například v otázce stanovení výše trestu za spáchaný trestný čin! Objevují se také první advokátní kanceláře (nejen v České republice), které zcela běžně využívají svých databází a zapojují chatboty do zodpovídaní některých méně komplikovaných klientských dotazů. A tento trend bude jen pokračovat.

VS1 1463Umělá inteligence se do světa práva propisuje i z jiné strany, tedy nejen jako potencionální užitečná asistentka právnických profesí. Kvůli jejímu překotnému vývoji a masivnímu využívání se také začaly měnit zákony nebo se rodí nové, a to na úrovni národní i mezinárodní. Členem výzkumné skupiny Miroslava Sedláčka je také doktorand PF UK Jan Hořeňovský. Vedle problematiky svobody projevu a sociálních sítí se zabývá také otázkou bezpečnosti umělé inteligence.
„Nezajímá mě ani tolik současný stav, dívám se spíš do budoucna. Když se člověk zamyslí nad tím, jaký potenciál umělá inteligence má a kolik lidí se věnuje jejímu vývoji, je zarážející, že otázku bezpečnosti po celém světě řeší asi jen stovka lidí. Základní pravidla, jak by se tato problematika měla řešit, chybí,“ podotkl Jan Hořeňovský.
Vedle Listiny základních práv a svobod i český právní řád obsahuje řadu předpisů, které člověka před možnými problémy pojícími se s umělou inteligencí chrání. Především je to zákon o ochraně spotřebitele, autorský zákon nebo nařízení o ochraně osobních údajů. V rámci Evropské unie vzniká navíc tzv. Akt o umělé inteligenci (AI Act), který má být vůbec prvním mezinárodním opatřením regulujícím umělou inteligenci.
Loni Jan Hořeňovský spolu s Ondřejem BajgaremFuture of Humanity Institute Oxfordské univerzity publikovali v americkém časopise Journal of Artificial Intelligence Research článek, v němž upozorňují, že pokud mají být v budoucnu systémy umělé inteligence bezpečné, měly by být už vyvíjeny s tím, že spolehlivě rozpoznají, které jejich výsledky a chování by mohly být škodlivé vůči člověku, respektive by porušovaly lidská práva a svobody. Podle nich by proto měla být vytvořena globální dohoda, která by možným škodlivým dopadům AI vůči člověku předcházela.
K základním světově uznávaným právům, jimiž jsou právo na život a bezpečnost, právo na soukromé vlastnictví, právo na to nebýt mučen, pak autoři navrhují přidat právo na to nebýt obelháván umělou inteligencí.
„Globálně umělá inteligence moc regulována není. Nejdál je v tom Evropská unie. Problém je, že AI Act se dívá spíše na věci, které by umělá inteligence mohla dělat, označuje ty rizikové a ty pak budou buď zakázané nebo se k nim bude pojit náročná certifikace. My se nad tématem zamýšlím trochu jinak. Snažím se poukázat na problémy, které na první pohled nejsou tak zřejmé a třeba AI Act je nedokáže dohlédnout,“ vysvětlil Jan Hořeňovský.
Podle nich by cílem mělo být naučit strojové systémy, „aby samy předvídaly, které chování může tzv. negativní lidská práva porušovat a vyloučit je jako možnost dříve, než k nim dojde.“ Odpovědnost za to, že systémy tato pravidla budou dodržovat, by pak měly mít organizace, které je vyvíjejí, nikoliv státy, kde se využívají.
Na vývoji umělé inteligence se dnes podílejí především Spojené státy, Čína, Izrael a v menší míře Evropa. I když není realistické, že by vznikla nějaká globální dohoda, na níž by se shodly všechny státy světa, je pravděpodobné, že budou vznikat paralelně a nezávisle v jednotlivých zemích. O úplný rozvrat společnosti totiž nestojí žádný režim, ať už vyznává hodnoty jakékoliv.

Citlivá data a kecálek

I když schopnosti generativní AI mohou v právu zásadně ušetřit čas, žádný velký boom v jejím používání dosud nenastal. Potíž tkví v tom, že soudci i advokáti pracují s citlivými osobními údaji, zabezpečit systémy umělé inteligence tak, aby nedošlo k úniku dat, může být složité. Velké jazykové modely jsou navíc pověstné tím, že se snaží na položené dotazy odpovědět za každou cenu, a tak si i vymýšlejí (takzvaně halucinují), a to velmi věrohodně. „Známe případy, kdy si systém dokázal vymyslet jednotlivá rozhodnutí a naformuloval je tak, že jsou sice uvěřitelná, ale ve skutečnosti neexistují. Dokonce je vygeneroval i se smýšlenými daty vydání rozhodnutí! Vše je třeba ověřovat,“ upozorňuje Sedláček s tím, že na konci vždy musí stát člověk, který má adekvátní vzdělání prověřit odpovědi a kriticky je vyhodnotit.

VS1 2565

A jak tedy docílit toho, aby byla generativní AI využitelná i při rozhodování, ale zároveň nedocházelo k porušení práva na spravedlivý proces? To je základní otázka, na kterou nyní právní vědci hledají odpověď. „Umělá inteligence je nástroj, který bezpochyby může zjednodušit proces rozhodování, ale zodpovědnost za něj musí nést soudce. Rozhodnutí musí správně odůvodnit a stát si za ním, i když mu s jeho vytvořením AI pomohla,“ zdůrazňuje Miroslav Sedláček. Podle něj však – dříve či později – i soudnictví dospěje k tomu, že velké jazykové modely začne intenzivně využívat. Ovšem odpovědnost by měl nést stále člověk.

Mezery v digitalizaci

Zatímco využívání umělé inteligence pro rozhodování sporů je spíše hudbou budoucnosti (a to i v zahraničí), česká justice má mezery v digitalizaci vůbec. „Elektronizace justice v České republice není na takové úrovni, jakou bychom čekali ve 21. století. Systém by měl, alespoň co se týče oblasti civilního procesu, daleko více využívat dostupných technologických nástrojů. Přitom je zřejmé, že nástup technologií nepřináší jen nové možnosti, ale i nové problémy, se kterými je třeba se vyrovnat. A to jak v rovině právní, tak mimoprávní,“ podotkl Miroslav Sedláček.

VS1 2619

Kuriozní je kupříkladu to, že když chce účastník řízení nebo jeho zástupce nahlédnout do soudního spisu, musí vyrazit k soudu. Elektronické spisy se až na výjimky nevedou, na dálku se k nim člověk nedostane. Výjimku představuje např. insolvenční spis, který se vede jak v elektronické, tak listinné podobě.

„Elektronizace v civilním soudním řízení je nedostatečná, a to ve všech jeho fázích, od zahájení řízení, přes jeho průběh až po rozhodovací činnost soudu. Debata se vede například nad zavedením formulářových žalob. Inspirovat bychom se mohli katastrem nemovitostí, který takové předpřipravené formuláře má k dispozici, stačí pak do nich doplnit jen potřebné údaje. V našem výzkumu pak hledáme další podobné mezery v právní úpravě a potřeby jejich zaplnění, aby současný systém dokázal zajistit efektivní a odpovídající soudní ochranu práv. Je třeba zapojit všechny technologie včetně umělé inteligence, které by dokázaly tomuto systému pomoct a soudní řízení zefektivnit za současného naplnění jednotlivých prvků práv na spravedlivý proces, a tím přispět k ochraně práv a svobod na úrovni jednotlivce i společnosti,“ podotkl Miroslav Sedláček.

Do svého výzkumného týmu Miroslav Sedláček zapojil i odborníky z praxe, soudce a advokáty. Pořádat chtějí kulaté stoly, kam budou zvát zástupce ministerstva spravedlnosti a různých právnických profesí, aby se výsledky jejich práce dostaly i mimo akademickou půdu (první z nich se bude konat ve středu 6. prosince na PF UK, více o něm ZDE). Jejich hlavním cílem je totiž zefektivnit fungování české justice v oblasti civilního soudního řízení. Zda k tomu přispěje i generativní umělá inteligence, se ukáže časem.

JUDr. Miroslav Sedláček, LL. M., Ph. D.
Je absolventem Právnické fakulty UK, právo studoval také na Eötvös Loránd University v Maďarsku. Vedle toho byl na studijních pobytech na řadě evropských univerzit a právnických institucí. V současnosti působí na Katedře občanského práva PF UK. Věnuje se civilnímu právu procesnímu. Zabývá se digitalizací justice a v té souvislosti využitím nových technologií. Jeho tříletý projekt Digitální řešení civilních sporů a garance práva na spravedlivý proces podpořila Grantová agentura ČR.
JUDr. Jan Hořeňovský
Je absolventem Právnické fakulty UK, kde v současnosti pokračuje v doktorském studiu. Zajímá ho vztah práva a společnosti v souvislosti s novými technologiemi. Věnuje se problematice regulace sociálních sítí a svobody projevu. Těmito tématy se zabývá i v rámci své dizertace, na které nyní pracuje. Vedle Katedry občanského práva PF UK působí také v neziskové organizaci Institute H21, která se zaměřuje na mezioborový výzkum problémů demokracie.
Autor:
Foto: Vladimír Šigut

Sdílejte článek: