Vize
Výzvy nových technologií vždy spočívaly v balancování mezi minimalizací reálných rizik a využitím významných příležitostí. Otevírá se nové spektrum pro debatu nad tématy, kde máme svobodu volit řešení. Divergenci v názorech na implementaci AI technologií je způsobena tím, že různí experti i laici každý přisuzují důležitost jiným hodnotám, které stojí proti sobě. Volená řešení s sebou přinášejí různorodé důsledky a staví nás do zcela nových ekonomických a etických reálií. Tento článek se snaží shrnout, jaká zůstává role lidského faktoru v právních profesích vedle neúprosně rozvíjejícího se trendu AI.

Trh s právními službami je postaven na jednoduchém principu, že všichni se snaží získat nebo poskytnout optimální právní radu a řešení daného problému co nejrychleji a nejlevněji. Nejvyšší autoritou pro toto rozhodování jsou klienti.
V první úrovni se klient rozhoduje na základě hodnocení, kterého advokáta osloví s důvěrou pro řešení jeho problému. Součástí hodnocení mohou být různé parametry, např. reputace advokáta, cena služeb, komunikativnost a srozumitelnost. Nově poskytovatelé advokátních služeb mohou soutěžit na poli nového parametru hodnocení, a to je právě míra využití moderních technologií, a taky způsob jejich využití.
Přesto, že dnes „AI-powered advokátní kancelář“ nebo „právní chatbot“ může působit atraktivně pro některé, jiný segment klientů bude vyhledávat tradiční „human-powered“ kancelář. Cestou kupředu je jednoznačně synergie obou složek, a kombinace obou jejich silných stránek. Nicméně míra, kam až AI technologii advokáti pustí, s jakými omezeními či bez zábran, a míra užitečné koordinace a souhry je právě svobodná volba a prostor pro soutěž, jejíž hodnotitelé budou klienti.
V druhé rovině se advokáti a soudci rozhlížejí po legal-tech trhu, a hledají nástroje, které jim pomohou při práci. Smyslem je získat nástroj, který naši práci vylepší kvalitativně (obsáhleji, detailněji), nebo kvantitativně (rychleji a levněji). Zde se nástroje posuzují podle několika dimenzí, např. míry jejich bezpečnosti, proti které stojí míra jejich pohodlnosti. Nebo rychlost proti spolehlivosti. Dále se můžeme ptát, zda nástroj nabídne jedno finální řešení, nebo zda funguje formou asistence, kdy nabízí několik možností pro následné rozhodnutí člověka.
Ve třetí rovině legislativec musí zaujmout zásadní postoj za společnost, kde vydefinuje vztah k datům v rámci nové společenské smlouvy. Je formální pravdou, že soukromí, důvěrnost a vlastnické právo (právo intelektuálního vlastnictví) jsou ústavním základem naší civilizace a měnit tuto centrální esenci, která nás dostala tak daleko by bylo popření sebe sama a vysoce destabilizační pro náš způsob života.
Na druhou stranu je třeba si přiznat, že všichni bez rozdílu těžíme z informační dálnice v podobě internetu, kde se sdílí celá řada informací, zištně či nezištně, legálně či nelegálně, která nám ohromně pomáhají a zvyšují kvalitu života. Od zpravodajství přes návody a rady, nebo i vyhledání běžných faktů. Když odhlédneme od problému kolem reklamy a fakenews, tak tato hromada lidského vědomí vystavena pro všechny na dosah je skvělé civilizační dílo. Toto dílo je ovšem moc velké na to, aby jej mohl člověk absorbovat sám, proto existují vyhledávače a indexy, které nám tento obsah zpřístupňují a pomáhají nám se v něm zorientovat. AI modely jsou dalším krokem ve zlepšení této přístupnosti.
Ovšem zde je důležitý právní moment, který podstatně mění okolnosti. Na předmět intelektuálního vlastnictví jde bez dalšího legálně odkazovat (pozice vyhledávačů a indexů). Toto chování je dokonce je z pohledu vlastníků práv vítané. Nicméně AI modely předmět intelektuálního vlastnictví zpracovávají a syntetizují do obsahu nového. Výstupem AI modelu bude nejspíše něco, co nebude požívat autorskoprávní ochrany nicméně si zachová svoji ekonomickou hodnotu a užitečnost pro koncového uživatele.
Autoři, kteří veřejně komunikovali své dílo do veřejného prostoru, tak učinili pod domněnkou zachování statu quo, který je nyní tímto narušen. Autoři nemají možnost dílo stáhnout zpět a jejich ekonomické či autorské zadostiučinění je ponecháno na míře ohleduplnosti výrobců AI modelů, nebo na kolektivní neodpovědnosti anonymizovaných uživatelů či algoritmů na internetu, kteří předávají obsah výrobcům AI modelů, kteří jej nabývají v rámci disclameru v dobré víře a dál s ním pracují.

Za bílého dne aktuálně dochází k transferu veškerého lidského vědění do pár datových center, v držení několika soukromých společností. Tento transfer se děje ve dvou podobách. První je sběr databází a trénovacích dat pro samotné trénování AI modelů. Druhý je aktivní používání uživatelů přes API nebo aplikace (v rámci monitoringu tzv. user engagementu). Platí pravidlo, že pokud za produkt neplatíme, nebo platíme velmi málo, pak my jsme tím produktem. Např. společnost Adobe vydala v tichosti změnu podmínek užívání, která spočívala v tom, že veškerý obsah vytvářený prostřednictvím jejich grafických programů bude využit pro trénování jejich AI modelu. Toto ustanovení po silném protestu ze stran koncových zákazníků i velkých společností nakonec velmi rychle stáhla zpět.
Fundamentální vlastností neuronových sítí, na které jsou AI modely vystavěné, je aspekt nepřezkoumatelnosti jejího počínání. Mluvíme o tzv. blackbox (černá skřínka). Této se dosahuje buď formou záměrné obfuskace prostým rozsahem objemu zpracovaných dat nebo zabudovaného parametru teploty (temperature), který ovlivňuje míru kreativity výstupu a přidává tak element náhody do generace výstupu.
Tato zdánlivá nevýhoda oproti plně srozumitelným expertním systémům, vystavěných na podmínkových větách „když > tak“, na které jsme byli do teď u algoritmů a programů zvyklí, je nicméně právním zlatým trumfem – potenciální licencí pro neomezené sbírání dat. Není nerozumné proto poukázat, že zřejmě díky tomuto např. Microsoft vyšel na trh s programem „Garančního štítu“ proti žalobám při používání jejich AI modelu. Podobnou garanci vydal i Adobe pro svůj model Firefly. Pravděpodobně spoléhají na to, že žalobce, vlastník intelektuálního vlastnictví, neunese důkazní břemeno při případném vymáhání nároku na neoprávněné užití chráněného obsahu. Protože z pozice pozorovatele, vně blackboxu, není možné dokázat příčinou souvislosti mezi původním autorským dílem a výstupem z AI modelu, kdy se presumuje nevina.
Obzvláště zasažení jsou všichni autoři, kteří svá díla již veřejně komunikovali a nemají nad sebou dedikovanou kolektivní správu, ať už založenou veřejnoprávně, nebo smluvně podchycenou např. v podobě nakladatelství či vydavatelství. Lepší pozici mají ti, kteří nad sebou kolektivní správu mají, protože tyto instituce se snaží v současnosti prosadit ekonomické zadostiučinění buď smluvně v rámci pravidelné úplaty za přístup k databázi nebo žalobně v rámci náhrady škody. Problém je, že AI modely už tento obsah zřejmě již využily, a tato kompenzace se řeší dodatečně. Vlastníci práv tedy v jednáních tahají za slabší konec.
Těžiště pozornosti z řad zákazníků se posouvá od vlastníků autorských práv či platforem kolektivní správy směrem k vlastníkům AI modelů, kde obsah, který vyhledávají, je levnější a užitečnější pro jejich ekonomickou potřebu. Tento tichý transfer pozornosti znamená i transfer peněz. Staré obchodní modely již nejsou funkční a kolektivní správci panicky posilují veškeré formy DRM (digital rights management), čímž znepříjemňují přístup k obsahu pro uživatelé, který pak způsobuje urychlení přechodu k pirátství nebo AI modelům.
Právní profese kromě zákonů a judikatury, které jsou veřejně přístupné ve veřejné doméně jakožto dílo obecně využitelné, těží také z komentářů k zákonům nebo jiným průvodcům legislativou sepsaných odborníky z daného oboru. Autoři těchto publikací řeší stejný problém, a bylo by velmi krátkozraké, kdyby právní profese dopustili smrt kompenzace za kvalitně odborně zpracovaný autorský obsah.
Česká republika se od 90. let pohybuje ve vysokém evropském nadprůměru ve statistice schválených zákonů, které prošly legislativním procesem. Hovoříme dokonce o tzv. hypertrofii právního řádu. AI modely mohou poskytnout řešení pro absorpci celého legálního vědění a navazující judikatury a podstatně usnadnit navigaci tímto nepřehledným lesem paragrafů. Když k tomu přidáme legislativu Evropské unie a navazujících podzákonných nástrojů, tato potřeba nabere vyšší urgenci.
Na konci dne rozsudek, a hranice mezi tím, co legální je a co není, musí být jasně vydefinováno. Je ve společenském zájmu chránit princip právní jistoty a předvídatelnosti soudního rozhodování – tj. ustálenosti výkladu. AI modely mají imanentní vlastnost halucinovat nový obsah, a je tudíž zcela běžné, že při položení stejné otázky dvakrát dá naprosto opačné odpovědi. V rámci prevence zbytečných škod na právech, proto správně ČAK vydal rychlé stanovisko, ve kterém se zakazuje, aby právní služby poskytoval chatbot bez dalšího.
Advokát se při výkonu svého povolání musí řídit zákonem o advokacii, kde je zakotvena advokátní mlčenlivost. Ta má svoji tradiční offline rovinu, ale i svoji online rovinu. Právě ta druhá nabývá na důležitosti s přihlédnutím k tomu, že současné AI modely pracují v cloudu, u cizího subjektu, v jurisdikci třetího státu. Mohou být klienti, kteří by nevybrali takového advokáta, který takto rozšiřuje okruh subjektů, kteří zpracovávají jeho data, natož že na těchto datech trénují další AI modely.
Advokátní profese tudíž má mnohem obtížnější compliance postavení než např. banky, či finanční poradci, kterým postačí běžné NDA nebo sektorová regulace, protože právní kauzy většinou reprezentují samotnou špičku těch nejvyšších a nejdůležitějších zájmů, a tudíž informace o těchto kauzách musí být drženy v maximálním utajení, aby byl zajištěn spravedlivý proces. Advokátní kanceláře a soudy, kteří chtějí využít AI modely by proto měli klást důraz na zachování maximální možné digitální suverenity a mít vybudované technické i organizační metody, které zajistí nepřekročitelnost advokátní mlčenlivosti a souvisejících stavovských pravidel.

„Aby splňovalo současné nároky nejen ze strany klientů, musí naše odvětví projít zásadní proměnou směrem k průmyslu 5.0. Fenomén umělé inteligence vnímáme jako další díl do mozaiky už existujících technologií, které se staly běžnou součástí naší každodenní praxe, většina advokátů to ale zatím dostatečně nereflektuje.“

Poměrně pokročilý je systém zapojení nástrojů AI do soudního rozhodování v Číně. V roce 2022 bylo vydáno Stanovisko k regulaci a posílení aplikací umělé inteligence v soudnictví. Dle tohoto stanoviska by měly být systémy umělé inteligence do činnosti soudů implementovány do roku 2025. Jedním z hlavních úkolů by přitom mělo být zajištění, aby tyto systémy nerozhodovaly diskriminačně a předpojatě. Stanovisko rovněž upozorňuje, že nedojde k nahrazování rozhodovací činnosti lidského faktoru, ale funkce AI bude pouze podpůrná v rámci tohoto soudcovského rozhodování.
V Brazílii se AI používá v soudnictví již od roku 2018 prostřednictvím systému VICTOR, systém, který analyzuje odvolání s cílem určit, zda splňuje náležitosti a jeho odůvodněnost. Tato úvodní analýza zabrala lidskému faktoru cca 40 minut, programu VICTOR tato činnost zabere cca 5 sekund. Brazilské soudnictví přitom patří k velmi neefektivním, tedy nástroj tohoto typu může velmi pomoci.
I v USA probíhají v různých státech pokusy o zefektivnění justice pomocí AI. Využití ChatGPT při soudních sporech však v USA zejména nechvalně proslavil případ „LoDuca a Schwartz“. Jednalo se o případ, kdy byl ChatGPT použit těmito dvěma advokáty k nalezení právních precedentů, ale poskytl nepravdivé informace, resp. citoval soudní rozhodnutí, která neexistovala. Stalo se tak během případu, kdy žalobce žaloval leteckou společnost za ublížení na zdraví. Případ tak může být poučením, jak je AI schopna halucinovat.
Stejně tak jako právní činnost povýšila svoji produktivitu od psacích strojů ke klávesnicím, od úplných knižních znění po databázové systémy s hypertextovými odkazy a prolinky, tak přichází další logický krok v podobě AI modelů. Těchto nástrojů a změn se není třeba bát. Jsou zde, aby nám naši práci zefektivnily a zlepšily.
Je třeba syntéza technické a právní disciplíny. Je třeba evoluce právní práce v zájmu rozšíření přístupu ke spravedlnosti pro širší okruh lidí. Právní proces tradičně spoléhá na lidskou inteligenci a posouzení zdravým selským rozumem. S nástupem AI technologií se však otevírají nové možnosti, jak tento proces zefektivnit a zpřístupnit. Nicméně je nezbytné, aby představitelé právních profesí pochopili a zvážili potenciální rizika a výhody.
Příkladem kde AI modely mohou pomoci je hned několik, např. při analýza právních dokumentů a podání k soudu. AI může urychlit proces analýzy a identifikace relevantních skutečnosti, např. označením metadat, zařazení do správné kategorie. Avšak spolehlivost a přesnost těchto analýz závisí na kvalitě trénovacích dat a algoritmů, ty je třeba průběžně kontrolovat a aktualizovat.
Dalším příkladem je asistovaná prediktivní analýza. AI nástroje mohou pomoci soudcům analyzovat předchozí judikaturu a nabídnout predikce výsledků podobných případů. Tato prediktivní analýza však má své úskalí v tom, že svádí k lenosti a automatizaci předsudků, a tudíž chybám v rozhodování.
A konečně AI asistenti mohou poskytovat právníkům a soudcům podpůrné informace a základní rešerše a psát návrhy na argumentaci, jejich shrnutí, popisy důkazních prostředků a odůvodnění rozsudků.
Nicméně je důležité, aby tyto nástroje byly používány jako pomůcka, nikoli jako náhrada kvalifikovaného právního posouzení. Častokrát ten důvod, proč se člověk obrací na soud, je právě protože systém jej zklamal. Musíme udělat maximum proto, aby lidskost a lidský dohled byla v našem soudnictvím zachována.

„Praha se profiluje jako jeden z klíčových AI hubů v Evropě. Naše úsilí je tak logickým vyústěním místní tradice inovovat, kterou chceme aplikovat i v rámci advokacie. Našim cílem je vybudovat potřebné know-how, s kterým můžeme exportovat i do sousedních zemí. Jeho principy jsou totiž uplatnitelné i v rámci právních řádu dalších členských zemí EU.“
