Krypto a AI: budoucnost role právníka

Jedním z nich je, že lidské bytosti mohou najít jinou roli a postavení, než na jaké jsme dnes zvyklí.

Pokud by se tedy pro argumentaci měl vytvořit stroj, který by dokázal dát nevyhnutelně přesnou odpověď na právní otázku, a tak poskytnout prakticky nevyhnutelnou odpověď na možný výsledek sporu, teoreticky by se role advokáta mohla přesunout do jiná oblast než vypracování odpovědi na otázku. Možná, že vědět, jak položit správnou otázku stroji, který pak poskytne odpověď. Obával by se tedy, aby stroj dostal všechny nejvhodnější prvky a parametry pro vytvoření očekávané odpovědi.

Nebo by se mohl přesunout do této oblasti „školení“ právního stroje a poté poskytnout nebo dohlédnout na to, aby byla do stroje poskytnuta všechna právní data a informace potřebné k jeho vyhodnocení.

A protože tento stroj bude podle této hypotézy schopen poskytnout nevyhnutelnou přesnost, aby vynesl rozsudek, o kterém předpokládáme, že je „spravedlivý“, role soudce by se možná mohla stát úkolem zajistit, aby strany nepodváděly při poskytování verdiktu. stroj s nezbytnými prvky pro vynesení rozsudku a že kritéria úsudku zadaná a uplatňovaná strojem splňují spravedlnost, přiměřenost, proporcionalitu, nediskriminaci atd.

To vše se mimochodem zdá být v souladu se slavnými pěti zásadami, které stanovil CEPEJ – Evropská komise pro efektivitu soudnictví (tj. Komise Rady Evropy pro efektivitu soudnictví, orgán Rady Evropy zastupující 47 zemí, jehož účelem je testovat a monitorovat efektivitu a fungování evropských soudních systémů) v oblasti etiky Charta o využívání umělé inteligence v soudních systémech: (i) Zásada respektování základních práv; (ii) Zásada nediskriminace (iii) Zásada kvality a bezpečnosti; (iv) Zásada transparentnosti, nestrannosti a spravedlnosti (v) Zásada uživatelské kontroly.

Nyní, i když přijmeme myšlenku, že v budoucnosti, ve které AI najde masivní využití v právní oblasti, se role lidí může přesunout pouze do oblasti dohledu, je třeba zvážit i další úvahy. Především proto, že když si představíme justiční systém spravovaný těmito zdánlivě neutrálními a neomylnými nástroji, představujeme pro sebe aparát, který pouze prosazuje zákony a pravidla. Pouhý vykonavatel příkazů.

Tato reprezentace spravedlnosti však v praktické realitě neexistuje, protože navzdory jakékoli principiální žádosti a principu dělby moci ti, kdo vynášejí rozsudek, často do určité míry přispívají k vytváření zákona a změnit jeho strukturu. To znamená, že funkce soudce se často specificky shoduje ve vytváření a upevňování pravidel.

Tento rozsah se samozřejmě liší napříč legislativními a ústavními systémy. Rozhodně je větší v zemích se zvykovým právem, kde se právo tvoří prostřednictvím precedentních rozhodnutí.

To však platí i v zemích s kodifikovaným právem, jako je Itálie, Francie, Německo atd. V těchto systémech si výklad podaný soudním rozhodnutím někdy formální právo vynucuje nebo dokonce ohýbá, doplňuje ho, když najde mezery a nedostatky v ní, ignoruje ji a odkládá ji do prázdna, pokud existují podmínky, které ji staví do rozporu s vyššími zásadami.

To znamená, že soudní funkce, ať už přímo nebo nepřímo, často končí zásahem do oblasti regulační funkce, a to se může dít na různých úrovních.

Poznámka: tím není vyloučena možnost, že v abstraktní rovině stroj povolaný k vytváření předpisů toho není schopen ještě lépe než člověk. Už jen kvůli tomu, že historie je plná špatných lidských regulátorů. Jako extrémní příklad uveďme děsivou zkušenost holocaustu a etnických čistek: byly to hrůzy, které byly legálně podporovány legislativními systémy založenými na makroskopicky nehumánních principech, přesto byly vytvořeny a vnuceny samotnými lidskými bytostmi.

Střet mezi normativní produkcí a umělou inteligencí

Rozhodující je další věc: jsme si opravdu jisti, že chceme dát strojům přístup k procesu normativní výroby? A do jaké míry? A musíme mít na paměti, že tento vstup může proběhnout i „plíživým“ způsobem, pootevřenými dveřmi jurisdikční funkce.

Myšlenka, že funkce, které mohou vykonávat stroje, mohou zůstat odkázány na pouze výkonnou nebo nanejvýš pomocnou roli s ohledem na práci a chtění člověka na základě těch etických a formálních překážek, které člověk ukládá (např. zákony robotiky, Asimovovy nebo v evropském kontextu vypracované principy o používání umělé inteligence v soudních systémech) mohou být uklidňující.

To jsou v tomto případě pravidla diktovaná přímo od člověka ke stroji a reagují v širokém smyslu na uspokojení vlastního existenčního povolání člověka. To znamená, že všechny jsou nějakým způsobem konzervativní a funkční pro rozvoj a zachování existence lidstva.

A právě zde se spouští poněkud filozofické dilema, chcete-li: pokud bychom někdy dovolili nelidské entitě plně vstoupit do procesu normativního formování, vzhledem k tomu, že je právě jako entita imanentně vybavena svou vlastní existenciální povolání, co by jí bránilo napsat pravidla, která nereagují na existenciální povolání člověka?

Vezmeme-li extrémní příklad, kdybychom měli nastolit problém přelidnění a nedostatku potravinových a energetických zdrojů, globálně, jako lidé, podléhající určitým patologickým ideologickým posunům, na etické úrovni bychom zavrhli jako prostředek řešení problému. řešení, která předpokládají masové vyhlazování nebo vraždění lidských bytostí.

Stejný problém, viděný očima nelidské entity, která nemusí uznávat identické etické principy, by mohl vést k řešení masového vyhlazování, třeba na základě selektivních kritérií zaměřených na eliminaci nejslabších subjektů (právě těch, kteří lidské etické diktáty by měly být přednostně zachovány) jako nejrozumnější řešení na přísně a chladně logické úrovni.

Massimo Chiriatti, mezi přední odborníky na umělá inteligence v Itálii, který v mnoha svých spisech objasnil své názory na limity umělé inteligence a dozorčí roli, kterou si lidé musí při používání těchto technologií při používání těchto technologií ve svých „Umělém nevědomí“ udržet, tvrdí:

„Je třeba zvážit velmi důležitý bod: každá předpověď umělé inteligence je kvantitativní hodnocení, nikdy kvalitativní, zatímco pro nás lidi není volba téměř nikdy jednoduchým výpočtem. Rozhodujeme se na základě neměřitelných a tedy nevyčíslitelných hodnot. Jsme učitelé strojů. Jsme implicitně takoví, když asimilují data, která vytváříme, když sestavují model a dávají nám odpovědi. 

Jsme výslovně takoví, když jim dáváme pokyny, jak dělat práci. Z těchto důvodů musíme věnovat pozornost tomu, jak se učí, protože při tom se budou vyvíjet.“

Kromě právě uvedeného extrémního příkladu, i když je marné a iluzorní bránit se rozvoji technologie, tento druh procesu musí být řízen s maximálním vědomím.

Dnes diskutujeme o vlivu umělé inteligence na právnické profese, s ohledem na které situace a hodnoty extrémní jemnosti a zvláštnosti související s intelektuální vyspělostí, kreativitou a všemi těmi složkami, které rádi vystopujeme až k nehmotné podstatě člověka.

Stejný problém však nutně vygeneruje rozsáhlý dopad na stovky pracovních míst, které budou stroje ve velmi krátké době schopny vykonávat stejně dobře a lépe než lidé, a to při nekonečně nižších nákladech.

Měli bychom se cítit ohroženi kryptoměnami a umělou inteligencí (AI)?

Obrovské rozměry tohoto problému by nás měly vést k zamyšlení nad dopady, které ovlivní skutečný svět a naši schopnost číst realitu, protože sociální a politický pohled na svět práce a ekonomiky bude mít revoluci.

Je-li oprávněné klást si řadu otázek s ohledem na svět právnických profesí, je třeba vzít v úvahu, že podobné otázky bude třeba klást o velké části světa práce.

Pro nás jsou ty nejbezprostřednější: „Co se stane s lidmi, soudci a právníky, kteří dnes vykonávají roli a funkce, které by zítra mohly vykonávat stroje? Jak si vydělají na živobytí?"

Ale na úrovni kolektivního zájmu je toho mnohem víc: „Kdo bude platit příspěvky na sociální zabezpečení a kdo poskytne komunitě daňové příjmy generované příjmy všech lidských pracovníků nahrazených stroji?“ A znovu: „co se stane se všemi těmi postavami, které se podílejí na výkonu činnosti těchto operátorů (asistenti, spolupracovníci, praktici atd.) a co se stane, když dojde také ke ztrátě jejich příspěvků a daňových příjmů?

Tyto otázky vyvstávají také u všech ostatních pracovních kategorií, které mohou být zasaženy robotickou a digitální revolucí v ještě kratším časovém horizontu, než je ten, který pravděpodobně postihne legální pracovníky.

Vznikají scénáře, které by mohly učinit dnes známé sociologické, ekonomické, antropologické a politické názory zastaralými: socialismus, liberalismus, libertarianismus, suverenismus a tak dále by ztratily své koncepční základy.

Mnohé, ne-li vše, by muselo být přehodnoceno od začátku.

Ale vrátím-li se k tématu AI v právní oblasti, můj osobní názor je, že roli právníka (povoláním vykladač nejen norem, ale i faktů a do jisté míry i lidí) nebude schopen omezit na migraci do jiného regionu cyklu produkce právních služeb.

Moje představa je, že právníkovi a právníkům obecněji by mohla být přidělena vyšší role: to znamená dohlížet na to, aby povědomí o správě technologického rozvoje bylo vždy úměrné skutečným cílům blahobytu lidstva, správně směrováno a v případě potřeby také vědomě a rozumně omezovat.

Známé čínské přísloví říká: „Když zavane vítr změn, někteří staví bariéry, jiní staví větrné mlýny“.

Nyní, i když si rád myslím, že se mohu počítat mezi ty, kteří se „když zavane vítr změny“ nadšeně vrhají do stavby větrných mlýnů, nechtěl bych se dostat do bodu, kdy větrné mlýny už nepotřebují lidi, protože jejich existence se věnuje potřebě dalších větrných mlýnů.

A kdyby na to došlo, potřeboval by člověk takové větrné mlýny?

Nyní je právník z definice ten, kdo je povolán (ad vocatum), aby hájil a hájil věc. Zde je jeho příčina: bude se muset postarat o to, aby se lidé pevně drželi pravidel a aby stroje zůstaly ukotveny v roli, pro kterou byly stvořeny: pracovat ve službách lidstva.

A když bude potřeba, bude se muset postavit a bojovat, aby to tak bylo a zůstalo.

Bojovat za dobro lidstva. Jako Mazinga Zeta ve slavné japonské karikatuře pro ty, kteří si to pamatují.

Zní to dobře, ale Mazinga Zeta, nebyl to také robot?

 

Zdroj: https://en.cryptonomist.ch/2023/03/11/crypto-ai-future-lawyers-role/