Ne-nesmyslný komplexní přesvědčivý případ, proč právníci potřebují vědět o umělé inteligenci a právu

Rukavice byla hozená.

Víte, byl jsem pozvaným hlavním řečníkem na hlavní konferenci o právnickém průmyslu a moje ohlašované téma bylo přímo v mé kormidelně, jmenovitě umělá inteligence (AI) a právo (typicky vytvořené jako AI a právo).

Spíše než být zcela ohlašován je možná výstižnější formulace říci, že u některých se toto téma setkalo se směsí vzrušení a u jiných s naprostou skepsí zvedající obočí. Shromážděná sbírka několika stovek partnerů a spolupracovníků advokátních kanceláří mumlala a nenápadně se ptala, zda něco o AI a právu zvlášť potřebují vědět. Umělá inteligence byla obecně vnímána jako téma koláče na obloze. Kromě tohoto sporu byla AI v kombinaci se zákonem stejně nebo ještě dále v dosahu toho, o čem by se zdálo, že přemýšlí každodenní tvrdě pracující právníci.

Horlivě jsem se odvážil do tohoto kelímku se založenýma rukama.

S potěšením mohu říci, že mé poznámky byly dobře přijaty a odezva byla vcelku pozitivní, včetně toho, že to bylo poprvé, kdy mnozí z nich slyšeli nesmyslný přesvědčivý a komplexní případ vytvořený pro to, proč by právníci měli vědět o AI. a zákon. Diskuse rozjela ty prvotřídní právně smýšlející zařízení a účastníci měli o čem přemýšlet.

Podívejme se, zda totéž lze říci o těch z vás, které by to mohlo zajímat nebo alespoň zajímat AI a právo téma.

Jdeme na to.

Za prvé, životně důležitý aspekt, který je třeba vědět, je to AI a právo se skládá ze dvou vzájemně propojených koncepcí.

Jednoduše řečeno, jsou to:

  • (1) Zákony aplikované na AI: Formulace, uzákonění a vymáhání zákonů, jak jsou aplikovány na regulaci nebo řízení umělé inteligence v naší společnosti
  • (2) AI-aplikovaná na zákon: Technologie umělé inteligence navržená a aplikovaná do práva, včetně právního uvažování založeného na umělé inteligenci (AILR) začleněné do high-tech aplikací LegalTech k autonomnímu nebo poloautonomnímu provádění právních úkolů

Chci důrazně zdůraznit, že se jedná o bona fide a rychle se rozšiřující způsoby, jak se AI a právo spojují.

Mnoho právníků je obeznámeno pouze s jedním nebo druhým z těchto dvou pohledů, nebo často ani s jedním z nich.

V závislosti na vašich právnických preferencích je naprosto v pořádku soustředit se na jednu z těchto dvou a na druhou se nijak zvlášť nezaměřovat. Obecně platí, že právníci, kteří se zdají být méně nakloněni tomu, aby se zajímali o technologie, musí dávat pozor na právo, jak je aplikováno na AI, kde se nemusíte nutně pouštět do technologie jako takové. Ti právníci, kterým se zdá, že si užívají high-tech infuzi do právní sféry, jsou náchylnější tíhnout k oblasti AI, jak je aplikována na právo.

Jste vítáni, abyste přijali oba aspekty a činili tak se vztyčenou hlavou.

Úvahy týkající se zákona platného pro AI

Nejprve zde udělám nějaké masité rozbalení zákona, který se vztahuje na AI.

Když mluvíte o zákonech uplatňovaných na AI, měli byste okamžitě myslet na vznikající litanii nových zákonů, které se snaží řídit nástup systémů AI. Zákony rostou jako požár. Vznikají mezinárodní zákony AI a právo, také federální zákony, také státní zákony a spousta místních zákonů, viz moje průběžné pokrytí na odkaz zde a odkaz zde, Abychom jmenovali jen několik.

Proč jsme najednou svědky toho, že zákony související s umělou inteligencí začínají fungovat?

Na to se snadno odpovídá.

Ještě před několika lety byla nejnovější éra umělé inteligence chválena za poskytování AI pro dobro. To znamenalo, že umělá inteligence byla vnímána jako nabízená pro dobro společnosti. To netrvalo moc dlouho. Lidé například začali zjišťovat, že technologie rozpoznávání obličeje založená na umělé inteligenci může snadno generovat falešné indikace a fungovat zdánlivě diskriminačním způsobem (viz moje pokrytí na odkaz zde). Totéž lze říci o AI, která byla používána pro účely najímání. Obavy začaly narůstat.

AI pro špatné dorazil (dobře, byl tam celou dobu, ale teď to bylo patrné).

Jak se máme vypořádat AI pro špatné?

Rychlá reakce byla identifikovat měkké zákony sestávající z etických zásad AI.

Tyto etické pokyny pro umělou inteligenci týkající se vymýšlení umělé inteligence a nasazení umělé inteligence jsou do určité míry překážkou, zatímco náročnější úsilí směřuje k uzákonění tvrdé zákony. Nechci ale zanechat dojem, že etika umělé inteligence a etická umělá inteligence už nebudou potřeba, jakmile bude existovat množství zákonů na knihách. Vůbec ne. Neustále a vždy potřebujeme etiku umělé inteligence jako nezbytný doplněk k formálním zákonům. Všechno, co se teď děje s etikou umělé inteligence, bude muset zůstat nedotčené a být tím nejlepším pojivem, aby se umělá inteligence ubírala správným směrem.

Zde je užitečný základní seznam etických kritérií nebo charakteristik umělé inteligence týkající se systémů umělé inteligence, které jsem dříve podrobně prozkoumal ve svých sloupcích:

  • Průhlednost
  • Spravedlnost a férovost
  • Neškodlivost
  • Odpovědnost
  • Ochrana osobních údajů
  • Dobročinnost
  • Svoboda a autonomie
  • Věřte
  • udržitelnost
  • Důstojnost
  • Solidarita

V předchozích sloupcích jsem pokryl různé národní a mezinárodní snahy o vytvoření a uzákonění zákonů regulujících umělou inteligenci, viz odkaz zde. Důkladně jsem také prozkoumal různé principy a pokyny etiky umělé inteligence, které identifikovalo a přijalo mnoho zemí, včetně například úsilí Organizace spojených národů, jako je soubor etiky AI UNESCO, který přijalo téměř 200 zemí, viz. odkaz zde.

Předpokládá se, že tyto zásady etiky AI budou vážně využívat vývojáři AI spolu s těmi, kteří řídí úsilí o vývoj AI, a dokonce i ti, kteří nakonec používají a provádějí údržbu systémů AI.

Všechny zúčastněné strany během celého životního cyklu vývoje a používání AI jsou posuzovány v rámci dodržování zavedených norem etické AI. To je důležité upozornit, protože obvyklý předpoklad je, že „pouze kodéři“ nebo ti, kteří programují AI, podléhají dodržování etických pojmů AI. K vymýšlení a nasazení umělé inteligence je zapotřebí vesnice, v níž se celá vesnice musí orientovat a dodržovat etická pravidla AI.

Posouváme-li naši diskusi do arény tvrdého zákona, děje se toho hodně.

Ve Spojených státech Algoritmický zákon o odpovědnosti se vine po centimetrech Kongresem, zatímco EU a její návrh Zákon o umělé inteligenci (AIA) postupují vpřed ve zdánlivě razantnějším klipu. Mohlo by vás také zajímat, že tzv Listina práv AI byla nedávno odhalena stávající administrativou Bílého domu USA, která se snaží definovat lidská práva ve věku umělé inteligence, viz moje analýza na odkaz zde (všimněte si, že prohlášení bylo nezávazné a postrádá sílu zákona).

Běžný právník by mohl pokrčit rameny a říci, že veškerá tato energie spojená s etikou umělé inteligence a postupně přibývajícími zákony o umělé inteligenci je prázdná. Celá záležitost je jistě mírně zábavná, ale na jejich dosavadní úsilí to nemá žádnou výraznou váhu.

Dáme si na to nudle.

Předpokládejme, že máte klienta, který je velkým podnikem, a poskytujete klientovi externí právní služby. Ukázalo se, že tento klient přijal několik systémů umělé inteligence, aby jeho podnikání bylo efektivnější a efektivnější. Dobré pro ně, možná si říkáte, i když vás to nezajímá.

Opravdu?

Klient tyto aplikace umělé inteligence převezme a po chvíli jejich používání se ocitne zapleten do soudních sporů ze strany zákazníků, kteří tvrdí, že umělá inteligence jednala diskriminačním nebo nepřiměřeně zaujatým způsobem. Dále pojďme do toho a představme si, že bylo přijato několik zákonů na místní, státní a federální úrovni, které jsou zaměřeny na AI. Klient nejen čelí občanskoprávním žalobám, ale nyní je také pronásledován kvůli potenciálním trestným činům spáchaným prostřednictvím adopce AI a sledování.

Kde jsi byl, když se to všechno dělo?

Očividně se ani trochu nezajímalo o AI a o to, zda AI a zákon přichází a přichází.

Styď se. Ještě horší je, že vás klient může vyhodit. A co je horší, můžete čelit obvinění z nezákonného právního jednání za to, že jste firmě včas a důvtipně právně neradili, když skákala do bahna AI.

Spal jsi u právního kola.

Právníci, kteří jsou důvtipní v oblasti umělé inteligence, rychle poukazují na to, že Americká advokátní komora (ABA) již nabídla oficiální rady ohledně tématu používání umělé inteligence a výkonu práva. Podle rezoluce ABA přijaté v srpnu 2019 (ano, čtete správně, stalo se to před více než 3 lety), zde je dohoda o AI:

  • „S ROZHODNUTÍM, že Americká advokátní komora naléhá na soudy a právníky, aby se zabývali vznikajícími etickými a právními problémy souvisejícími s používáním umělé inteligence („AI“) v praxi práva, včetně (1) zaujatosti, vysvětlitelnosti a transparentnosti automatizovaných rozhodnutí vyrobeno AI; (2) etické a prospěšné využívání umělé inteligence; a (3) kontroly a dohled nad umělou inteligencí a dodavateli, kteří umělou inteligenci poskytují.“

V tomto smyslu lze uvést poněkud přesvědčivý argument, že právníci mají povinnost být si vědomi umělé inteligence a zajistit, aby svým klientům podle toho právně radili (má podrobná analýza na toto téma viz odkaz zde).

Pokud si pozorně přečtete výše uvedené prohlášení, je nepochybně zbožné, takže se můžete spolehnout na formulaci, že vás pouze „vybízí“, abyste se zabývali problémem AI, spíše než aby vás k tomu nutil. To může přijít jako povzdech.

Ale mohlo by to být krátkodobé oddechnutí.

Za prvé, dalo by se říci, že vás ABA upozornila na důležitost umělé inteligence v zákoně.

Zadruhé, pokud jste zcela ignorovali pokyny, mohlo by to být proti vám vzneseno chytrým právníkem pro zanedbání povinné péče, který se vás bude snažit pronásledovat jménem vašeho zakysaného klienta s hlubokými kapsami.

Zatřetí, ačkoli byste se zjevně pokusili namítnout, že tvrzený předpis je nezávazný ve své laxní formulaci, je pravděpodobné, že soud to tak nemusí vidět a ani porota by pravděpodobně nebyla zvlášť nakloněna vašemu pokusu o mlsání slov. . Mohli by interpretovat ducha rezoluce a vážit to nad přesným zněním prohlášení.

Roztočte kolo a uvidíte, jak to půjde.

Vezměte prosím také na vědomí, že ačkoli scénář zahrnoval vaše právní služby jako externího právníka, mějte na paměti, že interní právní poradce, jako je Chief Legal Officer (CLO), General Counsel (GC) nebo jiný podnikový právník, je také neoddělitelně součástí stejné hry. Pro ty z vás, kteří poskytují interní právní poradenství, se to, že necháte AI svévolně vymýšlet nebo adoptovat ve vaší firmě, vrátí a bude vás pronásledovat. To je zaručený výsledek předtuchy.

Nejběžnější reakcí na toto řízení zvažování umělé inteligence je, že určitě musí ne se na vás vztahují, protože neděláte legální práci pro technologické společnosti (předpokládejme, že tomu tak je). Jistě, pokud jste byli ponořeni do technologické společnosti, toto vše by mohlo být relevantní. Ale jste právním poradcem pro netechnickou firmu nebo v ní. Společnost nevyrábí AI. Nejsou technologicky orientovaní.

Vraťte se a pečlivě si znovu přečtěte, z čeho scénář sestával.

Zatímco pozornost věnovaná umělé inteligenci zpočátku zahrnovala high-tech firmy, které navržen AI, větší obrázek je, že téměř každá firma jakékoli velikosti nebo tvaru je inkrementálně přijetí systémy AI. Jsou to uživatelé AI. Jejich produkty a služby jsou zase závislé na AI.

Hádám, že se pokusíte tvrdit, že jelikož tyto firmy přijaly pouze AI, jsou magicky mimo, když se AI pokazí. Vše, co musíte udělat, je říct každému, kdo klepe na legální dveře, že by měl jít po ulici ke společnosti, která vymyslela AI.

Dobrý pokus, ale nepochybně nebude fungovat.

Je pravděpodobné, že firma používající AI bude zapletena do jakýchkoli právních spletenců, zvláště pokud jde o velkou firmu a výrobce AI je malá firma. Dejte si nohy do bot advokáta, který se pokouší žalovat. Velká firma má velké peníze. Získejte malou firmu a jděte za velkou firmou. O licencování a ostatní se samozřejmě budou dít nejrůznější tahanice. Velká firma je nicméně šťavnatým cílem a žádný právník, který stojí za to, se nevzdá jít za ní.

Přiléváme olej do ohně a je pravděpodobné, že se velká firma rozhodla provést úpravy nebo nechat AI „vytrénovat“, aby mohla využívat data velké firmy. Jejda, už nejsi na vzdálenost paže od firmy, která byla tvůrcem AI. Přivedli jste AI a v podstatě jste si ji udělali svou vlastní. Pryč je zdánlivá ochrana, že jsi byl nevinný. Vaše firma záměrně upravila nebo upravila AI, pro kterou je AI nyní nedílnou součástí vaší velké firmy.

Žít s tím, vlastnit to.

Je toho víc, aby se vám zatočila hlava.

Nové zákony, které se hromadí jako letadla zaseknutá v letovém vzoru na velkém letišti, budou mít v sobě všechny druhy chaotických právních problémů. Zákonodárci ruší tyto legální zablácené noční můry prostřednictvím zákonodárného potrubí. Každý chce být první, kdo předvede, že se drží AI pro špatné. Čeká sláva spolu s pomocí těm, kterým ubližuje špatná AI.

Problémy jsou však v této výrobě uzenin. Právní jazyk často není dobře promyšlen. Mezery existují. Převažuje chybná formulace. Atd.

Můžete to chápat jako legální bažinu nebo legální jackpot, v závislosti na tom, na které straně plotu byste mohli být, když se snažíte interpretovat tyto zákony. Podívejte se například na moji analýzu tohoto vágního a znepokojivého zákona New York City (NYC) o auditu předsudků AI, který je naplánován vstoupit v platnost letos v lednu a bude představovat obrovský problém pro tisíce a tisíce podniků (velkých i malých) v New Yorku. Město, viz odkaz zde.

Takže jsme svědky nárůstu zákonů, které se soustředí na AI.

To není vše. Budeme mít zdánlivě oddané zákony AI a kromě toho bude AI také zmíněna buď hluboce nebo skromně v zákonech, které jsou zdánlivě tečné k AI. Pokud si myslíte, že se nemusíte bát AI a právo protože je to extrémně úzký právní prostor, navrhoval bych, abyste překalibrovali toto krátkozraké myšlení.

Dalším zvratem je, že budeme mít nové zákony, které začleňují nějaké právní bláboly o AI, což pak bude téměř jistě v rozporu se stávajícími zákony, které se o AI nezmiňují. Stručně řečeno, můžete být plně spokojeni s některým stávajícím zákonem, který znáte jako své boty. Další věc, která se stane, je, že přijde nějaký obskurní nový zákon a zmíní se o AI. Ukázalo se, že nový zákon se protíná s milovaným zákonem mimo AI, který znáte nazpaměť.

Jste připraveni bojovat s tím, jak jsou nové zákony, které zahrnují AI, v rozporu se stávajícími zákony, které se o AI nezmiňují?

Představte si tento scénář.

Jeden z vašich oblíbených klientů je rok co rok spokojen s vašimi právními službami. Úplně a bez jakékoli kvalifikace vážně znáte zákony, které se vztahují na tohoto klienta. Můžete recitovat zákony se zavázanýma očima.

Byl schválen nový zákon, který zahrnuje různé části spojené s AI. Nevěnujete pozornost tomuto novému zákonu, protože téma nebo zaměření zákona zřejmě přímo nesouvisí se zákony, o kterých si myslíte, že jsou pro klienta relevantní.

Chytrý právník, který důkladně prostudoval tento nový zákon, si uvědomuje, že prvek AI otevírá dveře do vaší právní sféry. Náhle a k vašemu šoku a překvapení se tomuto dalšímu advokátovi podaří najít klienta, který se domnívá, že byl vaším klientem právně poškozen. Průchodem, který spojuje tečky, je tento nový zákon, který lze protáhnout do vaší normálně zavedené právní arény.

Nikdy jsi to neviděl přicházet.

Pokud se domníváte, že vaše právní specializace je nějakým způsobem imunní vůči právní invazi AI, buďte opatrní při vytváření tohoto drzého a nakonec mylného předpokladu. Jmenujte právnickou specializaci a já vám snadno ukážu, jak AI přichází do toho města. Trestní právo? Samozřejmě. Rodinné právo? Ano. Daňový zákon? Očividně. Námořní právo? Ano. Seznam pokračuje.

Omlouvám se, pokud se to zdá skličující a trochu zdrcující.

Je to nepochybně něco, co málokterý právník zná.

Blíží se zemětřesení, ale málokdo se na něj připravuje. Někteří nevědí, že zemětřesení začíná dunět. Jiní si myslí, že se jich to nedotkne. Když udeří zemětřesení, teprve potom se na právně orientovaném potvrzení AI rozsvítí nějaké žárovky.

Dobře, doteď jsem na to zatloukal hard-law aspekty. Věřím, že strana právně nevynutitelných zákonů začíná žárlit. Tady je to, co mám na mysli.

Představte si to. Klient, kterému poskytujete právní služby, se rozhodl přijmout etiku AI. Předpokládejme pro tuto chvíli, že neexistují žádné tvrdé zákony, které by toto přijetí Etické umělé inteligence vynucovaly. Klient chtěl udělat „správnou věc“, a proto se rozhodl předvést světu, že plně podporuje etiku AI.

To je hezké.

Možná nebudete zasvěceni do toho, že se rozhodli začlenit etiku umělé inteligence do své firemní kultury. Nebo jste si toho mohli být vědomi, ale usoudili jste, že vás to nezajímá. Je to jen přístup soft law. Koho to zajímá? Né ty.

Pár měsíců dolů na štiku a společnost sklouzne nahoru. Oněm etickým principům umělé inteligence jen namlouvali. Šlo především o reklamní trik. Mezitím AI, kterou do firmy přinesli, je plná všech druhů porušování etické AI.

To není dobré.

Chytrý právník, který si přeje právně řešit vašeho klienta, pravděpodobně děkuje svým šťastným hvězdám, že etika AI proběhla. Pokud váš klient nikdy neřekl nic o Etické umělé inteligenci, možná existuje šance, že by mohl hrát gambit, že neví, co nevěděl. Místo toho dělali povyk kvůli tomu, že věděli o etice umělé inteligence. Do jisté míry se postavili na vyšší úroveň odpovědnosti za to, co udělali se svou AI.

Upozornili jste je na to hned na začátku a pomohli jste jim legálně zvážit povahu etiky umělé inteligence a jak ji jako společnost budou využívat?

Sakra, nebyl ve tvém hlídkovém prostoru.

Mohl bych pokračovat dál a dál, ale věřím, že se téma ozývá nahlas a jasně.

Advokátní kanceláře, které jsou ve střehu, si začínají uvědomovat bonanzu spojenou s nabízením právních služeb točících se kolem AI. V rámci své advokátní kanceláře začínají zakládat nové praxe AI a právo jako specialita.

Ti v rámci AI a právo specialisté jsou schopni poradit stávajícím i potenciálním klientům ohledně jejich adopce AI. Kromě toho se partneři a společníci smýšlející o AI snaží spolupracovat a informovat napříč všemi ostatními právními liniemi nebo specializacemi firmy a snaží se zajistit, aby tyto další oblasti nebyly zaslepeny novými zákony o AI, včetně těch tangenciálních.

Interní právník také pomalu přidává právní talent, který je zběhlý AI a právo (hlavně ve společnostech, které si uvědomují, že jsou zaplaveny umělou inteligencí) nebo přidělováním zkušených právníků, kteří se stanou užitečným interním zdrojem v právním tématu umělé inteligence. Pravděpodobně budou stále používat externí právní zdroje pro záležitosti související s umělou inteligencí ve větším měřítku, i když díky vlastnímu talentu mají důvěryhodného interního člena právního týmu, který může sloužit jako zásadní spojení mezi tím, čím společnost je. a pravděpodobně hlubší právní schopnosti externího právního poradce se znalostí AI.

Nechci naznačovat, že se to děje přes noc jako mávnutím kouzelného proutku.

Právnické firmy jsou známé nebo řekněme notoricky známé tím, že se pomalu mění.

Navíc, dokud se tržiště dožaduje AI a právo talentu, většina advokátních kanceláří zvolí vyčkávací přístup. Pokud se objeví trh, voilá, pravděpodobně se chopí plnohodnotného přístupu a získají jakýkoli nový talent, který bude potřeba. Jde o klasickou just-in-time (JIT) strategii obchodování s právními službami.

Menší advokátní kanceláře nebo samostatné kanceláře se musí ocitnout v obtížné situaci. Na jedné straně, pokud je třeba vydělat peníze AI a právo domény, to se zdá být velmi atraktivní. Nemohou si však dovolit riskovat, pokud trh již dostatečně neprosakuje. Musíte vydělat dost, abyste věci udrželi. Držte se dojné krávy jakékoli existující právní oblasti, kterou znáte, a buďte připraveni, až se trh otevře hlasitým voláním po AI a právo legální služby.

Je to Catch-22 svého druhu.

Právní firmy a právníci nebudou vynakládat energii a pozornost AI a právo pokud po nich jejich klienti a trh nevybuchnou opojnou poptávkou. Jde o to, že většina klientů si pravděpodobně neuvědomuje, že to potřebují AI a právo související právní služby. Řítí se kupředu na AI nakládacím vlaku a AI rozjetém ​​vlaku, zcela neznalí legálních výmolů a strmých útesů před nimi.

Možná je to slepice nebo vejce, které dorazí jako první.

Klienti, kteří se dostanou do všemožné legální horké vody a jsou oprávněně naštvaní, že nedostali právní poradenství ohledně jejich používání AI, a pak se podle toho rozzlobeně konfrontují se svými poskytovateli právních služeb. Nebo budeme mít důvtipné právníky, kteří se dostanou před nadcházející tsunami a pokusí se zapojit své klienty do diskusí, které budou jistě těžké, protože mnoho klientů bude mít hluché uši k právním varovným zvonkům AI?

To přináší související pojem, který stojí za úvahu.

Uvědomte si, že někteří učenci neústupně tvrdí, že nepotřebujeme nové zákony, které se týkají umělé inteligence, a že naše stávající zákony jsou dostatečné. Dále varují, že pokud tyto zákony o umělé inteligenci uzákoníme, zabijeme zlatou husu tím, že potlačíme pokroky v umělé inteligenci, které nabízejí obrovské společenské výhody. Někdy je tento názor nebo hledisko označováno jako vymyšlené Výjimečnost AI (což znamená, že bychom měli ponechat značnou volnost, pokud jde o legální omezení AI, protože AI takové nabízí výjimečně důležité výhody pro společnost).

Určitě uslyšíte totéž, co říkají mnozí vaši dnešní klienti.

Pokud půjdete slepě do intenzivních diskusí se svými klienty a pokusíte se vysvětlit právní důsledky jejich přijetí AI, bude to často vnímáno jako právní stránka, která opět brzdí dobré věci. Jejda, bude vám spěšně řečeno, prosím, přestaňte se všemi těmi divokými a vytřeštěnými legálními nočními můrami.

S AI si vystačíme, budou na tom trvat. Sníží naše náklady, můžeme snížit počet zaměstnanců a konečně se můžeme rozšířit a poskytovat naše produkty a služby stále většímu počtu spotřebitelů nebo zákazníků. Všichni ostatní jsou na tom podobně. Když to dělají oni, musíme to dělat i my. Pokud by vaše slova právní opatrnosti dávala smysl, tito naši konkurenti by nepřijali AI, jako by to byla ta nejlepší věc od krájeného chleba.

Byl tam, udělal to.

Ujistěte se, že svá právní upozornění týkající se umělé inteligence formulujete tak, aby byly pro podnikání co nejvýhodnější. Zjistil jsem, že je užitečné poukázat na vysoce medializované překlepy AI, které již společnosti potrestaly ztrátou obchodní pověsti a/nebo nákladnými soudními spory. Hádám, že byste také mohli zkusit starý refrén, který jsme se všichni naučili jako děti, totiž jen proto, že někdo jiný bezmyšlenkovitě skáče z útesu, znamená to, že by to měli dělat také?

Diskusi o AI budete chtít zarámovat tím, že zdůrazníte, že existují správné a špatné způsoby, jak AI adoptovat. Pokud zanecháte dojem, že vkládáte kibosh na používání umělé inteligence v plném rozsahu, bude to tvrzení, které zničí párty. Zdá se, že neponechává žádný prostor pro využití AI. To není poselství, které budete považovat za úspěšné předat.

Lepším přístupem je stanovit, jak musí být právní předpisy nedílnou součástí životního cyklu přijetí AI. Pro každou fázi vývoje AI, přizpůsobení nebo přijetí by mělo být zvažováno právo. Žádné z těch opožděných dodatečných věcí, kdy je právník na samém konci požádán, aby provedl závěrečný podpis. To už je pozdě. Kůň už je pěkně venku ze stodoly.

Jako další přichází na mysl pověstná mrkev a bič.

Dalo by se říci, že mrkev spočívá v tom, že zákon, který se vztahuje na umělou inteligenci, bude pro právníky vydělávat velké peníze (vyžádá si spoustu těch drahocenných zúčtovatelných hodin), zatímco hůl je v tom, že právníci, kteří nedávají pozor, se mohou dostat do hlubokých problémů, když klienti jsou z právního hlediska zavaleni právními riziky a závazky souvisejícími s umělou inteligencí (pravděpodobně to povede ke ztrátě reputační hodnoty právního zástupce a možná bude čelit nesprávným praktikám nebo podobným neduhům v judikatuře).

Rád bych do kupy uvážlivě přidal ještě jednu mrkev, jestli můžu.

Někteří advokáti jsou motivováni novotou nevyřešených právních výzev.

Cílem těchto právníků je prozkoumat nové právní oblasti. Chtějí se zapsat do právního prostředí a ne jen přetlačovat stejné právní detaily z jednoho právního místa na druhé. I když jsou pro ně účtovatelné hodiny nepochybně životně důležité, velmi si přejí využít své těžce vydobyté právnické smýšlení k řešení obzvláště obtížných nebo náročných právních hádanek.

Těmto dobrodružným hledačům práva vás upřímně vítám v oblasti práva, jak je aplikováno na AI.

Tady je dohoda.

Začnu otázkou, která by vás mohla přimět k odplivnutí. Připrav se.

Jaká je definice umělé inteligence (AI)?

Dovolte mi trochu, ale důležitě přeformulovat otázku: Co je to právní definice umělé inteligence (AI)?

Jistě předpokládáte, že právní svět již do nejmenších detailů vymezil konkrétní definici a význam, když se odkazuje na věc, kterou nazýváme „AI“ (mimochodem, někteří nyní raději říkají Umělá obecná inteligence (AGI), pokus přivést zpět cíl dosáhnout skutečné umělé inteligence spíše než dnešní méně působivé necítivé umělé inteligence.

Není tak.

Jak jsem již obsáhle popsal, legální definice umělé inteligence jsou skutečně desetník, viz moje analýza na odkaz zde.

Přemýšlejte o tom takto.

Všechny ty zářné nové zákony o umělé inteligenci na mezinárodní, federální, státní a místní úrovni se pravděpodobně zaměřují na umělou inteligenci, a přesto se ukazuje, že neexistuje žádná plně schválená plně standardizovaná právně plně zpevněná definice umělé inteligence. Místo toho si každý do značné míry vymýšlí své definice umělé inteligence, když tvoří zákon, nebo si půjčuje definici někoho jiného, ​​i když nikdo nemůže konkrétně říci, zda obstojí ve zkoušce času a vydrží přísné soudní tahanice.

Přemýšlejte o tom chvíli.

Pokud se v novém zákoně rozhodnete použít definici umělé inteligence, která je příliš úzká, je pravděpodobné, že všechny druhy umělé inteligence, které by měly spadat do oblasti působnosti, budou moci zákonu uniknout (zejména jak právně argumentují právníci znalí umělou inteligenci, že uvědomit si, že mezera existuje). Na druhou stranu, pokud je definice umělé inteligence příliš široká, mohla by do nového zákona zahrnout širokou škálu softwaru a systémů, které pravděpodobně nemají žádný skutečný základ pro to, aby spadaly do působnosti tohoto zákona. Stručně řečeno, část nepořádku zákona aplikovaného na AI spočívá v tom, že skončíme s mozaikou nových zákonů, které pokrývají něco mlhavě známého jako „AI“, ale které budou otevřeny značně odlišným právním výkladům.

Právníci se různě ocitnou v těchto pozicích souvisejících s právními definičními rozmary o AI:

  • Obhajoba klienta, který tvrdí, že zákon se nevztahuje na jeho údajnou „AI“, kterou firma vymyslela
  • Obhajoba klienta, který tvrdí, že zákon se nevztahuje na jeho údajnou „AI“, kterou firma používá nebo adoptovala
  • Zastupování klienta, který tvrdí, že se zákon vztahuje na firmu, která vymyslela údajnou „AI“ škodlivé povahy
  • Zastupování klienta, který tvrdí, že se zákon vztahuje na firmu, která použila nebo přijala údajnou „AI“ škodlivé povahy
  • Ostatní

Jak můžete jako právník udělat něco pro pomoc při vypořádání se s tímto rychle se rozšiřujícím problémem a pokusit se odvrátit enormně nákladné a byzantské právní úskoky, které rozhodně nastanou?

Pomozte ve spolupráci se zákonodárci zjistit definiční podrobnosti AI. Možná se staňte zákonodárcem, pokud vás to zajímá. Staňte se lídrem ve zjišťování zákonů umělé inteligence, které dávají smysl, budou dobře specifikované, mohou být bez sporů (no, nic takového neexistuje), nebo alespoň snižte rozdíly, kolem kterých spory vzniknou, a snažte se zabránit právnímu víru. to přijde, jakmile se všechny tyto nové zákony o umělé inteligenci dostanou do knih a kůň bude venku ze stodoly.

Jak vám to připadá jako právně zajímavý návrh?

Někteří z vás si možná říkají, že definiční potíže AI nejsou z vašeho pohledu nijak zvlášť zajímavou výzvou. Co dalšího je na listině, možná se ptáte. Mám jich plnou bušl, ale teď si vezměme ještě jeden příklad.

Dvě slova: Právní subjektivita.

Může nebo by měla být AI pomazána nějakou formou právnické osoby?

Musíte uznat, že to vypadá jako hybatel. Předpokládejme, že se všichni společně rozhodneme umožnit AI, aby měla zdání právnické osoby. Přemýšlejte o důsledcích. Některé země se touto cestou již vydaly, například tvrdí, že umělá inteligence může vlastnit práva na duševní vlastnictví pro artefakty vyrobené umělou inteligencí, jako jsou nové vynálezy, nové umění a podobně.

Někteří říkají, že to dává smysl, jiní jsou hlučně naštvaní a tvrdí, že dnešní umělá inteligence si vůbec nezaslouží ani špetku právnické osoby.

Je to obrovská kontroverze.

Doposud ve Spojených státech, pokud jde o duševní vlastnictví, bylo obecné právní zakotvení takové, že zákony o duševním vlastnictví stanoví, že zákonným vlastníkem musí být člověk, viz moje pokrytí na odkaz zde. V jistém smyslu tento druh mlčky obchází otázku právní subjektivity umělé inteligence tím, že jednoduše naznačuje, že jediným použitelným vlastníkem IP musí být lidské právní postavení.

Poněkud související se záležitostí právnické osoby je úzce spárované téma, které zahrnuje Odpovědnost AI (v době označované jako Zodpovědnost AI). Zodpovědnost nebo odpovědnost odkazuje na snahu legálně svázat AI, kdo nebo co by mělo být odpovědné nebo odpovědné, když AI způsobí škodu, viz moje analýza na odkaz zde.

Zdá se, že snadná odpověď je, že vinu nese ten, kdo vymyslel AI. Člověk napsal kód, a tak nese odpovědnost nebo zodpovědnost. Ale předpokládejme, že AI byla napsána tak, aby se sama přizpůsobila. To může být provedeno z jasně prospěšných důvodů. Ve stejné době se urážející umělá inteligence odchýlila od svých původně navržených mechanizací. Máme stále volat programátory k odpovědnosti?

Vzniká kalnost.

Například programátoři napsali AI a pak někdo jiný, kdo vytvořil AI, změnil AI.

Nyní, kdo nese odpovědnost? Více matoucí je, že AI prošla desítkami lidských rukou spolu s desítkami samonastavitelných konvolucí a výsledná varianta AI se již vůbec nepodobá dřívějším verzím. Nesou vinu všichni? Nikdo nenese vinu? Dokážete dokonce vysledovat linii AI, abyste definitivně určili, kteří lidé byli zapojeni a jakou účast měli každý?

Tady je přidaný kicker, možná za to může AI.

Pokud se chystáme poskytnout AI určitou část právnické osoby, pravděpodobně můžeme AI také právně pohnat k odpovědnosti. Ale co to znamená? Bude AI legálně vlastnit majetek, který by poškozený mohl získat za řádnou náhradu? Může být AI uvězněna? Tato témata jsem probral na odkaz zde a odkaz zde, mezi mnoha mými spisy na tato témata.

Doufám, že tyto různé upoutávky stačí k povzbuzení vašeho právního apetitu.

Sečteno a podtrženo, pro ty z vás, kteří sní o tom, že se jednoho dne budou moci legálně prosadit a chtějí se ponořit do pozoruhodných právních výzev a právních hádanek, považujte právo za platné pro AI.

Je čas příště se podívat na spojenecké bratry, AI, jak je aplikována na zákon.

Vzhledem k vzestupu umělé inteligence v souladu se zákonem

Na začátku této diskuse jsem řekl, že existují dva hlavní způsoby propojení umělé inteligence a práva (AI a právo), které se opět skládají z:

  • (1) Zákony aplikované na AI: Formulace, uzákonění a vymáhání zákonů, jak jsou aplikovány na regulaci nebo řízení umělé inteligence v naší společnosti
  • (2) AI-aplikovaná na zákon: Technologie umělé inteligence navržená a aplikovaná do práva, včetně právního uvažování založeného na umělé inteligenci (AILR) začleněné do high-tech aplikací LegalTech k autonomnímu nebo poloautonomnímu provádění právních úkolů

Již nyní jsme provedli rychlou prohlídku prvního bodu týkajícího se zákona, který se vztahuje na AI.

Ať děláte cokoli, prosím, neignorujte ani nevynechávejte další stejně zásadní pilíř, a to používání umělé inteligence, jak je aplikováno v zákoně. Ujišťuji vás, že s používáním umělé inteligence je tolik mrkve, kolik bylo při projednávání zákona aplikováno na umělou inteligenci. Také, a i když nechci působit ponuře, existují také klacky související s umělou inteligencí v oblasti práva, takže se na to také připravte.

Umělá inteligence, jak je aplikována na zákon, znamená pokusit se využít nejnovější a probíhající pokroky umělé inteligence na pomoc při plnění právních úkolů. Cílem je poskytnout technologii, která může fungovat poněkud podobně jako lidský právník, i když prozatím spíše omezeným způsobem.

V podstatě je to těžký problém.

Velmi těžký problém.

Ukázalo se, že vymýšlet AI, která dokáže poslušně provádět právní uvažování, je mnohem těžší, než si mnozí myslí. Víte, právo je plné sémantické nejednoznačnosti a dosud všechny způsoby konvenčního programování a reprezentace datové struktury nebyly schopny plně pojmout poznání ztělesněné v lidských právnících uprostřed úkolu právníka. Pro zapálené počítačové vědce, kteří hledají významnou výzvu, AI a právo je výrazně úrodná půda. Právníci, kteří chtějí udělat skok kupředu v análech práva, by se také rádi stali součástí těchto snah.

Mnozí trvají na tom, že jde o problém typu moonshot. souhlasil bych. Dobrou zprávou je, že podobně jako tomu, jak bylo samořízení umělé inteligence dříve prezentováno jako měsíční záběr a u kterého bylo dosaženo velkého pokroku, lze totéž říci o cílech právního uvažování založeného na umělé inteligenci. S dostatkem oddané pozornosti a zdrojů je tento obtížný problém výpočetně řešitelný a skončíme tak, že přistaneme na Měsíci.

Možná budete v pokušení říci, že nikdy nebudeme moci přimět umělou inteligenci, aby dělala to, co dělají právníci. Advokáti nelze nikdy „zautomatizovat“ je častým refrénem.

Jak zde brzy uvidíte, debata se obvykle soustředí na výmysl typu všechno nebo nic. Tvrdí se, že AI buď zcela nahrazuje lidské právníky a lidské právníky, nebo nedělá nic takového a zdánlivě nemá žádnou hodnotu, kterou by bylo možné přidat.

Trochu šílený.

Každý právník, který stojí za to, ví o takových zlých argumentech. Snažíte se postavit slamník a pak ho srazit. Voila, vyhrál jsi hádku. Pokud nepřijde někdo jiný, stejně zběhlý v argumentaci, a nepoukáže na to, že slamník byl falešný trik používaný k podbízení se slabému argumentu.

Umělou inteligenci můžeme používat vybranými způsoby a pro konkrétní právní úkony a nemusíme se výhradně registrovat, abychom mohli dělat všechny právní úkony všemi představami najednou.

Jak již bylo řečeno, existují samozřejmě vážné obavy ohledně toho, co AI dělá a zda je schopna dostatečně plnit daný úkol. Pravděpodobně dobře víte, že jedním z aspektů výkonu práva ve Spojených státech je, že Neoprávněný výkon advokacie (UPL) je poměrně přísná podmínka. Zdánlivě UPL chrání ty, kdo hledají právní radu, tím, že zajišťuje, že tak budou činit pouze ti, kteří mají řádnou licenci k výkonu funkce právníka. Vyvstává otázka, zda umělá inteligence, která přechází do legálních úkolů, porušuje UPL, složité téma, kterému jsem se věnoval na odkaz zde.

Jsem si jistý, že někteří z vás čekají, až uslyší, zda jsme dosáhli umělé inteligence, která zcela nahrazuje lidské právníky. To je obvyklá hloupost slyšet na konferencích právního průmyslu. Už jsme tam, otázka visí těžce ve vzduchu.

Nahrazení lidských právníků je jistě sporné horké tlačítko.

Zasvěcený názor je, že spíše než být zaujatý tím, zda AI „nahradí“ lidské právníky, realističtější scénář v blízké budoucnosti je, že právníci vyzbrojení AI pravděpodobně „nahradí“ právníky, kteří nejsou vyzbrojeni AI.

Více o tom řeknu na konci této diskuse.

Obzvláště obtížné téma v oblasti umělé inteligence, jak je aplikováno na právo, zahrnuje různé příběhy o tom, jak jednou budou mít Robo-právníky, Robo-soudce a dokonce možná Robo-porotce. Nejsem příznivcem Robo-labelingu. Problém je v tom, že s označením Robo je spojeno tolik předpojatých zavazadel, že nemůžete někoho zapojit do seriózní konverzace v okamžiku, kdy se do směsi vloží pojem Robo. Váhavě zahrnu Robo-trio do této diskuse a požádám vás, abyste odložili všechny bláznivé nebo divoce předpojaté představy, které byste mohli mít.

Děkujeme za vaši laskavou ochotu podívat se znovu na téma AI, jak je aplikováno na zákon.

Prvním a nejzákladnějším základním kamenem je zamotat si hlavu kolem důležitého rámce, kterým jsem se stal známým, pokud jde o můj pohled na AI Legal Reasoning (AILR) v kontextu úrovní autonomie (LoA), viz můj výzkumný dokument podle časopis MIT Computational Law na adrese odkaz zde.

Rámec vám krátce představím.

Podstatou je, že se zdá, že většina právníků okamžitě upadne do mentální pasti, že pokud má být umělá inteligence používána pro účely právního uvažování, pak AI je buď celá, nebo tam vůbec není. To je falešná dichotomie. Předpokládá se, že AI je buď zapnutá, nebo vypnutá. Zdá se, že buď máte AI, nebo nemáte AI. Ale takhle věci nefungují.

Porovnám tuto stejnou nepravdu se vznikem samořiditelných aut, což vám umožní jasněji pochopit, proč je důležité brát v úvahu různé úrovně autonomie.

Téměř jistě víte, že probíhají četné snahy vymýšlet samořídící auta založená na AI, přičemž AI řídí řízení a není potřeba lidského řidiče za volantem. V několika velkých městech v USA probíhají zkoušky samořiditelných aut. V některých případech je za volantem stále lidský řidič, který slouží jako bezpečnostní nebo záložní řidič. Mezitím se v omezené míře používají samořídící auta bez jakéhokoli lidského záložního řidiče.

Vsadil bych se, že možná matně víte, že existují různé úrovní samořídících aut s umělou inteligencí.

Existuje norma, která zavedla stupnici od 0 do 5 označující Úroveň autonomie která by mohla existovat.

Spodní část stupnice je nula (úroveň 0), pro kterou v podstatě neexistuje vůbec žádné automatizované řízení a řízení je výhradně ručně ovládáno lidským řidičem. Na druhém konci stupnice je nejvyšší bodové hodnocení 5 (úroveň 5). Nejvyšší skóre ukazuje na vozidlo plně řízené umělou inteligencí, které nemá žádného lidského řidiče a které může fungovat v téměř jakémkoli jízdním nastavení, které by lidský řidič zvládl.

Většina lidí přemýšlí o 0 a 5, ale nebere v úvahu důležité úrovně mezi spodním a nejvyšším skóre. Dnešní auta jsou obecně považována za úroveň 2, čímž poskytují určitou automatizaci řízení. Lidský řidič je však stále právně považován za řidiče vozidla. Auta 3. úrovně se teprve objevují a sestávají z poloautonomního řízení. Od lidského řidiče se stále očekává, že bude v případě potřeby připraven, i když většinu řízení může pravděpodobně provést AI.

Úroveň 4 je pro mnohé poněkud matoucí kategorií. Úroveň 4 je považována za plně autonomně řízené auto, ale bude schopno řídit pouze za určitých určených podmínek, známých jako Operational Design Domain (ODD). Například bych mohl říci, že mám auto s umělou inteligencí, které může bezpečně řídit pouze v San Franciscu, pouze během dne, a ne když se počasí zkazí, jako je silný déšť. To je zvláštní ODD, která se vztahuje nebo omezuje tam, kde je řídicí systém AI schopen správně řídit autonomní vozidlo.

Nyní, když jsme probrali základy Úrovně autonomie, jsme připraveni zaujmout stejný přístup a zjistit, jak se také vztahuje na právní akt uvažování.

Zde jsou mé uvedené úrovně autonomie pro právní uvažování založené na AI:

  • Úroveň 0: Žádná automatizace pro AI právní zdůvodnění
  • Úroveň 1: Jednoduchá asistenční automatizace pro právní zdůvodnění AI
  • Úroveň 2: Pokročilá asistenční automatizace pro právní zdůvodnění AI
  • Úroveň 3: Semi-autonomní automatizace pro AI právní zdůvodnění
  • Úroveň 4: Doména autonomní pro právní zdůvodnění AI
  • Úroveň 5: Plně autonomní pro právní zdůvodnění AI

Úroveň 0 je považována za úroveň bez automatizace. Právní úvahy a právní úkoly se provádějí pomocí manuálních metod a v zásadě se odehrávají prostřednictvím papírových přístupů.

Úroveň 1 se skládá z jednoduché asistenční automatizace pro právní uvažování AI. Příklady této kategorie by zahrnovaly používání každodenního počítačového zpracování textu, používání každodenních počítačových tabulek, přístup k online právním dokumentům, které jsou uchovávány a získávány elektronicky, a tak dále.

Úroveň 2 se skládá z pokročilé automatizace pomoci pro právní uvažování AI. Příklady této kategorie zahrnují použití základního zpracování přirozeného jazyka (NLP) ve stylu dotazů, zjednodušující prvky strojového učení (ML), nástroje statistické analýzy pro předpovědi právních případů atd.

Úroveň 3 sestává z poloautonomní automatizace pro právní uvažování AI. Příklady této kategorie zahrnují použití pokročilých znalostních systémů (KBS) pro právní uvažování, použití strojového učení a hlubokého učení (ML/DL) pro právní uvažování, pokročilé NLP a tak dále.

Úroveň 4 sestává z doménově autonomních počítačových systémů pro právní uvažování AI. Tato úroveň znovu používá koncepční pojem domén provozního návrhu (ODD), jak se používá pro auta s vlastním řízením, ale jak se používá v právní oblasti. Právní oblasti lze klasifikovat podle funkčních oblastí, jako je rodinné právo, právo nemovitostí, úpadkové právo, právo životního prostředí, daňové právo atd.

Úroveň 5 sestává z plně autonomních počítačových systémů pro právní uvažování AI. V jistém smyslu je úroveň 5 nadmnožinou úrovně 4, pokud jde o zahrnutí všech možných právních oblastí. Uvědomte si prosím, že se jedná o poměrně náročný úkol.

Udělejte si chvilku a zamyslete se nad těmito úrovněmi autonomie v kontextu vašich právních služeb a právních činností.

Většina právních praxí dnes používá nějakou formu počítačových balíčků, které jim pomáhají při výkonu jejich právní práce. Populární pojmenování pro tyto aplikace je, že jsou považovány za v rubrice LegalTech (možná víte, že existuje MedTech pro lékařské technologie, FinTech pro finanční technologie, EdTech pro vzdělávací technologie atd.).

Téměř denně dostávám otázku, zda LegalTech zahrnuje AI nebo nezahrnuje AI.

Moje odpověď je, že to není věc zapnutá nebo vypnutá. Musíte vzít v úvahu úrovně autonomie.

Některé balíčky LegalTech přidaly do svého balíčku schopnosti umělé inteligence (nebo v některých případech pro začátek používaly umělou inteligenci v jádru), a to v různé míře. Musíte pečlivě prozkoumat, jaká umělá inteligence byla přidána a čeho dosahuje. Buďte opatrní na často používaná drzá a nepodložená tvrzení o AI.

Jedna z nejoblíbenějších oblastí spočívá v použití umělé inteligence pro řešení právních smluv. Můžete získat balíček Správa životního cyklu smlouvy (CLM) pro sledování a tok vašich právních smluv během procesu právní kontroly. Přidání umělé inteligence může být užitečné, pokud například umělá inteligence dokáže identifikovat potenciální právní nedostatky nebo hádky v návrzích smluv, nebo možná spojí navrhovaný právní jazyk pro danou připravovanou smlouvu.

Další zaměření umělé inteligence se objevuje při provádění eDiscovery. Během procesu zjišťování můžete být konfrontováni s masivním korpusem elektronických dokumentů. K prohledávání korpusu a pokusu o identifikaci relevantních položek lze potenciálně použít různé druhy umělé inteligence. Kromě toho může být AI schopna shrnout nebo jiným způsobem analyzovat hodnotu nalezeného materiálu pro daný případ.

A tak dále.

Pokud AI jen minimálně provádí nějaké věcné právní uvažování nebo právní zpracování, klasifikovali byste to jako AI používanou v mém měřítku na úrovni 2. Když je AI robustněji navržena, LegalTech by mohla využívat AI na úrovni 3. Obecně platí, že úroveň 4 dnes existuje pouze v poměrně úzkých ODD. Úroveň 5 je ctižádostivá a budeme se muset neustále obracet, abychom zjistili, zda ji dokážeme dosáhnout (stejně jako stejná otevřená otázka existuje v oblasti samořídících aut s umělou inteligencí).

Takže ano, v LegalTech se dnes používá AI a AI se značně liší v tom, co dělá a co nemůže dělat.

Mezitím probíhají intenzivní snahy posouvat hranice umělé inteligence a snaží se je spojit s prováděním právních úkolů a prováděním různých rozsahů a hloubek právních úvah. V mé výzkumné laboratoři (viz odkaz zde), využíváme nástup velkých jazykových modelů (LLM) a aplikujeme tuto nejnovější novou technologii na zákon, spolu se spojováním nejrůznějších technik a technologií umělé inteligence, abychom se pokusili synergicky a holisticky rozlousknout přetrvávající záhadu toho, jak dosáhnout zvýšená úroveň autonomie při provádění právního uvažování na základě umělé inteligence.

Vrátíme-li se zpět k přezdívce Robo-právník (nechci, ale mám pocit, že pro úplnost zde musím), zde je třeba zvážit:

  • Co představuje „robo-právník“ z hlediska rozsahu a schopností?

Obvyklá odpověď je, že Robo-právník je systém právního uvažování založený na AI, který dokáže vše, co může dělat lidský právník. Tečka, tečka. Pokud je tomu tak, pak bychom zdánlivě řekli, že Robo-právník by musel mít úroveň 5 na stupnici autonomie. Samozřejmě je to poněkud sporné, protože můžete pochybovat o tom, zda je někdo vybrán člověk advokát může skutečně plnohodnotně působit ve všech oblastech práva, což není nijak zvlášť reálné. Většina právníků je obvykle v určité právní oblasti nebo specializaci, podobně jako ODD úrovně 4.

Podívejme se na Robo-právníka v kontextu úrovně 4.

Předpokládejme, že vymyslíme systém umělé inteligence, který dokáže „právně zdůvodnit“ legální boj s parkovacími lístky. Umělá inteligence je schopna vykonávat podobnou právní funkci jako právník, který byl najat, aby provedl právní tahanice o konvenční parkovací lístek.

Je tato umělá inteligence jako právník za parkovací lístek Robo-právník nebo ne?

V jistém smyslu ano, protože přebírá úkol právníka, i když v rámci velmi úzké domény nebo subdomény práva. Na druhou stranu, pokud to porovnáváte s plně autonomní právnickou kapacitou založenou na AI na úrovni 5 (kterou zatím nemáme), pravděpodobně byste vehementně řekli, že to není Robo-právník.

Chápete, proč se mi nelíbí pojmenování Robo-právník?

Je to nejednoznačné. Převáží zavazadla. Znamená to věci, které nemusí být nutně artikulovány. Ta fráze je prostě hrozná a bylo by lepší se jí obejít. Bohužel, fráze je chytlavá a lákavá. Má lepkavost a hned tak nezmizí. Je smutné, že existují reklamy některých prodejců LegalTech, kteří se snaží zneužít značku Robo-lawyer, a jako takové se zdá pochybné, že v brzké době vyprší platnost názvu nebo bude vymazáno.

Řazení, měli bychom prozkoumat mrkev a klacky spojené s umělou inteligencí, jak jsou aplikovány na zákon.

Pokud právní praxe přijme balíček LegalTech založený na AI, který je díky AI schopen dramaticky zvýšit produktivitu lidských právníků, zdá se to být dobrá věc. Advokátní kanceláře obecně vítají zvýšení produktivity své lidské práce.

Protiargumentem je, že produkty zvyšující produktivitu zkrátí fakturovatelné hodiny. Váš právní zástupce, kterému by provedení konkrétního právního úkonu trvalo řekněme 20 hodin, je nyní schopen tak učinit za 15 hodin. Au! To znamená, že jste se právě vzdali 5 hodin fakturovatelného času. To je samozřejmě omezený pohled na situaci a opomíjí obchodní bystrost, která je základem hledání stimulátorů produktivity.

Například můžete využít tyto „ušetřené“ hodiny tím, že využijete právníka ke sbírání nových klientů nebo k dřívějšímu provedení jiné stávající klientské práce (pravděpodobně zvýšení spokojenosti s těmito klienty). Je také třeba zvážit konkurenční úhel. Pokud je vaše advokátní kancelář méně produktivní, je pravděpodobné, že společnosti hledající právní služby se o tom dozvědí. Mají si vybrat advokátní kancelář, která je známá svou vysokou efektivitou, nebo tu, která je méně efektivní?

Měli byste také jít nad rámec produktivity a podívat se na další klíčové metriky, jako je např kvalita právního poradenství.

Pokud prvek právního uvažování založený na AI vyvolal právní možnosti nebo podnítil právní argumentaci, lidský právník používající takovou AI by mohl velmi dobře identifikovat kvalitnější právní řešení. V jistém smyslu by to bylo jako mít staršího partnera působícího jako mentor. Partneři a spolupracovníci mohou využívat AI, kdykoli během dne nebo v noci, z jakéhokoli místa, což je vede k tomu, aby pečlivěji zvážili širší škálu právních cest, které je třeba využít.

To jsou některé z mrkví.

Strana s holemi je možná patrná.

Provokativním argumentem je, že právníci, kteří takovou AI nepřijmou, si uzurpují své povinnosti vůči svým klientům. Jako advokáti nevyužívají nejlepších možných prostředků, jak svým klientům poradit. Porušují svou přísežnou povinnost poskytovatele právních služeb.

Pravděpodobně jste také viděli vznik tzv karantény v právní oblasti. Někteří věří, že by to mohl být klíčový způsob, jak dostat AI do legální hry. Argumentem je, že pokud se konvenční právnické firmy nechystají dobrovolně přejít k umělé inteligenci více, možná je zapotřebí alternativní cesta.

Předpokládá se, že právníci, kteří nepoužívají AI, budou zdánlivě v nevýhodě ve srovnání s těmi, kteří ji používají. To znepokojuje zejména některá právní průmyslová sdružení. Jde o to, že malé advokátní kanceláře nebo sólo právníci si nebudou moci dovolit nástroje právního uvažování AI. Budou dále zastíněni Velkým zákonem, který má těsto na takové investice.

Protiargumentem je, že pokud budou náklady na nástroje právního uvažování s umělou inteligencí dostatečně nízké, mohlo by to učinit malé advokátní kanceláře a samostatné právníky konkurenceschopnějšími vůči velkému právu. Klienty, kteří se jinak domnívali, že malá advokátní kancelář nebo sólo by neměla dostatečné právní zdroje, by možná mohli být přesvědčeni o opaku pomocí augmentace AI.

Jedno z největších odhalení zahrnuje předpoklad, že pokud by právní zdůvodnění AI autonomní povahy mohlo být široce dostupné a za dostupnou cenu, mohlo by to potenciálně pomoci zdrcujícímu problému A2J (přístup ke spravedlnosti). Velké množství lidí nemá snadný přístup k právníkům a právníkům. Nevědí, jak si poradit s legálním ekosystémem. Představte si, co by systém právního uvažování založený na AI 24×7 mohl udělat pro demokratizaci práva a posílení vnímání právního státu.

Těchto několik posledních bodů se týká některých vzrušujících právních hádanek nebo právních výzev, které čekají na ty, kteří by se mohli rozhodnout zapojit do nástupu umělé inteligence, jak je aplikováno na právo.

Některé další upoutávky jsou, že můžeme použít AI k pomoci při přípravě nebo navrhování zákonů. Tady je nápad. Zákon je často špatně sestavený. Nedostatky právního jazyka způsobují zmatek ohledně práva. To podkopává právní stát. Umělá inteligence se používá k analýze navrhovaných zákonů a ke snaze zjistit, kde existují mezery a problémy, které by se jinak nemusely zdát snadno zřejmé. Kromě detekce těchto obav (někdy označovaných jako legální pachy), AI může navrhnout přeformulování, aby se snížila nejednoznačnost.

Další myslivec se odvolává na tvrzení, že zákon je kodex.

Jinými slovy, když se podíváte na většinu zákonů, mají poněkud známou podobnost s počítačovým kódováním. Probíhají snahy o automatický překlad zákonů do čistého programovacího kódu nebo jeho ekvivalentu. To by zase mohlo umožnit výpočetní a matematicky orientované důkazy spojené s našimi zákony.

Můžete také nudle na nápad kodex jako zákon.

Pokud bude zákon založen na nějakém počítačovém algoritmu, můžete navrhnout, že programovací kód sám o sobě představuje zákon. Kodex je zákon. Představte si, že půjdete k soudu a budeme se hádat o kus programového kódu, který je z právního hlediska považován za doslovné označení zákona.

Zamyslete se nad těmito lákavými otázkami:

  • Jakými prostředky můžeme nejlépe vymyslet umělou inteligenci, která plněji zapouzdří právní úvahy?
  • Jaký typ online interakce mezi lidskými právníky a systémy právního uvažování AI bude nejvíce přispívat k použití?
  • Právní zdůvodnění AI vyžaduje XAI (vysvětlitelná AI), ale jak může strojové učení a hluboké učení poskytnout vhodnou vysvětlitelnost?
  • Jak můžeme zpřístupnit právní zdůvodnění AI těm, kteří nemají dostatečné A2J?
  • Dokážeme vyřešit problém UPL, pokud jde o právní uvažování založené na AI?
  • Přijmou naše soudy také umělou inteligenci, a pokud ano, jak to ovlivní obecné rozhodování?
  • A tak dále

Někteří právníci se v jádru považují za podnikatele.

V prostoru LegalTech existuje mnoho startupů a z nich je mnoho těch, které se snaží vynalézt nebo aplikovat umělou inteligenci podle právních úkolů. Možná jste viděli nedávnou úrodu inzerátů s poptávkou Právní znalostní inženýři nebo jednoduše uvedeny jako Právní inženýři.

Někteří právníci jsou technici, kteří přicházejí do tohoto prostoru.

Někteří právníci nejsou technici, kteří vstupují do umělé inteligence, jak je aplikováno v právní aréně, pro kterou poskytují odborné znalosti v právní oblasti, aby pomohli při vývoji systémů právního uvažování AI. Zmiňuji to proto, že mnoho právníků a studentů práv předpokládá, že musí být technicky zdatní, aby se dostali do této sféry. To není požadavek sám o sobě. Ochota zkoumat zákony způsoby, které jste dosud nezkoumali a nedělali to při neochvějné spolupráci a spolupráci s techniky, je v poslední době na vzestupu.

Proč investovat do čističky vzduchu?

Dotáhl jsi to až na konec tohoto pojednání.

Dobré pro tebe.

Upřímně doufám, že pro vás byla tato diskuse poučná, možná i skromně inspirativní.

Proč právníci nespěchají AI a právo?

Málokdo ví, co vy teď víte.

Většina právníků nemá žádné nebo mizivé představy o tom, co AI a právo skládá se z. Je to téma, které se na právnických fakultách jen zřídka zabývá, i když jsem předpovídal, že jednou AI a právo tsunami hity, pravděpodobně uvidíme velkou změnu v tom, že si uvědomíme, kde AI a právo musí být pokryta.

Také jsem již dříve zmínil, že existuje slepice nebo vejce AI a právo. Klienti to zatím nevědí AI a právo bude závažným právním problémem. Advokátní kanceláře mají tendenci čekat, až klienti začnou křičet na právní služby. Právě teď vidí nápis na zdi jen některé právnické firmy. Stejně tak nápis na zdi vidí jen někteří klienti. Málokdo obecně o zemětřesení ví, zatímco méně z nich se na zemětřesení stále připravuje.

Přichází rozvrat.

Uvědomuji si, že slovo „narušení“ je v dnešní době velmi rozšířené. Navzdory tomuto nadměrnému používání si myslím, že právní oblast je na pokraji narušení spojeného s AI. Nebude to přes noc. Jednoho rána se neprobudíte a během noci nepochopitelně došlo k radikální proměně. Řekl bych, že to bude plynulý pochod vpřed. Jedna noha po druhé, krok po kroku.

Cesta dlouhá mnoha mil začíná jediným krokem.

Podle slavné poznámky Williama Randolpha Hearsta: "Musíte se soustředit na cíl, ne na překážku."

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/10/21/the-no-nonsense-comprehensive-compelling-case-for-why-lawyers-need-to-know-about-ai- a zákon/