Vložení právního uvažování do AI by mohlo chytře dosáhnout sladění lidské hodnoty říká etika AI a zákon o AI

V dnešním sloupku se chystám vetkat dohromady nesčetné množství zdánlivě nesourodých témat souvisejících s AI do jedné pěkně tkané látky.

Jste připraveni?

Představte si, že používáte aplikaci s umělou inteligencí, která vám pomáhá při provádění nějakého významného úkolu. Možná je to finanční záležitost nebo může souviset se zdravím. Podstatou je, že jste závislí na AI, abyste udělali správnou věc a hráli předpokládaným bezpečným a zdravým způsobem.

Předpokládejme, že se AI obrací na neetické území.

Možná si neuvědomujete, že to dělá AI.

Umělá inteligence by se například mohla spoléhat na potenciálně skryté diskriminační faktory, jako je rasa nebo pohlaví, i když možná nemáte žádné životaschopné prostředky k rozeznání nevhodného použití. Tady jste úplně sami a dostáváte krátký konec pomocí AI, která byla buď vymyšlena od začátku problematickým způsobem, nebo se jí podařilo nasměrovat do zrádného a hraničního etického ohrožení (řeknu více o tohle za chvíli).

Co můžete udělat nebo co lze udělat s AI, která se rozhodla jít neetickou cestou?

Kromě pokusu předem zkonstruovat AI tak, aby neprováděla tento druh zákeřné akce, jsem již dříve také podrobně popsal, že roste zájem o zabudování Kontrola etiky AI součást do rozrůstajícího se bahna jinak divokého západu systémy umělé inteligence, které se hodí na trh. Myšlenka je taková, že abychom se pokusili zabránit tomu, aby se aplikace s umělou inteligencí dostala mimo etické dimenze, mohli bychom použít další umělou inteligenci ke kontrole a vyvážení. Tato přidaná umělá inteligence se může nacházet mimo cílovou aplikaci umělé inteligence nebo může být součástí zabudovanou nebo implantovanou přímo do umělé inteligence, kterou chceme znovu zkontrolovat.

Jak jsem již uvedl, viz odkaz zde: „Nedávno se objevující trend spočívá ve snaze zabudovat do AI etické mantinely, které se chytí, když zbytek systému AI začne překračovat předem stanovené etické hranice. V jistém smyslu je cílem použít samotnou AI, aby se eticky nezvrhla. Dalo by se říci, že naším cílem je, aby se umělá inteligence sama vyléčila“ (Lance Eliot, „Vytváření etické umělé inteligence, která monitoruje neetickou umělou inteligenci a snaží se odradit špatnou umělou inteligenci od jednání“, Forbes, 28. března 2022).

Také by vás mohla zajímat moje kniha Ochranní roboti AI, někdy označované jako strážní andělé, která zastřešuje technické základy tohoto nejmodernějšího AI-in-AI vestavěného dvojitého dámu, viz. odkaz zde.

Sečteno a podtrženo, vaše slanina může být naštěstí zachráněna použitím vestavěného prvku etického měření s dvojitou kontrolou AI, který byl navržen a implantován do aplikace AI, kterou používáte. Bude to ale dostatečný strážce, aby se skutečně ujistil, že vás AI úplně neztuhne a nepustíte se ještě do nebezpečné půdy?

Vidíte, aplikace AI by mohla zdánlivě fungovat protiprávní jedná.

Jedna věc je mít AI, která jde do šedé zóny toho, co považujeme za etické nebo neetické chování. Stejně znepokojivé chování a pravděpodobně se zhoršující obavy mají za následek AI, která prostě skočí na žraloka, jak to bylo, a sestupuje do chatrné temnoty přímo nezákonných činů.

Nelegální AI je špatná. Nechat nezákonnou AI bez dozoru je špatné. Někteří právní vědci se otevřeně obávají, že nástup a všudypřítomnost umělé inteligence postupně a děsivě podkopává naše zdání právního státu, viz moje analýza na odkaz zde.

Počkejte chvíli, říkáte si.

Můžete být v pokušení myslet si, že vývojáři AI ano nikdy naprogramovat jejich AI tak, aby byla v rozporu se zákonem. Nepředstavitelné. Dělali by to jen zlí padouši (kteří mimochodem mají na paměti, že existují ti, kteří záměrně vymýšlejí a používají AI pro zlé účely, což je oblast stále většího zájmu zločinců a dalších, kteří chtějí používat AI k nekalým činnostem).

Je nám líto, ale je zbožným přáním předpokládat, že všichni vývojáři umělé inteligence, kteří nejsou zlí, budou přísně dbát na to, aby jejich AI plně dodržovala zákony. Je možné, že se AI sama přizpůsobí a zabloudí do nezákonné činnosti. Samozřejmě existuje také možnost, že vývojáři AI buď chtěli, aby AI jednala nezákonně, nebo že si nebyli vědomi toho, co představovalo nelegální versus právní činy, když AI vytvářeli (ano, je to docela možné, konkrétně všestranný tým umělé inteligence může ignorovat právní podvody jejich umělé inteligence, což nelze omluvit a přesto se to děje s alarmující frekvencí).

Co lze v této věci udělat?

Opět platí, že kromě snahy zajistit, aby AI mimo bránu byla železná a zákonná, další přístup k získání páry zahrnuje vložení nebo implantaci komponenty AI, která provádí právní dvojitou kontrolu pro zbytek aplikace AI. Tato přidaná umělá inteligence sedí tiše a často nepozorovaně a pozoruje zbytek umělé inteligence, aby se pokusila rozeznat, zda se umělá inteligence zblázní nebo alespoň překročí limity zákonných nebo regulačních omezení.

Nyní máme dva druhy dvojité kontroly AI, které jsou potenciálně zabudovány do aplikace AI:

  • Dvojitá kontrola etiky AI: V reálném čase tato komponenta nebo doplněk AI posuzuje zbytek AI z hlediska etického a neetického chování, které AI projevuje.
  • Dvojitá kontrola AI Legal: V reálném čase tato komponenta nebo doplněk umělé inteligence posuzuje zbytek umělé inteligence z hlediska zajištění, že zůstane v rámci zákonných základních kamenů, a z hlediska zachycení vznikajících nezákonných činností umělou inteligencí.

Abychom objasnili, jedná se o relativně nové koncepce a jako taková AI, kterou dnes používáte, může být v kterékoli z těchto současných podmínek:

  • Umělá inteligence, která neobsahuje vůbec žádné dvojité kontroly
  • Umělá inteligence, která obsahuje dvojitou kontrolu AI etiky, ale žádné další kontroly
  • AI, která obsahuje AI Legal double-checker, ale žádné další dvojité kontroly
  • AI, která má dvojitou kontrolu etiky AI i právní kontrolu AI
  • Ostatní

Existuje několik výrazně ošemetných aspektů toho, jak dvojitá kontrola etiky AI a právní kontrola AI fungují v aplikaci AI vedle sebe jako spřízněný bratr a sestra. Toto je druh dualismu, který může být těžší koordinovat, než byste mohli předpokládat (myslím, že všichni víme, že bratři a sestry mohou mít ta nejtěsnější pouta, i když mohou čas od času bojovat jako kurvy a rázně se postavit proti zobrazení).

Dlouze jsem diskutoval o tomto typu náročného dualismus: „V AI for Social Good se objevuje opomíjený dualismus, který zahrnuje nedostatek zahrnutí jak role umělé morální agentury, tak umělého právního uvažování v pokročilých systémech AI. Snahy výzkumníků a vývojářů umělé inteligence se soustředily na to, jak vytvořit a začlenit umělé morální činitele, aby řídili morální rozhodování, když systém umělé inteligence funguje v terénu, ale nesoustředili se také na možnosti umělého právního uvažování. , který je stejně nezbytný pro robustní morální a právní výsledky“ (Lance Eliot, „Zanedbaný dualismus umělé morální agentury a umělé právní uvažování v AI pro sociální dobro“, Výroční konference Harvard University CRCS 2020, Harvardské centrum pro výzkum a výpočetní společnost)

Pokud byste se chtěli zamyslet nad tím, proč by mohlo existovat napětí mezi dvojím kontrolorem etiky AI a právním kontrolorem AI, možná najdete tento pozoruhodný citát ohromující konceptuální způsobilosti: „Zákon může povolit určitý konkrétní akt, i když je tento čin nemorální; a zákon může zakázat nějaký čin, i když je takový čin morálně přípustný, nebo dokonce morálně vyžadován“ (Shelly Kagan, Hranice morálky, 1998).

Posuňme trochu naše zaměření a podívejme se, jak tyto dvojité kontroly zapadají do dalšího vysoce zkoumaného tématu AI, konkrétně Zodpovědná AI nebo společné úvahy o sladění lidských hodnot a AI.

Obecná představa je taková, že chceme umělou inteligenci, která dodržuje správné a žádoucí lidské hodnoty. Někteří to označují jako Zodpovědná AI. Podobně diskutují i ​​ostatní Odpovědná AI, Důvěryhodná AI, a Zarovnání AI, které se všechny dotýkají stejného základního principu. Pro moji diskusi o těchto důležitých otázkách viz odkaz zde a odkaz zde, Abychom jmenovali jen několik.

Jak můžeme přimět umělou inteligenci, aby byla v souladu s lidskými hodnotami?

Jak již bylo naznačeno, doufali bychom, že vývojáři umělé inteligence budou vědět o vývoji umělé inteligence, která dosáhne zodpovědného dodržování AI. Bohužel nemusí, podle důvodů dříve objasněných. Kromě toho by se o to mohli pokusit, a přesto se AI nakonec samočinně přizpůsobí mimo hlavní sféru etického chování nebo možná do nezákonných vod.

Dobře, pak musíme zvážit naše šikovné švihácky jako prostředek k podpoře těchto rizik a expozic. Použití dobře navrženého dvojitého testu etiky umělé inteligence může významně pomoci sladit umělou inteligenci s lidskými hodnotami. Podobně může použití dobře navrženého právního nástroje AI Legal významně pomoci sladit AI s lidskými hodnotami.

Zásadním a dosud ne příliš známým způsobem, jak dosáhnout odpovědné umělé inteligence, důvěryhodné umělé inteligence, zodpovědné umělé inteligence, přizpůsobení umělé inteligence atd., by tedy bylo použití dvojí kontroly umělé inteligence, jako je dvojí kontrola etiky umělé inteligence a Právní dvojitá kontrola AI, která by neúnavně fungovala jako dvojitá kontrola AI, do které jsou zabudovány.

V této diskusi bych rád zašel trochu podrobněji o povaze a konstrukcích AI Legal Legal double-checkers, které by mohly být zabudovány do AI. Chcete-li tak učinit, může být užitečné podělit se s vámi o další pozadí k celkovému tématu AI a právo.

Pro bezvýznamné zkoumání toho, jak se AI a právo vzájemně mísí, viz moje diskuse na adrese odkaz zde. Podle mého náročného pohledu na AI a právo spojení, poskytuji tuto přímočarou koncepci dvou hlavních způsobů, jak propojit AI a právo:

  • (1) Zákony aplikované na AI: Formulace, uzákonění a vymáhání zákonů, jak jsou aplikovány na regulaci nebo řízení umělé inteligence v naší společnosti
  • (2) AI-aplikovaná na zákon: Technologie umělé inteligence navržená a aplikovaná do práva, včetně právního uvažování založeného na umělé inteligenci (AILR) začleněné do high-tech aplikací LegalTech k autonomnímu nebo poloautonomnímu provádění právních úkolů

První uvedený hledisko spočívá v uvážení toho, jak se stávající a nové zákony budou řídit AI. Druhý vyjmenovaný pohled souvisí s aplikací umělé inteligence do zákona.

Tato druhá kategorie obvykle zahrnuje použití právního uvažování založeného na umělé inteligenci (AILR) v různých online nástrojích používaných právníky. Umělá inteligence může být například součástí balíčku Správa životního cyklu smluv (CLM), který pomáhá právníkům tím, že identifikuje smluvní jazyk, který bude užitečný pro sepisování nových smluv, nebo může odhalit smlouvy, které mají právně nejasný jazyk, který umožňuje nehody nebo právní mezery. (můj pohled na takzvané „zákonné pachy“, které může AI rozeznat, viz odkaz zde).

Nevyhnutelně budeme používat AI na zákon, který bude dostupný pro širokou veřejnost a který nevyžaduje, aby byl v obraze právník. Právě teď, v důsledku různých omezení, včetně UPL (Unauthorized Practical of Law), je zpřístupnění aplikací pro právní poradenství založené na umělé inteligenci ožehavou a kontroverzní záležitostí, viz moje diskuze na odkaz zde.

Tento úvod o AI a právu jsem uvedl, abych poukázal na to, že dalším instrumentálním využitím AI aplikovaným na právo by bylo vytvoření dvojí kontroly AI Legal.

Ano, stejná technologická zdatnost, jakou je aplikace umělé inteligence do zákona, může sloužit jako dvojí povinnost, když AI slouží jako vestavěný nebo implantovaný právní nástroj pro kontrolu AI. AI Legal double-checker je komponenta, která musí být zběhlá v právních aspektech. Když zbytek aplikace AI provádí různé akce, dvojitá kontrola AI Legal posuzuje, zda to aplikace AI dělá legálně a v rámci zákonných omezení.

Komponenta dvojité kontroly AI Legal nemusí nutně pokrýt celou škálu všeho, co je o zákonu třeba vědět. V závislosti na povaze aplikace AI, pokud jde o účel a činnosti AI celkově, může být dvojitá kontrola AI Legal mnohem užší, pokud jde o právní odbornost, kterou obsahuje.

Identifikoval jsem užitečný rámec pro předvedení toho, jak se AI v právní oblasti pohybuje napříč řadou autonomních kapacit, známých jako úrovně autonomie (LoA). Pro přehled viz můj Forbes sloupek z 21. listopadu 2022, „Nenesmyslný komplexní přesvědčivý případ, proč právníci potřebují vědět o umělé inteligenci a právu“ na odkaz zde, a pro podrobné technické zobrazení viz můj podrobný výzkumný článek v MIT Computational Law Journal ze dne 7. prosince 2021 viz odkaz zde.

Rámec objasňuje pět úrovní umělé inteligence, jak se používá v právních snahách:

  • Úroveň 0: Žádná automatizace pro legální práci založenou na umělé inteligenci
  • Úroveň 1: Jednoduchá asistenční automatizace pro právní práci založenou na umělé inteligenci
  • Úroveň 2: Pokročilá automatizace pomoci pro právní práci založenou na umělé inteligenci
  • Úroveň 3: Poloautonomní automatizace pro právní práci založenou na umělé inteligenci
  • Úroveň 4: Doména autonomní pro právní práci založenou na umělé inteligenci
  • Úroveň 5: Plně autonomní pro právní práci založenou na umělé inteligenci

Stručně je zde popíšu.

Úroveň 0 je považována za úroveň bez automatizace. Právní úvahy a právní úkoly se provádějí pomocí manuálních metod a v zásadě se odehrávají prostřednictvím papírových přístupů.

Úroveň 1 se skládá z jednoduché asistenční automatizace pro právní uvažování AI. Příklady této kategorie by zahrnovaly používání každodenního počítačového zpracování textu, používání každodenních počítačových tabulek, přístup k online právním dokumentům, které jsou uchovávány a získávány elektronicky, a tak dále.

Úroveň 2 se skládá z pokročilé automatizace pomoci pro právní uvažování AI. Příklady této kategorie zahrnují použití základního zpracování přirozeného jazyka (NLP) ve stylu dotazů, zjednodušující prvky strojového učení (ML), nástroje statistické analýzy pro předpovědi právních případů atd.

Úroveň 3 sestává z poloautonomní automatizace pro právní uvažování AI. Příklady této kategorie zahrnují použití pokročilých znalostních systémů (KBS) pro právní uvažování, použití strojového učení a hlubokého učení (ML/DL) pro právní uvažování, pokročilé NLP a tak dále.

Úroveň 4 sestává z doménově autonomních počítačových systémů pro právní uvažování AI. Tato úroveň znovu používá koncepční pojem domén provozního návrhu (ODD), jak se používá pro auta s vlastním řízením, ale jak se používá v právní oblasti. Právní oblasti lze klasifikovat podle funkčních oblastí, jako je rodinné právo, právo nemovitostí, úpadkové právo, právo životního prostředí, daňové právo atd.

Úroveň 5 sestává z plně autonomních počítačových systémů pro právní uvažování AI. V jistém smyslu je úroveň 5 nadmnožinou úrovně 4, pokud jde o zahrnutí všech možných právních oblastí. Uvědomte si prosím, že se jedná o poměrně náročný úkol.

Tyto úrovně autonomie si můžete představit na stejné úrovni s podobnými způsoby použití při diskuzi o samořízených autech a autonomních vozidlech (také na základě oficiálního standardu SAE, viz moje pokrytí na odkaz zde). Samořídící auta SAE Level 5 zatím nemáme. Přecházíme do samořídících vozů SAE úrovně 4. Většina konvenčních vozů je na úrovni SAE 2, zatímco některá novější auta přecházejí do úrovně SAE 3.

V právní oblasti zatím nemáme AILR 5. úrovně. Dotýkáme se nějaké úrovně 4, i když v extrémně úzkých ODD. Úroveň 3 začíná spatřovat světlo světa, zatímco hlavní pilíř AILR je dnes primárně na úrovni 2.

Nedávný výzkumný článek o AI, jak je aplikována na právo, navrhl typizaci známou jako Zákon informuje zákoník. Výzkumník uvádí toto: „Jedním z primárních cílů Zákon informuje zákoník agendou je naučit umělou inteligenci následovat ducha zákona“ (John J. Nay, „Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans“, Northwestern Journal of Technology and Intellectual Property, svazek 20, připravovaný). Existují některé zásadní úvahy, že Zákon informuje zákoník Mantra přináší a já vás provedu několika z těchto základních zásad.

Než se pustím do tématu, rád bych nejprve položil základní základy o AI a zejména o etice AI a právu AI, abych se ujistil, že diskuse bude kontextově smysluplná.

Rostoucí povědomí o etické AI a také zákon o AI

Nedávná éra umělé inteligence byla zpočátku považována za bytí AI pro dobro, což znamená, že bychom mohli použít AI pro zlepšení lidstva. Na patách AI pro dobro došlo k poznání, že jsme také ponořeni AI pro špatné. Patří sem umělá inteligence, která je navržena nebo sama upravena tak, aby byla diskriminační a provádí výpočetní volby, které jsou nepatřičné předsudky. Někdy je AI postavena tímto způsobem, zatímco v jiných případech se obrací do tohoto neznámého území.

Chci se ujistit, že jsme na stejné stránce ohledně povahy dnešní umělé inteligence.

Dnes neexistuje žádná AI, která by byla vnímavá. Tohle my nemáme. Nevíme, zda bude vnímající AI možná. Nikdo nemůže výstižně předpovědět, zda dosáhneme vnímající AI, ani zda se vnímající AI nějakým zázrakem spontánně objeví ve formě výpočetní kognitivní supernovy (obvykle označované jako singularita, viz moje pokrytí na odkaz zde).

Typ AI, na který se zaměřuji, se skládá z necítivé AI, kterou máme dnes. Pokud bychom chtěli divoce spekulovat o vnímavé AI, mohla by se tato diskuse ubírat radikálně jiným směrem. Vnímavá AI by měla mít lidské kvality. Měli byste vzít v úvahu, že vnímající AI je kognitivní ekvivalent člověka. Navíc, protože někteří spekulují, že bychom mohli mít superinteligentní AI, je možné si představit, že taková AI by mohla být chytřejší než lidé (pro můj průzkum superinteligentní AI jako možnosti viz. pokrytí zde).

Důrazně bych navrhoval, abychom věci drželi při zemi a zvážili dnešní výpočetní necitlivou AI.

Uvědomte si, že dnešní umělá inteligence není schopna „myslet“ žádným způsobem na stejné úrovni jako lidské myšlení. Když komunikujete s Alexou nebo Siri, konverzační schopnosti se mohou zdát podobné lidským schopnostem, ale skutečnost je taková, že jsou výpočetní a postrádají lidské poznání. Nejnovější éra umělé inteligence široce využívá strojové učení (ML) a hluboké učení (DL), které využívají porovnávání výpočetních vzorů. To vedlo k systémům umělé inteligence, které vypadají jako lidské sklony. Mezitím dnes neexistuje žádná umělá inteligence, která by měla zdání zdravého rozumu, ani žádný z kognitivních zázraků robustního lidského myšlení.

Buďte velmi opatrní při antropomorfizaci dnešní AI.

ML/DL je forma porovnávání výpočetních vzorů. Obvyklý přístup je takový, že shromažďujete data o úloze rozhodování. Data vkládáte do počítačových modelů ML/DL. Tyto modely se snaží najít matematické vzorce. Po nalezení takových vzorů, pokud jsou nalezeny, systém umělé inteligence tyto vzory použije, když narazí na nová data. Po předložení nových dat se pro vykreslení aktuálního rozhodnutí použijí vzory založené na „starých“ nebo historických datech.

Myslím, že můžete hádat, kam to směřuje. Pokud lidé, kteří se rozhodovali podle vzoru, začlenili nežádoucí předsudky, je pravděpodobné, že data to odrážejí jemnými, ale významnými způsoby. Počítačové porovnávání vzorů Machine Learning nebo Deep Learning se jednoduše pokusí odpovídajícím způsobem matematicky napodobit data. Neexistuje žádné zdání zdravého rozumu nebo jiných vnímavých aspektů modelování vytvořeného umělou inteligencí jako takového.

Kromě toho si vývojáři AI nemusí uvědomit, co se děje. Tajemná matematika v ML/DL může ztížit odhalení nyní skrytých předsudků. Oprávněně byste doufali a očekávali, že vývojáři umělé inteligence budou testovat potenciálně pohřbené předsudky, i když je to složitější, než by se mohlo zdát. Existuje solidní šance, že i přes poměrně rozsáhlé testování, že v modelech porovnávání vzorů ML/DL budou stále zakomponovány zkreslení.

Dalo by se tak trochu použít slavné nebo nechvalně známé pořekadlo o smetí-do odpadu-ven. Jde o to, že je to spíše podobné předsudkům – in, které se zákeřně prolínají, když se předsudky ponoří do AI. Algoritmus rozhodování (ADM) umělé inteligence je axiomaticky zatížen nerovnostmi.

Špatný.

To vše má pozoruhodně významné důsledky pro etiku umělé inteligence a nabízí praktické okno do získaných lekcí (dokonce ještě předtím, než k nim dojde), pokud jde o pokusy o uzákonění umělé inteligence.

Kromě toho, že obecně používáme etické zásady AI, existuje odpovídající otázka, zda bychom měli mít zákony, které by řídily různá použití AI. Na federální, státní a místní úrovni se šíří nové zákony, které se týkají rozsahu a povahy toho, jak by měla být umělá inteligence navržena. Snaha navrhnout a přijmout takové zákony je postupná. Etika umělé inteligence slouží přinejmenším jako zvažovaná překážka a téměř jistě bude do určité míry přímo začleněna do těchto nových zákonů.

Uvědomte si, že někteří neústupně tvrdí, že nepotřebujeme nové zákony, které pokrývají AI, a že naše stávající zákony jsou dostatečné. Varují, že pokud uzákoníme některé z těchto zákonů AI, zabijeme zlatou husu tím, že potlačíme pokroky v AI, které nabízejí obrovské společenské výhody.

V předchozích sloupcích jsem pokryl různé národní a mezinárodní snahy o vytvoření a uzákonění zákonů regulujících umělou inteligenci, viz odkaz zde, například. Zabýval jsem se také různými principy a směrnicemi etiky AI, které různé národy identifikovaly a přijaly, včetně například úsilí OSN, jako je soubor etiky AI UNESCO, který přijalo téměř 200 zemí, viz. odkaz zde.

Zde je užitečný základní seznam etických kritérií nebo charakteristik AI systémů AI, které jsem dříve podrobně prozkoumal:

  • Průhlednost
  • Spravedlnost a férovost
  • Neškodlivost
  • Odpovědnost
  • Ochrana osobních údajů
  • Dobročinnost
  • Svoboda a autonomie
  • Věřte
  • udržitelnost
  • Důstojnost
  • Solidarita

Předpokládá se, že tyto zásady etiky AI budou vážně využívat vývojáři AI spolu s těmi, kteří řídí úsilí o vývoj AI, a dokonce i ti, kteří nakonec používají a provádějí údržbu systémů AI.

Všechny zúčastněné strany během celého životního cyklu vývoje a používání AI jsou posuzovány v rámci dodržování zavedených norem etické AI. To je důležité upozornit, protože obvyklý předpoklad je, že „pouze kodéři“ nebo ti, kteří programují AI, podléhají dodržování etických pojmů AI. Jak bylo zdůrazněno výše, k vymýšlení a nasazení umělé inteligence je zapotřebí vesnice, přičemž celá vesnice musí být zběhlá a dodržovat etické předpisy AI.

Nedávno jsem také zkoumal Listina práv AI což je oficiální název oficiálního dokumentu vlády USA s názvem „Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People“, který byl výsledkem celoročního úsilí Úřadu pro politiku vědy a technologie (OSTP ). OSTP je federální entita, která slouží k poradenství americkému prezidentovi a výkonnému úřadu USA v různých technologických, vědeckých a inženýrských aspektech národního významu. V tomto smyslu lze říci, že tato listina práv AI je dokument schválený a schválený stávajícím Bílým domem USA.

V listině práv AI je pět základních kategorií:

  • Bezpečné a efektivní systémy
  • Algoritmické diskriminační ochrany
  • ochranu osobních údajů
  • Upozornění a vysvětlení
  • Lidské alternativy, ohleduplnost a záložní řešení

Pečlivě jsem si ty předpisy prošel, viz odkaz zde.

Nyní, když jsem na tato související témata etiky AI a práva AI položil užitečný základ, jsme připraveni skočit do opojného tématu dvojitých kontrol AI Legal a sféry Zákon informuje zákoník.

Právní dvojité kontroly umělé inteligence zabudované do umělé inteligence pro sladění lidské hodnoty

Někdy odkazuji AI Legal Double-Checkers přes zkratku AI-LDC. To je pro ty, kteří tuto zkratku neznají, trochu vizuálně nepříjemné. Proto v této diskuzi nebudu používat tuto konkrétní zkratku, ale chtěl jsem vám ji zmínit jako upozornění.

Abychom odhalili některé ze složitostí dvojitých kontrol AI Legal, pojďme se věnovat těmto hlavním bodům:

  • Použití dvojitých kontrol AI Legal jako mechanismu pro sladění lidských hodnot AI
  • Rozšířenější umělá inteligence bude odpovídajícím způsobem vyžadovat robustnější právní kontroly AI
  • Dvojí kontroloři AI Legal přijímají zákon a zejména zákon nevytvářejí (pravděpodobně)
  • Jemná rovnováha mezi AI Právní ztělesnění zákona jako pravidla versus normy
  • Vyžadování důkazu o pudinku, pokud jde o dodržování zákona AI

Kvůli prostorovým omezením proberu prozatím jen těchto pět bodů, i když prosím sledujte další pokrytí v mém sloupku zahrnujícím další a stejně pozoruhodné úvahy o těchto rychle se vyvíjejících a kupředu se posouvajících záležitostech.

Právě teď si zapněte bezpečnostní pás a připravte se na osvěžující cestu.

  • Použití dvojitých kontrol AI Legal jako mechanismu pro sladění lidských hodnot AI

Existuje mnoho způsobů, jak se pokusit dosáhnout harmonického souladu mezi AI a lidskými hodnotami.

Jak již bylo zmíněno, můžeme vytvářet a propagovat etické zásady AI a snažit se přimět vývojáře AI a ty, kteří AI provozují a provozují, aby se těmito základními kameny řídili. Bohužel toto samo o sobě nepomůže. Máte několik vynálezců, kteří nevyhnutelně nedostanou zprávu. Máte několik vynálezců, kteří se budou chlubit etickou umělou inteligencí a pokusí se obejít předepsané principy, které jsou poněkud rozvláčné. A tak dále.

Používání přístupů „soft law“ zahrnujících etiku umělé inteligence musí být téměř neúprosně spojeno s cestami „hard law“, jako je přijímání zákonů a nařízení, které vyšle silný signál všem, kdo vytvářejí nebo využívají umělou inteligenci. Dlouhá ruka zákona vás může dostat, pokud nevyužíváte AI uvážlivě. Zvuk řinčení vězeňských dveří mohl upoutat ostrou pozornost.

Velkým problémem však je, že někdy vrata stáje už koně vypustila ven. Umělá inteligence, která je nasazena, bude potenciálně produkovat všechny druhy nezákonných činů a bude v tom pokračovat, dokud nebude pouze zachycena, ale také až se konečně začnou vyvíjet kroky k zastavení toku nezákonných akcí. To vše může nějakou dobu trvat. Mezitím je lidem tak či onak ubližováno.

Do tohoto vpádu přichází dvojitá kontrola AI Legal.

Díky tomu, že se nachází v aplikaci AI, může dvojitá kontrola AI Legal okamžitě zjistit, kdy se zdá, že se AI dostává do rozporu se zákonem. Dvojitá kontrola AI Legal by mohla zastavit AI v jejích stopách. Nebo může složka upozornit lidi na zjištěné nezákonné aktivity, a to včas, což by mohlo podnítit dozorce k naléhavým nápravným opatřením. Existuje také uvažované formalizované protokolování, které by složka mohla vytvořit, poskytující hmatatelnou podobu auditní stopy pro účely kodifikace nepříznivých akcí AI.

O našich zákonech se říká, že jsou formou multiagentní konglomerace, takže zákony jsou nevyhnutelně směsí toho, co se společnost snažila vytvořit jako rovnováhu mezi pravděpodobně protichůdnými názory na správné a nevhodné společenské chování. Dvojí kontrola AI Legal založená na našich zákonech proto tuto směs ztělesňuje.

Je pozoruhodné, že se jedná o více než jen naprogramování seznamu definitivních právních pravidel. Zákony mají tendenci být poddajnější a usilují o zastřešující standardy, spíše než aby specifikovaly nejjemnější mikroskopická pravidla. Složitostí je spousta.

Vrátíme-li se k dříve zmíněnému výzkumnému článku, zde je návod, jak lze na tyto úvahy také nahlížet v souvislosti se snahou o zarovnání AI: „Zákon, aplikovaná filozofie zarovnání více agentů, jednoznačně splňuje tato kritéria. Zarovnání je problém, protože to neumíme ex ante specifikovat pravidla, která plně a prokazatelně řídí dobré chování AI. Podobně, strany právní smlouvy nemohou předvídat každou nahodilost jejich vztahu a zákonodárci nemohou předvídat konkrétní okolnosti, za kterých budou jejich zákony aplikovány. Proto je velká část práva konstelací norem“ (tamtéž).

Vtělení práva do dvojité kontroly AI Legal je mnohem náročnější, než byste mohli na první pohled předpokládat.

Jak AI postupuje, budeme muset tyto pokroky odpovídajícím způsobem využít. Ukázalo se, že co je dobré pro husu, je dobré i pro hada. Ti z nás, kteří dělají pokroky v AI v souladu se zákonem, posouvají hranice AI a nepochybně vytvářejí nové pokroky, které mohou v konečném důsledku přispět k pokroku AI úplně.

  • Rozšířenější umělá inteligence bude odpovídajícím způsobem vyžadovat robustnější právní kontroly AI

Tomuto tématu čelí gambit kočky a myši.

Je pravděpodobné, že jak se umělá inteligence bude dále vyvíjet, bude pro jakoukoli součást AI Legal s dvojitou kontrolou nacházet záležitosti stále těžší a těžší. Například kontrolovaná aplikace AI mohla nově vymyslet super záludné způsoby, jak skrýt nezákonné akce, které AI podniká. I když se umělá inteligence nevydává nepochopitelnou cestou, celková složitost umělé inteligence by sama o sobě mohla být skličující překážkou při snaze o to, aby AI Legal posoudila.

Zde je návod, jak se to stane obzvláště významným.

Předpokládejme, že vývojář AI nebo nějaká firma využívající AI prohlásí, že existuje dvojitá kontrola AI Legal, která byla zabudována do aplikace založené na AI. Voila, zdá se, že si nyní umyli ruce nad dalšími obavami. O vše se postará AI Legal double-checker.

Není tak.

Dvojitá kontrola AI Legal může být vzhledem k povaze příslušné aplikace AI nedostatečná. Existuje také možnost, že dvojitá kontrola AI Legal bude zastaralá a možná nebude aktualizována nejnovějšími zákony týkajícími se aplikace AI. Dá se předvídat celá řada důvodů, proč pouhá přítomnost dvojité kontroly AI Legal nebude stříbrnou kulkou.

Zvažte tyto poznatky z dříve citovaného výzkumu: „S pokrokem v oblasti umělé inteligence můžeme nastavit iterativně vyšší laťky prokázané schopnosti právního porozumění. Pokud vývojář tvrdí, že jeho systém má pokročilé schopnosti pro úkoly, měl by prokázat odpovídající pokročilé právní chápání a právní, uvažovací schopnosti AI, které nemají prakticky žádný strop obtížnosti, když vezmeme v úvahu bahno zákonů a předpisů napříč časem, precedenty a jurisdikcí. “ (tamtéž).

  • Dvojí kontroloři AI Legal přijímají zákon a zejména zákon nevytvářejí (pravděpodobně)

Jsem si jistý, že někteří z vás jsou zděšeni myšlenkou mít tyto dvojité kontroly AI Legal.

Jednou z často vyjadřovaných obav je, že zjevně dovolíme umělé inteligenci, aby za nás rozhodovala o našich zákonech. Dobrý bože, možná si říkáte, nějaký kus automatizace předběhne lidstvo. Tito zatracení vestavění AI Legal Legal se stanou výchozími králi našich zákonů. Ať udělají cokoli, bude to, co se zdá být zákonem.

Lidem bude vládnout AI.

A tyto dvojité kontroly AI Legal jsou tím kluzkým svahem, který nás tam dostane.

Protiargumentem je, že takové řeči jsou předmětem konspiračních teorií. Divoce postulujete a dostáváte se do nevolnosti. Skutečnost je taková, že tito právníci AI nejsou vnímaví, nechystají převzít vládu nad planetou a pokřikování o jejich existenčním riziku je zjevně absurdní a nesmírně přehnané.

Celkově vzato, zachováváme klidný a uvážlivý postoj, musíme mít na paměti, že dvojité kontroly AI Legal slouží k tomu, aby náležitě odrážely zákon, a nikoli záměrně, a ani náhodou nejdou dále, aby se nějakým způsobem dostali do uctívané sféry výroby. zákon. Ponecháme-li stranou extrapolace sentience, můžeme se jistě shodnout na tom, že existuje skutečná a naléhavá obava, že by dvojitá kontrola AI Legal mohla skončit zkreslením skutečné povahy daného zákona.

Na druhé straně byste mohli tvrdit, že tento konkrétní „zkreslený“ zákon je v podstatě vytvářen znovu, protože již neoznačuje to, co bylo zamýšleno skutečným zákonem. Věřím, že upřímně chápete, jak je to jemná, ale výmluvná úvaha. V kterémkoli okamžiku by mohla dvojitá kontrola AI Legal na virtuálním základě vytvářet nebo řekněme „halucinovat“ nové zákony jednoduše tím, jak složka AI interpretuje zákon, jak byl původně uveden nebo ztělesněn v AI (pro mé pokrytí tzv. AI halucinace, Viz odkaz zde).

Na to je třeba dbát důrazně.

Na toto téma nabízí výše zmíněná výzkumná studie tuto paralelní myšlenku ve smyslu snahy odvrátit překročení této posvátné hranice: „Nenašíme cílem, aby umělá inteligence měla legitimitu vytvářet zákony, vytvářet právní precedenty nebo prosazovat zákony. Ve skutečnosti by to podkopalo náš přístup (a měli bychom investovat značné úsilí, abychom tomu zabránili). Nejambicióznějším cílem Zákona o informování o zákonech je spíše výpočetně zakódovat a začlenit zobecnění existujících právních konceptů a norem do ověřené výkonnosti AI“ (ibid).

  • Jemná rovnováha mezi AI Právní ztělesnění zákona jako pravidla versus normy

Zákony jsou chaotické.

Pro téměř každý zákon v knihách existuje pravděpodobně mnoho výkladů toho, co zákon stanoví ve skutečné praxi. V řeči na poli umělé inteligence označujeme zákony jako sémanticky nejednoznačné. To je důvod, proč je vývoj umělé inteligence aplikovaný na zákon tak vzrušující a zároveň znepokojující výzvou. Na rozdíl od přesných čísel, které můžete vidět u řekněme finančně orientovaných aplikací umělé inteligence, touha vtělit naše zákony do umělé inteligence znamená vypořádat se s tsunami sémantických nejednoznačností.

Ve své nadační knize o základech AI Legal Reasoning (AILR) pojednávám o tom, jak nás předchozí pokusy o pouhou kodifikaci zákonů do souboru omezených pravidel nedostaly tak daleko, jak bychom chtěli v právní oblasti zajít (viz odkaz zde). Dnešní AILR musí zahrnovat integraci mezi používáním pravidel a tím, co by se dalo nazvat zastřešujícími standardy, které zákon představuje.

Tuto důležitou rovnováhu lze vyjádřit takto: „V praxi se většina právních ustanovení nachází někde ve spektru mezi čistým pravidlem a čistým standardem a právní teorie může pomoci odhadnout správnou kombinaci „pravidlenosti“ a „standardnosti“ při specifikaci cílů systémů AI“ (tamtéž).

  • Vyžadování důkazu o pudinku, pokud jde o dodržování zákona AI

Něco chtít je něco jiného než něco mít.

Tento drobeček moudrosti přichází na řadu, když nabízíme, že i když bychom možná chtěli mít dvojité kontroly AI Legal, musíme se ujistit, že fungují a fungují správně. Všimněte si, že to představuje další těžkou a vyčerpávající překážku. Již dříve jsem se věnoval nejnovějším pokrokům a výzvám v ověřování a validaci AI, viz odkaz zde.

Jak je uvedeno ve výzkumném dokumentu: „Aby se tato mezera vyřešila, než budou modely umělé inteligence nasazeny ve stále více agentních kapacitách, např. plně autonomní vozidla na hlavních silnicích, měla by nasazující strana prokázat, že systém chápe lidské cíle, zásady a právní normy. Ověřovací postup by mohl ilustrovat, jak umělá inteligence „pochopila“ „význam“ právních pojmů“ (tamtéž).

Proč investovat do čističky vzduchu?

Vyzývám vás, abyste zvážili, zda se ke mně nepřipojíte na této ušlechtilé výpravě za budováním a nasazením AI Legal Legal double-checkers. Potřebujeme více pozornosti a zdrojů věnovaných této ctnostné snaze.

To také poskytuje dvojí povinnost, jak již bylo zmíněno dříve, k dosažení AI Legal Reasoning (AILR), které lze použít pro pomoc právníkům a potenciálně přímo využívat širokou veřejnost. Někteří skutečně vehementně tvrdí, že jediným schůdným způsobem, jak dosáhnout plnějšího pocitu přístupu ke spravedlnosti (A2J), bude vytvoření umělé inteligence, která ztělesňuje právní schopnosti a je přístupná všem.

Prozatím jeden rychlý bod na závěr.

Dosavadní diskuse zdůrazňovala, že AI Legal double-checker by byl zabudován nebo implantován do AI. To je skutečně primární zaměření těch, kteří zkoumají a podnikají v této vznikající oblasti.

Zde je otázka, která stojí za zamyšlení.

Nasaďte si čepici myšlení.

Proč nevyužít dvojité kontroly AI Legal ve všech softwarech?

Podstatou je, že spíše než výlučně používat dvojité kontroly AI Legal v AI, možná bychom měli rozšířit náš úhel pohledu. Všechny druhy softwaru se mohou legálně ztratit. Umělá inteligence si nepochybně získala lví podíl pozornosti díky způsobům, jimiž se AI obvykle používá, jako je vykreslování žaludečních rozhodnutí, která ovlivňují lidi v jejich každodenním životě. Můžete však snadno tvrdit, že existuje spousta systémů bez AI, které dělají totéž.

V podstatě bychom neměli nechat žádný software mít volnou cestu, abychom se vyhnuli nebo odvrátili zákon.

Připomeňme si také, že jsem dříve zmínil dvě kategorie kombinace AI a zákona. Zde jsme se zaměřili na používání umělé inteligence v souladu se zákonem. Na druhé straně mince je aplikace zákona na AI. Předpokládejme, že uzákoníme zákony, které vyžadují použití AI Legal dvojí kontroly.

To by se mohlo nejprve omezit na systémy umělé inteligence, zejména ty, které jsou hodnoceny jako zvláště vysoce rizikové. Postupně by se stejný požadavek právního předpisu AI mohl rozšířit i na software bez AI. Opět žádné volné jízdy.

Zatímco budete nudit výše uvedené úvahy, okořením to jako závěrečný teaser. Pokud se budeme pokoušet vyžadovat dvojité kontroly AI Legal, mohli bychom totéž udělat s dvojí kontrolou etiky AI. Použití dvojité kontroly AI Legal je jen polovina příběhu a nemůžeme zanedbávat ani zapomínat na etiku AI.

Tento veselý projev zakončím jedním z mých oblíbených citátů. Podle moudrých slov Earla Warrena, slavného právníka, který sloužil jako hlavní soudce Spojených států: „V civilizovaném životě se právo vznáší v moři etiky.

Pokud chceme udržet hlavu nad potenciálně se rýsujícími rozbouřenými moři před kyselou umělou inteligencí a zapšklými systémy bez umělé inteligence, které ohrožují naši bezpečnost, mohlo by být nejlepší rázně použít ty nadějné a bublající AI Legal Legal a AI Ethics double checkers. .

Mohou to být záchranná vesta lidstva.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- a-ai-law/