Etika umělé inteligence zvažuje přednosti zákonného nařčení fondů pro odčinění, aby byla zajištěna odpovědnost za špatné chování umělé inteligence

kdo za to může?

To by se mohlo zdát jako jednoduchá otázka, i když v případě slavné komedie legendární dvojice Abbott a Costello o baseballovém týmu může být „kdo“ matoucí. Možná jste matně obeznámeni s Kdo je první komediální rutina, ze které udělali jeden z nejtrvalejších scének všech dob (upozornění na spoiler pro ty z vás, kteří to ještě neslyšeli).

Abbott říká Costellovi, že kdo je na prvním, co je na druhém a já nevím, na třetím. Chytrý trik spočívá v tom, že první základna se jmenuje Kdo, druhá základna se jmenuje Co a třetí základna se jmenuje Nevím. Samozřejmě, že tyto fráze mají také svůj konvenční význam a pokusit se interpretovat to, co Abbott říká, může být zcela matoucí. Costello se skutečně ptá na zdánlivě neškodnou otázku, kdo je na prvním místě, na kterou je odpovědí pevné ano. Ale to Costellovi nedává smysl, protože očekával jméno a místo toho dostal jako odpověď matoucí ano.

Řazení, když dojde na příchod umělé inteligence (AI), jedna z nejnepříjemnějších otázek, které se neustále ptají, se týká toho, kdo nebo možná co ponese odpovědnost, když AI sejde z cesty.

Již dříve jsem diskutoval o trestní odpovědnosti za to, když AI vede nebo podniká trestné činy, viz moje pokrytí na odkaz zde. Je tu také otázka občanské odpovědnosti, jako je například, koho nebo co byste mohli žalovat, když vám AI udělala špatně, což je téma, o kterém zde budu diskutovat. To vše má významné aspekty etiky AI. Mé průběžné a rozsáhlé pokrytí etiky AI a etické AI viz odkaz zde a odkaz zde, Abychom jmenovali jen několik.

Předpisy etiky AI nás nutí zůstat ostražití. Technologové umělé inteligence mohou být občas zaneprázdněni technologií, zejména optimalizací špičkových technologií. Nezbytně nezvažují větší společenské důsledky. Mít etiku AI a dělat to nedílně pro vývoj a nasazení AI je životně důležité pro vytváření vhodné AI, včetně (možná překvapivě nebo ironicky) posouzení toho, jak firmy přijímají etiku AI.

Kromě toho, že obecně používáme etické zásady AI, existuje odpovídající otázka, zda bychom měli mít zákony, které by řídily různá použití AI. Na federální, státní a místní úrovni se šíří nové zákony, které se týkají rozsahu a povahy toho, jak by měla být umělá inteligence navržena. Snaha navrhnout a přijmout takové zákony je postupná. Etika umělé inteligence slouží přinejmenším jako zvažovaná překážka a téměř jistě bude do určité míry přímo začleněna do těchto nových zákonů.

Uvědomte si, že někteří neústupně tvrdí, že nepotřebujeme nové zákony, které pokrývají AI, a že naše stávající zákony jsou dostatečné. Ve skutečnosti varují, že pokud uzákoníme některé z těchto zákonů AI, zabijeme zlatou husu tím, že potlačíme pokroky v AI, které nabízejí obrovské společenské výhody.

Probíhá vášnivá debata, zda jsou stávající zákony schopny adekvátně řešit vznik systémů umělé inteligence v celé společnosti. Právní odpovědnost obvykle vyžaduje, abyste mohli přišpendlit ocas na oslu, kdo je odpovědný za škodlivé chování. V případě AI může existovat poněkud nejasná cesta, která spojuje konkrétní osobu nebo osoby s AI, která provedla nějakou zraňující akci. Umělá inteligence může být do značné míry nevysledovatelná ke zdroji nebo vynálezci, který AI složil.

Další úvahou je, že i když lze kořeny AI vysledovat k někomu, otázkou je, zda tato osoba nebo osoby nemohly rozumně předvídat nepříznivý výsledek, který AI nakonec vytvořila. Jádro předvídatelnosti je obvykle významným faktorem při posuzování právní odpovědnosti.

Můžete být v pokušení myslet si, že můžete jednoduše jít po samotné AI a jmenovat AI jako právní stranu odpovědnou za jakoukoli škodu, která údajně vznikla. Celkově převládající právní názor je, že AI ještě nedosáhla úrovně právnické osoby. Nebudete tedy schopni striktně vzato usilovat o to, aby AI zaplatila, a budete muset najít lidi, kteří v zákulisí ovládali páky (pro mou analýzu právní subjektivity pro AI viz odkaz zde).

Do všeho tohoto potenciálního právního bahna vstoupí myšlenka, která se vznášela jako možná náprava, ať už krátkodobě, nebo možná dlouhodobě. Myšlenka je taková, že by možná měl být zřízen speciální kompenzační fond, který by poskytoval finanční pomoc těm, kteří byli poškozeni AI. Pokud se vám jinak nedaří přimět AI, aby vás odškodnila, a nedokážete určit osoby, které by měly být pravděpodobně pohnány k odpovědnosti, další nejlepší možností by mohlo být využití kompenzačního fondu, jehož cílem je pomáhat lidem poškozeným AI.

Takový fond by se podobal jakési formě pojištění, jak je uvedeno v jednom podnětném výzkumném dokumentu: „V podstatě by se jednalo o pojistný mechanismus proti nejistotě: Jasný a transparentní rámec pro rychlé odškodnění v případech, kdy má žaloba o odpovědnost. nejisté nebo žádné vyhlídky na úspěch kvůli nepředvídatelné povaze škodlivého jednání, samotnému (typu) škody nebo příliš vysokým nákladům a/nebo složitosti postupu“ (článek Olivie Erdelyi a Gabor Erdelyi, „Hádanka odpovědnosti AI A obcházení fondu“, Journal of Artificial Intelligence Research, 2021).

Kompenzační fond by byl součástí zastřešujícího systému záruk pro umělou inteligenci (AIGS) a doprovázely by ho některé drobné úpravy stávajících zákonů o právní odpovědnosti. Lehký dotek by se pravděpodobně snáze uzákonil a nevyžadoval by náročnou právní a společenskou úzkost, pokud by byla ve stávajících právních režimech provedena řada demonstrativních změn, které strhávají vnitřnosti. Podle výzkumníků: „To odráží naše přesvědčení, že – navzdory přitažlivosti takového rychlého řešení – nezměněný použití stávajících pravidel odpovědnosti na AI nebo a protekcionisticky motivované uchýlit se k objektivní odpovědnosti s cílem stanovit odpovědnost za každou cenu nejsou správnými odpověďmi ze tří důvodů: Za prvé, ignorujíc, že ​​tato pravidla byla přizpůsobena různým okolnostem, a proto mohou být pro AI nevhodná, jsou v rozporu s jemně vyváženými cíli systém právní odpovědnosti. Zadruhé brání inovaci umělé inteligence přijetím nepřiměřeně represivního přístupu. Za třetí, nepřiměřené uchýlení se k objektivní odpovědnosti pouze dogmaticky nekonzistentním způsobem obchází předvídatelnost a problémy zavinění, spíše než je napravuje“ (jak je uvedeno výše).

Mezi argumenty ve prospěch takových kompenzačních fondů AI patří:

  • Snižuje potřebu zdlouhavých a nákladných soudních řízení, abyste se vyrovnali se škodami způsobenými umělou inteligencí
  • Ujišťuje lidi, že mohou využívat umělou inteligenci a v případě zranění mohou být odškodněni
  • Podporuje inovaci AI zmírněním právní nejistoty, které čelí inovátoři AI
  • Lze jej uvést do provozu mnohem rychleji než provádět rozsáhlé změny stávajících zákonů
  • Nabízí poměrně jasný lék, který je spolehlivý a snadno dostupný
  • Ostatní

Mezitím ti, kteří jsou proti přístupu kompenzačních fondů AI, říkají toto:

  • Nechme tvůrce umělé inteligence příliš vyvést z míry a dovolme jim vyhnout se odpovědnosti
  • Posílí tvůrce umělé inteligence, aby vytvořili umělou inteligenci, která postrádá svědomitou bezpečnost a správné ovládání
  • Mohlo by to přimět lidi, aby falešně tvrdili, že škodí AI, aby mohli využít finanční prostředky
  • Vyhýbá se a podkopává skutečnou potřebu přepracovat naše zákony, aby se umělá inteligence řídila dostatečně
  • Mohlo by se stát byrokratickou noční můrou, která uvízne a zneužívá finanční prostředky
  • Ostatní

Jak je patrné, existují jak zastánci, tak odpůrci této zcela kontroverzní myšlenky.

Těžko byste mohli souhrnně vyloučit kompenzační fond AI jako potenciální přístup k rostoucím obavám z AI, která způsobuje škody. Navrhované řešení není ani slam dunk.

Jedním z hledisek je, že tvůrci umělé inteligence by museli vložit peníze do fondů jako součást svého úsilí při navrhování a šíření umělé inteligence. To by se dalo chápat jako určitý druh poplatku nebo daně, kterou jsou povinni nést jako součást toho, aby mohli uvolnit svou AI světu. Potenciálně však tyto dodatečné náklady potlačují snahy startupů, které se snaží posunout hranice dnešní umělé inteligence? A jak by bylo řešeno vynucování toho, aby tvůrci umělé inteligence platili svůj poplatek nebo daň?

Vyvstává spousta otázek, které by bylo třeba vyřešit:

  • Ve kterých zemích by byl kompenzační fond pro umělou inteligenci nejlépe proveditelný?
  • Mohlo by se vytvořit globální zdání vzájemně propojených kompenzačních fondů AI?
  • Jaké by byly podrobné a funkční mechanismy spojené s takovými fondy?
  • Jak mají být kompenzační fondy AI financovány (veřejné, soukromé, charitativní)?
  • Jednalo by se o bezporuchový pojistný základ nebo by se zvolil jiný přístup?
  • Atd.

Oblast, ve které se již prosadila myšlenka kompenzačních fondů AI, se skládá z autonomních systémů, jako jsou autonomní vozidla a samořídící auta. Mé pokrytí samořiditelných aut a autonomních systémů AI viz odkaz zde.

Zde je náčrt toho, jak by to mohlo fungovat pro samořídící auta založená na umělé inteligenci.

Předpokládejme, že samořídící auto narazí do cyklisty. Jezdec na kole je zraněn. Jezdec na kole se může domáhat právní nápravy tím, že bude stíhat výrobce autonomního vozidla. Nebo by se mohli zaměřit na technologickou firmu s automatickým řízením, která vytvořila systém řízení AI. Pokud je samořídící vůz provozován jako vozový park, další právní cestou by bylo pronásledování provozovatele vozového parku. Pokusit se žalovat AI není v tomto okamžiku řešením, protože právní subjektivita AI ještě není stanovena.

Spíše než podniknout právní kroky proti kterékoli z těchto stran by bylo dalším prostředkem podání žádosti nebo nároku u vhodného kompenzačního fondu AI. Fond by formalizoval procesy zahrnující přezkoumání nároku a poté by určil, zda by mohly být žadateli poskytnuty nějaké kompenzační platby. Může existovat odvolací proces, který pomáhá žadatelům, kteří se domnívají, že byli fondem buď neprávem zamítnuti, nebo fondem nedostatečně kompenzovány.

Teoreticky by kompenzační fond AI byl mnohem rychlejší cestou k získání kompenzace za způsobenou škodu. Dokážete si představit, jak pracný může být soudní spor, kdy by se žalované firmy mohly pokusit případ protahovat.

Právníci by však mohli zdůraznit, že kompenzační fond umělé inteligence by mohl těmto dalším stranám, jako jsou tvůrci umělé inteligence, dovolit, aby se zdánlivě vyhnuly jakémukoli jasnému trestu za to, že pustily své samořídící auto na veřejné silnice, které nakonec srazily cyklistu. Co dalšího by se tyto firmy mohly rozhodnout „nedbale“ udělat? Bez hrozivého přízraku legálního meče houpajícího se nad jejich hlavami bychom se mohli ocitnout v každodenní konfrontaci s AI, která je plná nebezpečných kapacit.

Argumenty jdou dokola.

Proč investovat do čističky vzduchu?

AI Ethics nám připomíná, že bychom měli vždy zvažovat etické a právní důsledky AI. V tomto případě kompenzačních fondů AI se navrhovaná představa fondu fondů podobného pojištění pro kompenzaci těch, které AI poškodí, zdá lákavá. Zdá se, že finanční prostředky tam budou čekat, připraveny k využití a poskytnout co možná nejrychlejší náhradu.

Kompromisy, zda by to mohlo otevřít stavidla k vytvoření umělé inteligence, která má stále méně bezpečnostních kontrol, je skličující a až příliš skutečný problém. Asi nemusíme přilévat olej do ohně, který už snad tak nějak probíhá.

Můžeme nějak stále přimět tvůrce umělé inteligence, aby navrhli vhodnou etickou umělou inteligenci a zároveň vytvořili tyto kompenzační fondy pro umělou inteligenci?

Někdo by řekl, že ano, můžeme. Přenastavením stávajících zákonů tak, aby byly v souladu s kompenzačními fondy AI, by ti, kteří byli AI poškozeni, měli potenciálně dvojí cestu k hledání spravedlivé kompenzace.

Kdo je na prvním místě?

Ano, právě to je (stejně jako u nás všech) na prvním místě, že bychom měli uvažovat o potenciálním využití kompenzačních fondů AI a upravit stávající zákony, i když jen nepatrně, a poskytnout tak prostředky, jak se vypořádat s náporem dobré AI i špatná AI.

V tomto zásadním ohledu není žádný zmatek.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- odpovědnost/