Etika umělé inteligence zápasí s nevyhnutelnými nehodami umělé inteligence, které se rýsují i ​​nad autonomními samořídícími auty

Znáte náhodou někoho, kdo se zdá být obzvláště náchylný k nehodám?

Zdá se, že to děláme všichni.

Možná je ten typ člověka, který je schopný uklouznout na banánové slupce nebo převrhnout vzácnou vázu ve vašem obývacím pokoji. Jsou lidským magnetem pro nehody toho či onoho druhu. Mohlo by to být tak špatné, že se vám dokonce občas zdráhá být v jejich blízkosti. Můžete dostat zlověstný přepad nebo trpět neslavnými následky jedné z jejich nechutných nehod.

Ale možná jsme příliš drsní, když naznačujeme, že někdo je náchylnější k nehodám než ostatní. Dalo by se argumentovat, že nehoda se může stát každému z nás. Všichni jsme vystaveni možnosti spáchání nehody nebo se do ní zapleteme. Včetně toho nejlepšího z nás.

Navršíme tuto diskusi dodatečně obtěžující otázku.

Jsou nehody nevyhnutelné?

Jinými slovy, bez ohledu na to, jak moc bychom se mohli snažit předcházet nehodám, mohlo by se nevyhnutelně stát, že přesto stále existuje šance a konečná jistota, že k nehodám dojde. Můžete se snažit chránit svět před nehodami. To se zdá být nepochybně prozíravé. Ale tak či onak, nehody budou stále chovat jejich ošklivou hlavu.

Jak se říká, nehody čekají, až se stanou.

Mohlo by být užitečné objasnit, co se rozumí odkazem na nějakou událost, která je vhodně označena jako nehoda. Obvyklá slovníková definice zní, že nehoda je typ incidentu, ke kterému dojde neočekávaně a neúmyslně, jehož výsledkem je nešťastný výsledek, který spočívá ve zdání poškození nebo zranění.

Pozorně rozbalte tuto definici.

Uvedený incident je neočekávaný. To znamená, že jsme si zřejmě neuvědomovali, že k samotné nehodě dojde.

Uvedený incident je neúmyslný. To naznačuje, že bychom měli vyloučit okolnosti, za kterých se někdo úmyslně snažil, aby k incidentu došlo. Pokud vtipálek položí banánovou slupku na podlahu, kam ví, že vkročí nešťastný a nic netušící nevinný, těžko byste tvrdili, že ten, kdo o ni zakopl, utrpěl nehodu. Místo toho byli oklamáni a zákeřně navedeni do pasti.

Definice také zahrnuje kritérium, že výsledek je nešťastný. Nehoda v tomto světle musí vést k kyselému výsledku. Osoba, která nešťastnou náhodou převrhla vázu, praskla a pravděpodobně poškodila vychutnávaný předmět tak, že jej nelze opravit. Majitel vázy je poškozen ztrátou hodnoty. Osoba, která narazila do vázy, může nyní dlužit majiteli za ztrátu. Nedej bože, že by se někdo mohl rozbitím vázy pořezat nebo sešrotovat.

V zájmu rovné rovnováhy bychom mohli poznamenat, že existují také takzvané „dobré“ nehody. Člověk se může v důsledku nehody ocitnout ve velkém štěstí nebo získat nějaký jiný životně důležitý prospěch. Jedním z nejčastěji citovaných příkladů je Sir Alexander Fleming a jeho uznávaný objev penicilinu. Vypráví se, že byl ve své laboratoři trochu neopatrný a po návratu z dvoutýdenní dovolené našel na jednom ze svých kultivačních talířů plíseň. K věci prý řekl toto: „Člověk někdy najde, co nehledá. Když jsem se 28. září 1928 probudil těsně po svítání, rozhodně jsem neměl v plánu udělat revoluci v celé medicíně objevením prvního antibiotika nebo zabijáka bakterií na světě. Ale myslím, že to bylo přesně to, co jsem udělal."

Necháme stranou příznivé nehody a zaměříme se zde na pochmurné nehody. Verze nehod se zamračeným obličejem je tam, kde tyto nepříznivé důsledky mohou být zvláště život ohrožující nebo mít nepříjemné následky. Co nejvíce negativních nehod, které chceme minimalizovat (a, samozřejmě, negativních nehod, které bychom rádi maximalizovali, pokud je to proveditelné, i když o této variantě smajlíka se budu věnovat v pozdějším sloupci).

Rád bych trochu přeformuloval předchozí otázku o nevyhnutelnosti nehod. Doposud jsme věnovali pozornost nehodám, ke kterým dochází v konkrétním případě jedné osoby. Není pochyb o tom, že nehody mohou mít dopad na velké množství lidí najednou. S tím se lze setkat zejména tehdy, když jsou lidé ponořeni do složitého systému toho či onoho druhu.

Připravte se na variantu dříve vznesené otázky.

Jsou systémové havárie nevyhnutelné?

Měli bychom to promyslet.

Předpokládejme, že výrobní hala je navržena pro výrobu dílů pro automobily. Ti, kteří navrhli továrnu, jsou řekněme extrémně znepokojeni pracovními nehodami, které by mohly nastat. Pracovníci továrny jsou povinni neustále nosit přilby. Nápisy v továrně nabádají, abyste si dávali pozor na nehody a byli při své práci opatrní. Jsou přijata veškerá opatření, aby se zabránilo nehodám.

V tomto systému můžeme doufat, že se nikdy nikomu nestane nehoda. Myslíte si, že je nulová pravděpodobnost, že se stane nehoda? Troufnul bych si naznačit, že žádný rozumný myslitel by v tomto případě nevsadil na to, že šance na nehodu je nulová. Pravděpodobnost, že dojde k nehodě, může být opravdu nízká, přesto stále víme a předpokládáme, že navzdory všem preventivním opatřením stále existuje mírné riziko, že k nehodě dojde.

To vše ukazuje na myšlenku, že v dostatečně složitém systému musíme věřit, že k nehodám stále dojde, bez ohledu na to, jak moc se jim snažíme předcházet. Neochotně se připojujeme k podmínce, že systémové havárie jsou skutečně nevyhnutelné. Grandiózní prohlášení tohoto kalibru by mohlo obsahovat upozornění, že systém by musel mít určitý práh složitosti, takže je v podstatě nemožné pokrýt všechny základny, aby se zcela předešlo nehodám.

Nyní jste byli úhledně krok za krokem seznámeni s široce nastíněnou teorií o nehodách, které lze označit jako normální nehody nebo teorie normálních nehod (NAT). Zde je užitečný popis od výzkumníků, kteří tento pojem zkoumali: „V dostatečně velkém měřítku bude každý systém produkovat ‚normální nehody‘. Jedná se o nevyhnutelné nehody způsobené kombinací složitosti, propojení mezi součástmi a potenciálního poškození. Normální nehoda se liší od běžnějších nehod se selháním součástí v tom, že události a interakce vedoucí k normální nehodě nejsou pro operátory systému srozumitelné“ (jak je uvedeno v „Pochopení a předcházení selháním umělé inteligence: Praktická příručka“ od Roberta Williamse a Roman Yampolskiy, Filozofie časopis).

Důvod, proč jsem vás přivedl do země tzv běžné nehody je, že možná budeme muset tuto teorii opatrně aplikovat na něco, co se postupně a nevyhnutelně stává v naší společnosti všudypřítomné, totiž na příchod umělé inteligence (AI).

Pojďme se v tom rýpat.

Někteří lidé mylně předpokládají, že AI bude dokonalost. Systémy AI nebudou dělat chyby a nedostanou nás do problémů, spekuluje se. Vše, co musíte udělat, je zajistit, aby tito vývojáři AI odváděli dostatečně dobrou práci, a voilá, AI nikdy neudělá nic, co by se dalo vykládat jako náhodné nebo zplození nehody.

Ne tak rychle podle toho hypotetického přesvědčení. Pokud jste ochotni koupit teorii běžné nehodyjakákoliv AI jakékoli podstatné složitosti nevyhnutelně způsobí nehodu. Bez ohledu na to, kolik nočního šťouchání tito vývojáři umělé inteligence udělají, aby zabránili nehodě, AI se určitě v určitém okamžiku zaplete do nehody. To je způsob, jakým se sušenka drolí. A pláčem nad tím rozlitým mlékem není žádná úleva.

Přemýšlejte o mashup AI a koncepčních principech běžné nehody.

Představte si, že máme systém AI, který ovládá jaderné zbraně. Umělá inteligence byla pečlivě vytvořena. Všechny myslitelné kontroly a vyvážení byly zakódovány do systému AI. Jsme v bezpečí před nehodou způsobenou umělou inteligencí, která by mohla nastat? Ti, kteří podporují normální hledisko nehod, by řekli, že nejsme tak v bezpečí, jak by se dalo předpokládat. Vzhledem k tomu, že AI bude pravděpodobně obzvláště složitá, tam tiše čeká normální nehoda, aby se jednoho dne objevila, možná v tu nejhorší možnou chvíli.

Podstatou těchto ožehavých otázek a pochybností je, že musíme být na pozoru, že umělá inteligence musí být zatížena nehodami a lidstvo musí udělat něco rozumného a proaktivního, pokud jde o nebezpečí, která mohou nastat. Jak za chvíli uvidíte, toto je rýsující se úvaha, pokud jde o používání umělé inteligence, a na poli etiky umělé inteligence a etické umělé inteligence se dost trápí, co dělat. Mé průběžné a rozsáhlé pokrytí etiky AI a etické AI viz odkaz zde a odkaz zde, Abychom jmenovali jen několik.

Než půjdeme do králičí nory, ujistěte se, že jsme na stejné stránce ohledně podstaty AI. Dnes neexistuje žádná AI, která by byla vnímavá. Tohle my nemáme. Nevíme, zda bude vnímající AI možná. Nikdo nemůže výstižně předpovědět, zda dosáhneme vnímající AI, ani zda se vnímající AI nějakým zázrakem spontánně objeví ve formě výpočetní kognitivní supernovy (obvykle označované jako singularita, viz moje pokrytí na odkaz zde).

Typ AI, na který se zaměřuji, se skládá z necítivé AI, kterou máme dnes. Pokud bychom chtěli divoce spekulovat o cítící AI, tato diskuse by se mohla ubírat radikálně jiným směrem. Vnímavá AI by měla mít lidské kvality. Měli byste vzít v úvahu, že vnímající umělá inteligence je kognitivním ekvivalentem člověka, který vám dává rady. Navíc, protože někteří spekulují, že bychom mohli mít superinteligentní AI, je možné, že by taková AI mohla být chytřejší než lidé (pro můj průzkum superinteligentní AI jako možnosti viz. pokrytí zde). Všichni řekli, že tyto scénáře zrychlí hodnocení zdroje.

Nechme věci více při zemi a uvažujme o dnešní výpočetní necítivé umělé inteligenci.

Uvědomte si, že dnešní umělá inteligence není schopna „myslet“ žádným způsobem na stejné úrovni jako lidské myšlení. Když komunikujete s Alexou nebo Siri, konverzační schopnosti se mohou zdát podobné lidským schopnostem, ale skutečnost je taková, že jsou výpočetní a postrádají lidské poznání. Nejnovější éra umělé inteligence ve velké míře využívá strojové učení (ML) a hluboké učení (DL), které využívá porovnávání výpočetních vzorů. To vedlo k systémům umělé inteligence, které vypadají jako lidské sklony. Mezitím dnes neexistuje žádná umělá inteligence, která by měla zdání zdravého rozumu, ani žádný z kognitivních zázraků robustního lidského myšlení.

Možná si uvědomujete, že když začala nejnovější éra umělé inteligence, došlo k obrovskému výbuchu nadšení z toho, co někteří dnes nazývají AI pro dobro. Bohužel v patách toho tryskajícího vzrušení jsme začali být svědky AI pro špatné. Například bylo odhaleno, že různé systémy rozpoznávání obličeje založené na umělé inteligenci obsahují rasové a genderové předsudky, o kterých jsem mluvil na odkaz zde.

Snahy bránit se AI pro špatné aktivně probíhají. Kromě hlučného právní ve snaze omezit provinění na uzdě existuje také podstatný tlak na přijetí etiky umělé inteligence, aby se napravila odpornost umělé inteligence. Myšlenka je taková, že bychom měli přijmout a schválit klíčové etické principy umělé inteligence pro rozvoj a nasazení umělé inteligence, abychom podkopali AI pro špatné a současně ohlašovat a propagovat preferované AI pro dobro.

Pokud jde o související představu, jsem zastáncem pokusu o použití umělé inteligence jako součásti řešení problémů s umělou inteligencí a bojování ohně ohněm tímto způsobem myšlení. Mohli bychom například začlenit komponenty Etické umělé inteligence do systému umělé inteligence, který bude monitorovat, jak zbytek umělé inteligence dělá věci, a tak potenciálně v reálném čase zachytit jakékoli diskriminační snahy, viz moje diskuze na odkaz zde. Mohli bychom mít také samostatný systém AI, který funguje jako typ monitoru etiky AI. Systém umělé inteligence slouží jako dozorce, který sleduje a zjišťuje, kdy se jiná umělá inteligence dostává do neetické propasti (viz moje analýza takových schopností na odkaz zde).

Všeobecně doufáme, že zavedením smyslu pro etické zásady umělé inteligence budeme alespoň schopni zvýšit společenské povědomí o tom, co umělá inteligence může jak prospěšně dělat, tak i nepříznivě vytvářet. Rozsáhle jsem diskutoval o různých kolektivních analýzách etických principů umělé inteligence, včetně toho, že jsem pokryl sadu navrženou výzkumníky, která zkoumala a zhušťovala podstatu mnoha národních a mezinárodních zásad etiky umělé inteligence v dokumentu nazvaném „The Global Landscape Of AI Ethics Guidelines“ (publikováno v Příroda), a které mé pokrytí zkoumá na odkaz zde, což vedlo k tomuto klíčovému seznamu:

  • Průhlednost
  • Spravedlnost a férovost
  • Neškodlivost
  • Odpovědnost
  • Ochrana osobních údajů
  • Dobročinnost
  • Svoboda a autonomie
  • Věřte
  • udržitelnost
  • Důstojnost
  • Solidarita

Jak můžete přímo hádat, pokusit se určit specifika, která jsou základem těchto principů, může být extrémně obtížné. Snaha přeměnit tyto široké principy v něco zcela hmatatelného a dostatečně podrobného, ​​aby to bylo možné použít při vytváření systémů umělé inteligence, je navíc tvrdým oříškem. Celkově je snadné mávnout rukou nad tím, co jsou etická pravidla AI a jak by se měly obecně dodržovat, zatímco v kódování AI je mnohem složitější situace, kdy musí být opravdová guma, která splňuje silnici.

Principy AI etiky mají využívat vývojáři AI spolu s těmi, kteří řídí úsilí o vývoj AI, a dokonce i ti, kteří nakonec nasazují a provádějí údržbu systémů AI. Všechny zúčastněné strany během celého životního cyklu vývoje a používání AI jsou posuzovány v rámci dodržování zavedených norem etické AI. To je důležité upozornit, protože obvyklý předpoklad je, že „pouze kodéři“ nebo ti, kteří programují AI, podléhají dodržování etických pojmů AI. Jak již bylo řečeno, k vymýšlení a nasazení AI je zapotřebí vesnice a celá vesnice musí být zběhlá a dodržovat etická pravidla AI.

Možná budeme muset přidat k vychvalovaným seznamům etiky umělé inteligence, že musíme výslovně zvážit a přijmout zjevná opatření, abychom zabránili nebo alespoň razantně zmírnili AI. běžné nehody k tomu může dojít. Ti, kteří vyvíjejí AI, musí v této oblasti udělat maximum. Ti, kteří nasazují AI, musí udělat totéž. Ti, kteří používají nebo nějak podléhají AI, by si měli dávat pozor a dávat si pozor na možnost nehod s AI, které se zdánlivě vyskytnou.

Můžete být v pokušení myslet si, že do AI lze zabudovat dostatek preventivních opatření, aby šance na nehodu klesla na nulu. Pro ty, kteří jsou technici, je obvyklá arogance, že pokud nějaká technologie může způsobit problém, jiná technologie může problém jistě vyřešit. Prostě házejte další a další technologie, dokud problém nezmizí.

No, ti, kteří studovali systémově orientované nehody, by měli tendenci nesouhlasit a zdvořile oponovat předpokládané technice pompéznosti tím, že nabídnou stanovisko známé jako Swiss Cheese Model (SCM): „V SCM jsou vrstvy bezpečnosti modelovány jako plátky sýr s otvory, které představují slabá místa v každé vrstvě bezpečnosti. V průběhu času díry mění tvar a pohybují se. Nakonec, bez ohledu na to, kolik plátků sýra (bezpečnostních vrstev) je, otvory se zarovnají a umožní přímý průstřel všemi plátky sýra (dojde k nehodě)“ (podle dříve citovaného článku Roberta Williamse a Romana Yampolského ).

Nechci se zabřednout do této vedlejší tečny o tom, zda existuje nebo neexistuje zaručený způsob, jak naprogramovat AI tak, aby zcela a vždy odvrátila jakoukoli šanci nehody. Zkoušejí se nejrůznější matematické a výpočetní dokazovací přístupy. Myslím, že je rozumné a spravedlivé prohlásit, že dnes nemáme škálovatelnou pracovní metodu ani technologie, které by dokázaly zaručit takovou nulovou šanci, a navíc jsme rozhodně zatíženi tuny a tuny umělé inteligence, která se vyrábí. vím jistě, že se nesnažil dodržovat takové praktiky. Tento poslední bod je zásadní, protože i když dokážeme něco vymyslet v laboratoři umělé inteligence, škálovat to na miliony divokých a bezstarostných snah o umělou inteligenci, které probíhají a které se budou i nadále objevovat, je spletitý problém a pravděpodobně nebude vyřešen, i když bude počítačový zkušební stroj stříbrný. kulka existovala.

Dalším bodem, který si podle mého názoru zaslouží krátkou zmínku, je umělá inteligence, která se v důsledku zlomyslných lidských aktérů mění v nečestné činy. Nehodlám tyto případy zařazovat do oblasti AI nehod. Pamatujte, že úvodní diskuse naznačila, že slovníková definice nehody byla incidentem neúmyslné Příroda. Pokud se lidskému kybernetickému podvodníkovi podaří přimět systém AI ke špatným věcem, neklasifikuji tuto AI jako nehodu. Věřím, že s tímto předpokladem budete souhlasit.

Naskýtá se zajímavá otázka, jak velkou část různých nevhodných akcí AI lze připsat čistě nehodě AI oproti záludnému činu kyberzločince. Podle některých existujících databází hlášení incidentů s umělou inteligencí se zdá, že k nehodám s umělou inteligencí dochází častěji než ke škodolibě vyvolaným incidentům, i když tuto představu musíte brát s pořádnou dávkou soli. Říkám to proto, že existuje velké pokušení nehlásit, kdy byl systém AI napaden, a možná být o něco ochotnější hlásit, když dojde k nehodě AI.

Existuje velmi důležité upozornění, o kterém musíme diskutovat ohledně nehod s umělou inteligencí.

Používání fráze „nehody umělé inteligence“ je obecně nežádoucí a způsobí to docela nepořádek pro nás všechny, tedy pro celou společnost. Když se člověku náhodou stane nehoda, často krčíme rameny a soucítíme s osobou, která nehodu měla. Zdá se, že se slovem „nehoda“ zacházíme, jako by znamenalo, že za to, co se stalo, není nikdo zodpovědný.

Vezměme si příklad z dopravní nehody. Jedno auto se v pravotočivé zatáčce rozhoupe do široka a náhodně narazí do jiného auta, které jelo rovně. Sakra, byla to jen nehoda a náhoda. Ti, kteří nebyli zapojeni do incidentu, možná nechají věc uklouznout, pokud je událost formulována jako pouhá nehoda, která se stala.

Mám ale pocit, že kdybyste seděli v autě, které dostalo ránu, nebyli byste tak soucitní s řidičem, který provedl příliš širokou zatáčku. Váš názor by byl jistě takový, že ten druhý řidič byl mizerný řidič a že k havárii vedl buď zdánlivě nezákonný nebo nerozumný řidičský čin. Označením incidentu jako „nehoda“ je nyní řidič, který uvízl, v poněkud nevýhodě, protože se zdá, že k tomu všemu došlo pouze náhodou, spíše než rukama řidiče, který něco udělal.

Slovo „nehoda“ je ve skutečnosti tak plné různých významů, že vládní statistiky o dopravních nehodách obecně označují tuto záležitost jako autonehody nebo autonehody, spíše než aby používaly frázi dopravní nehody. Nezdá se, že by kolize nebo autonehoda měly žádný dopad na to, jak k incidentu došlo. Mezitím nás fráze „autonehoda“ téměř vede k myšlence, že šlo o hříčku osudu nebo jaksi mimo lidské ruce.

Můžete hojně vidět, jak tato konotační úvaha vstupuje do hry, když se odkazuje na nehody AI. Nechceme, aby se vývojáři umělé inteligence schovávali za konotační štít, že umělá inteligence jen náhodně někomu ublížila. Totéž platí pro ty, kteří nasazují AI. Můžete namítnout, že fráze „nehody AI“ je téměř antropomorfizací AI, která svede společnost v omyl, aby umožnila lidem, kteří byli v zákulisí AI, uniknout odpovědnosti. Pro mou diskusi o rostoucí důležitosti toho, aby lidé byli zodpovědní za jejich AI, viz moje diskuse na adrese odkaz zde a odkaz zde.

Napříště zde budu používat frázi o nehodách AI, ale dělám to neochotně a pouze proto, že je to konvenční způsob odkazování na tento jev. Pokusy formulovat to jinak bývají bohužel nafoukanější a nečtou se tak snadno. Ujistěte se prosím, že hlášku interpretujete způsobem, který vás nenutí dívat se jinam a neuvědomovat si, že lidé, kteří jsou za AI, jsou vinni, když se AI pokazí.

Abychom pomohli ilustrovat pravděpodobný zmatek nebo zavádějící aspekty odkazování na AI jako na způsobující nehody, můžeme se vrátit k mým poznámkám o převržení vázy. Vezměme si tento příklad, jak to umělá inteligence dělá: „Tento problém souvisí s věcmi, které umělá inteligence dělá náhodou nebo lhostejně. Jedním z příkladů je úklidový robot, který převrací vázu. Složitá prostředí mají tolik druhů „váz“, že je nepravděpodobné, že budeme schopni naprogramovat penalizaci za všechny vedlejší efekty“ (podle článku Roberta Williamse a Romana Yampolského).

Zdá se, že systém umělé inteligence, který je uveden do provozu v domácnosti a poté „náhodně“ převrhne vázu, naznačuje, že nikdo by neměl být obviňován z tohoto nepříznivého působení umělé inteligence. Byla to jen nehoda, někdo by mohl s nářkem odsuzovat. Na druhou stranu bychom se měli oprávněně ptát, proč nebyl systém umělé inteligence naprogramován tak, aby se s vázou vypořádal obecně. I když vývojáři umělé inteligence nepředpokládali, že vázu jako takovou lze nalézt v rozsahu objektů, na které lze narazit, můžeme si jistě klást otázku, proč neexistovalo nějaké zastřešující vyhýbání se objektům, které by zabránilo systému umělé inteligence převrhnout váza (takže AI možná neklasifikovala vázu jako vázu, ale přesto se jí mohla vyhnout jako detekovatelnému předmětu, kterému je třeba se vyhnout).

Předpovídal jsem a stále předpovídám, že postupně směřujeme k obrovské právní bitvě o vznik systémů umělé inteligence, které se samy dostanou do „nehod s umělou inteligencí“ a způsobí nějakou formu škody. Až dosud společnost nereagovala žádným větším způsobem na legální potlačení umělé inteligence, která je vytlačena na trh a má nepříznivé důsledky, ať už záměrně, nebo neúmyslně. Dnešní rozjetý vlak umělé inteligence, který se stal zlatou horečkou nedomyšlených tvůrců umělé inteligence a těch, kteří narychlo zavádějí nasazení umělé inteligence, mají právě teď štěstí a zůstávají relativně nedotčeni občanskými žalobami a trestním stíháním.

Právní zpětná vazba plná AI dříve nebo později přijde.

Pokračujeme, jak se máme pokusit vyrovnat se s nevyhnutelností takzvaných AI nehod?

Jedna věc, kterou můžeme udělat hned, je pokusit se předvídat, jak by mohlo dojít k nehodám AI. Předvídáním nehod s umělou inteligencí se můžeme alespoň snažit vymyslet způsoby, jak je omezit nebo minimalizovat pravděpodobnost jejich výskytu. Kromě toho se můžeme pokusit umístit zábradlí, aby se v případě nehody s umělou inteligencí snížila šance na demonstrativní poškození.

Užitečný soubor faktorů, které byly popsány v dříve citovaném článku výzkumu Pochopení a vyvarování se selhání AI: Praktický průvodce zahrnuje tyto vlastnosti (jak je citováno z výzkumného článku):

  • Systém, který je ovlivněn výstupy AI.
  • Časová prodleva mezi výstupy AI a větším systémem, pozorovatelnost systému, úroveň lidské pozornosti a schopnost operátorů napravit nefunkčnost AI.
  • Maximální poškození, které může způsobit zlomyslné použití systémů, které AI ovládá.
  • Spojení komponent v blízkosti AI a složitost interakcí.
  • Mezera ve znalostech AI a dalších používaných technologií a energetická úroveň systému.

Vsadil bych se, že v tomto okamžiku této obsáhlé diskuse si přejete nějaké ilustrativní příklady, které by mohly dále objasnit téma nehod AI. Existuje speciální a jistě oblíbený soubor příkladů, které jsou mému srdci blízké. Víte, jako odborník na AI včetně etických a právních důsledků jsem často žádán, abych určil realistické příklady, které předvádějí dilemata etiky AI, aby bylo možné snáze pochopit poněkud teoretickou povahu tématu. Jednou z nejvíce sugestivních oblastí, která živě prezentuje tento etický problém umělé inteligence, je příchod skutečně samořídících vozů založených na umělé inteligenci. To poslouží jako praktický příklad použití nebo příklad pro rozsáhlou diskusi na dané téma.

Zde je pak pozoruhodná otázka, která stojí za zamyšlení: Osvětluje příchod skutečně samořídících aut založených na umělé inteligenci něco o nástupu takzvaných nehod s umělou inteligencí, a pokud ano, co to ukazuje?

Dovolte mi chvíli rozbalit otázku.

Za prvé, všimněte si, že ve skutečném samořídícím autě není žádný lidský řidič. Mějte na paměti, že skutečně samořídící auta jsou řízena systémem AI. Není potřeba, aby za volantem byl lidský řidič, ani neexistuje ustanovení, aby vozidlo řídil člověk. Pro mé rozsáhlé a průběžné pokrytí Autonomních vozidel (AV) a zejména samořiditelných vozů viz odkaz zde.

Rád bych dále objasnil, co je míněno, když mluvím o skutečných samořídících autech.

Porozumění úrovním samořídících automobilů

Pro upřesnění, skutečná samořídící auta jsou ta, kde AI řídí auto zcela samo a při řízení není žádná lidská pomoc.

Tato vozidla bez řidiče jsou považována za úroveň 4 a úroveň 5 (viz mé vysvětlení na adrese odkaz zde), zatímco vůz, který vyžaduje, aby se na řízení společně podílel lidský řidič, se obvykle považuje za úroveň 2 nebo úroveň 3. Vozy, které spolu sdílejí úkol řízení, jsou popsány jako semi-autonomní a obvykle obsahují různé automatizované doplňky, které se označují jako ADAS (Advanced Driver-Assistance Systems).

Na úrovni 5 ještě není skutečné auto s vlastním řízením a ještě ani nevíme, zda toho bude možné dosáhnout, ani jak dlouho bude trvat, než se tam dostaneme.

Mezitím se úsilí úrovně 4 postupně snaží získat určitou trakci tím, že podstupují velmi úzké a selektivní testy na veřejných komunikacích, ačkoli existuje spor o to, zda by toto testování mělo být povoleno jako takové (všichni jsme pokusnými pokusnými králíky na život a na smrt odehrávající se na našich dálnicích a vedlejších cestách, někteří tvrdí, viz moje zpravodajství na odkaz zde).

Protože poloautonomní auta vyžadují řidiče, přijetí těchto typů automobilů se nebude výrazně lišit od řízení konvenčních vozidel, takže o tomto tématu není samo o sobě nic nového (jak vidíte, uvidíte) za okamžik jsou obecně použitelné následující body).

U poloautonomních automobilů je důležité, aby veřejnost musela být upozorněna na znepokojující aspekt, který se objevuje v poslední době, a to navzdory těm lidským řidičům, kteří neustále vysílají videa, která usínají za volantem auta úrovně 2 nebo 3 , všichni se musíme vyhnout tomu, aby byli uvedeni v omyl v přesvědčení, že řidič může odvrátit jejich pozornost od úkolu řízení při řízení poloautonomního automobilu.

Jste odpovědnou stranou za řízení vozidla, bez ohledu na to, kolik automatizace může být hodeno do úrovně 2 nebo úrovně 3.

Samořídící auta a incidenty AI

U vozidel s vlastním řízením úrovně 4 a 5 nebude do řízení zapojen lidský řidič.

Všichni cestující budou cestující.

AI řídí.

Jedním z aspektů, které je třeba okamžitě projednat, je skutečnost, že umělá inteligence zapojená do dnešních řídicích systémů umělé inteligence není vnímavá. Jinými slovy, AI je celkově kolektiv počítačového programování a algoritmů a nejspíše není schopen uvažovat stejným způsobem jako lidé.

Proč je tento dodatečný důraz na to, aby AI nebyla vnímavá?

Protože chci zdůraznit, že při diskusi o roli řídícího systému AI nepřičítám AI lidské vlastnosti. Uvědomte si, že v dnešní době existuje trvalá a nebezpečná tendence k antropomorfizaci AI. V zásadě lidé dnešní AI připisují lidskou vnímavost, a to navzdory nepopiratelné a nepopiratelné skutečnosti, že taková AI dosud neexistuje.

S tímto vysvětlením si můžete představit, že systém řízení AI nebude nativně nějak „vědět“ o aspektech řízení. Řízení a vše, co to obnáší, bude muset být naprogramováno jako součást hardwaru a softwaru samořízeného automobilu.

Pojďme se ponořit do nesčetných aspektů, které na toto téma hrají.

Zaprvé je důležité si uvědomit, že ne všechna samořídící auta s umělou inteligencí jsou stejná. Každá automobilka a technologická firma s vlastním řízením přistupuje k navrhování samořídících vozů. Jako takové je obtížné činit rozsáhlá prohlášení o tom, co budou či nebudou dělat řídicí systémy AI.

Kromě toho, kdykoli uvedou, že řídící systém AI nedělá nějakou konkrétní věc, může to později předběhnout vývojáři, kteří ve skutečnosti naprogramují počítač, aby udělal právě tuto věc. Krok za krokem se postupně zdokonalují a rozšiřují systémy řízení AI. Stávající omezení dnes již nemusí existovat v budoucí iteraci nebo verzi systému.

Věřím, že to poskytne dostatečnou litanii námitek, které jsou základem toho, o čem se chystám vyprávět.

Nyní jsme připraveni se hluboce ponořit do samořídících vozů a možností etické umělé inteligence, které s sebou nesou nástup takzvaných nehod s umělou inteligencí.

Představte si, že v ulicích vašeho okolí jezdí samořízené auto založené na umělé inteligenci a zdá se, že jezdí bezpečně. Zpočátku jste věnoval zvláštní pozornost pokaždé, když se vám podařilo zahlédnout samořídící auto. Autonomní vozidlo vyniklo regálem elektronických senzorů, které zahrnovaly videokamery, radarové jednotky, zařízení LIDAR a podobně. Po mnoha týdnech samořídícího auta křižujícího kolem vaší komunity si toho nyní sotva všimnete. Pokud jde o vás, je to jen další auto na již tak frekventovaných veřejných komunikacích.

Abyste si nemysleli, že je nemožné nebo nepravděpodobné seznámit se se samořiditelnými auty, často jsem psal o tom, jak si místa, která jsou v rámci zkoušek samořiditelných aut, postupně zvykla na vyšperkovaná vozidla. Mnozí z místních nakonec přešli z uchváceného civění s otevřenými ústy k tomu, že nyní vydávali expanzivní zívání nudy, aby byli svědky těch klikatých samořídících aut.

Pravděpodobně hlavním důvodem, proč by si právě teď mohli všimnout autonomních vozidel, je faktor podráždění a podráždění. Řídicí systémy AI podle knihy zajišťují, že auta dodržují všechny rychlostní limity a pravidla silničního provozu. U hektických lidských řidičů v jejich tradičních lidsky řízených autech budete občas naštvaní, když uvíznete za přísně zákony dodržujícími samořídícími auty založenými na umělé inteligenci.

To je něco, na co si možná budeme muset všichni zvyknout, ať už oprávněně nebo neprávem.

Zpět k našemu příběhu.

Jednoho dne se samořídící auto stane nehodou.

Při pravotočivé zatáčce systém umělé inteligence autonomní vozidlo široce rozmáchl a došlo k nárazu do auta řízeného člověkem. Vůz řízený člověkem jel rovně ve správném jízdním pruhu. Lidský řidič neměl žádnou zvláštní příležitost uhnout nebo se vyhnout střetu. Kromě toho samořídící auto nic nevarovalo ani nenaznačovalo, že se chystá široce odbočit doprava.

Je to nehoda?

S jistotou můžeme říci, že je to zahrnuto do rubriky nehody AI. Základem takového tvrzení je, že za volantem samořiditelného vozu byl systém řízení AI. Nějak, z jakýchkoli důvodů, se AI rozhodla udělat široký švih při zatáčení doprava. Výsledkem bylo, že samořízené auto narazilo do auta řízeného lidmi.

Vzpomeňte si na dřívější diskusi o konotacích spojených se slovem „nehoda“ a podívejte se, jak se v tomto scénáři projevují takové podtóny. Také si pamatujte, že jsme diskutovali o případu lidského řidiče, který odbočil široce doprava a narazil do auta řízeného člověkem. Uvědomili jsme si, že představa, že tento čin je „nehoda“, je zavádějící a matoucí. Lidský řidič, který udělal široký švih, se mohl schovat za představu, že k nehodě došlo pouze zdánlivě náhodou nebo rozmary osudu.

Namísto označení scénáře jako „nehoda s umělou inteligencí“ v případě, že se samořídící auto založené na umělé inteligenci rozjede a narazí do auta řízeného člověkem, bychom možná měli říci, že šlo o autonehodu nebo autonehodu, při které došlo k autonehodě. řídící auto a auto řízené člověkem. Můžeme se pak obejít bez zbytečného zmatku, že jde o nehodu nepoznatelných prostředků.

Jaká by podle vás byla reakce veřejnosti na incident?

No, pokud se automobilka nebo technologická firma dokáže držet označení této záležitosti jako nehody, možná budou schopni obejít potenciální odpor ze strany komunity jako celku. Pocit soucitu ohledně všech zmíněných nehod by se možná přenesl do konkrétních okolností. Další informace o tom, jak budou města, okresy a představitelé států potenciálně reagovat na incidenty autonomních vozidel s umělou inteligencí, naleznete v diskusi o studii Harvardu, kterou jsem spoluvedl, a jak je popsáno na odkaz zde.

Pokud je situace jasně popsána jako autonehoda nebo autonehoda, možná by to mohlo umožnit zjištění, že za incident může někdo nebo něco. Prudká reakce by mohla být, že za to nese odpovědnost AI. Jde o to, že dokud nebo pokud se někdy rozhodneme pojmenovat AI tak, že má zdání právnické osoby, nebudete schopni přisoudit odpovědnost na AI jako takovou (viz moje diskuse o AI a právnické osobě na odkaz zde).

Můžeme zkontrolovat systém řízení AI, abychom se pokusili zjistit, co vedlo ke zdánlivě nevhodné jízdě a následné autonehodě. To však neznamená, že AI ponese odpovědnost. Mezi odpovědné osoby patří vývojáři AI, provozovatel vozového parku samořídícího vozu a další. Zahrnuji i další, protože existuje možnost, že město může být částečně zodpovědné za návrh rohu, kde došlo k obratu. Kromě toho předpokládejme, že chodec vyskočil ze zatáčky a řídicí systém AI se rozhodl osobě vyhnout, a přesto se dostal do dopravní nehody.

A tak dále.

Proč investovat do čističky vzduchu?

Chtěli bychom vědět, co AI výpočetně počítala a k čemu byla naprogramována. Dělala AI tak, jak byla zakódována? Možná, že AI narazila na chybu nebo chybu v programování, což neomlouvá akce, ale poskytuje další vodítko k tomu, jak k havárii došlo.

Jaké zábradlí umělé inteligence byly naprogramovány do systému řízení umělé inteligence? Kdyby tam byly zábradlí, chtěli bychom zjistit, proč se zdálo, že nezabrání srážce auta. Možná se AI řidičský systém mohl raději zastavit, než aby odbočil. Rádi bychom věděli, jaké alternativy umělá inteligence v průběhu incidentu výpočetně vyhodnotila.

Kromě toho, že se dostaneme ke dnu konkrétního incidentu, je další oprávněnou pochybností, zda má řídicí systém AI chybu nebo jiný zabudovaný aspekt, který způsobí podobné druhy nepříznivých činů. V podstatě by tento incident mohl být výmluvným ukazatelem toho, že ještě něco přijde. Jak byly počítačové simulace jízdních situací použity k pokusu a předvídání tohoto typu výzev systému řízení AI? Byly provedeny dostatečné testy jízdy na vozovce, aby se odhalily problémy s umělou inteligencí, které mohly vést k autonehodě?

Tento scénář zdůrazňuje sporný hlavolam, kterému čelí vznik samořídících vozů založených na umělé inteligenci.

Takhle to jde.

Na jedné straně existuje společenská touha urychleně přijmout samořídící auta kvůli naději, že řídicí systémy AI budou stejně bezpečné nebo možná bezpečnější než lidští řidiči. Jen ve Spojených státech máme v současnosti téměř 40,000 2.5 lidských obětí ročně v důsledku autonehod a asi XNUMX milionu lidských zranění. Analýzy naznačují, že značnou část těchto autonehod lze připsat lidské chybě, jako je řízení v opilosti, řízení v roztržitosti atd. (viz moje hodnocení takových statistik na odkaz zde).

Řídící systémy AI nebudou pít a řídit. Nebudou potřebovat odpočinek a za volantem se neopotřebují. Předpokladem je, že zavedením samořídících aut jako životaschopného způsobu dopravy můžeme snížit počet lidských řidičů. To by zase mělo znamenat, že souhrnně snížíme počet ročních lidských úmrtí a zranění při autonehodách.

Někteří učenci říkali, že skončíme s nulovými úmrtnostmi a nulovými zraněními a ta samořídící auta budou údajně nebouratelná, ale to je naprosto absurdní a naprosto falešná očekávání. Vysvětlil jsem, proč je to tak nesmyslné odkaz zde.

V každém případě předpokládejme, že dojde k určitému počtu autonehod, do kterých budou zapojena samořídící auta. Předpokládejme také, že tyto autonehody budou mít určitý počet úmrtí a zranění. Otázkou, která se trápí, je, zda jsme jako společnost ochotni takové případy vůbec tolerovat. Někteří říkají, že pokud dojde byť jen k jednomu úmrtí nebo jednomu zranění v důsledku skutečně samořídících aut, celá sada a kaboodle by měly být uzavřeny.

Vyrovnávací hledisko je, že pokud zachráněné životy snižují roční počty, měli bychom nadále podporovat nástup samořiditelných aut a nereagovat tak nelogickým způsobem. Budeme muset přijmout premisu, že určité množství smrtelných úrazů a zranění bude stále existovat, dokonce i u samořídících aut, a přesto si uvědomit, že pokud se roční počet sníží, naznačuje, že jsme na správné cestě.

Někteří samozřejmě tvrdí, že bychom neměli mít na našich veřejných komunikacích samořídící auta, dokud nebudou povolena pro takové použití v důsledku rozsáhlých a vyčerpávajících počítačových simulací nebo prostřednictvím soukromých testů na uzavřené trati. Protiargument zní, že jediným schůdným a nejrychlejším způsobem, jak uvést do provozu samořídící auta, je použití veřejných komunikací a že jakékoli zpoždění při přijímání samořídících aut jinak umožní pokračovat v příšerných počtech havarovaných lidmi řízených aut. Popsal jsem tuto debatu ve svých sloupcích do větší délky a vyzývám čtenáře, aby se na tyto diskuse podívali, aby získali úplný přehled o úhlech pohledu na tuto kontroverzní záležitost.

Pojďme to zatím zabalit.

Budou se dít nehody s umělou inteligencí. Musíme odolat nutkání vykládat nehodu AI jako zdánlivou náhodou a ergo falešně nechat výrobce a ty, kteří nasazují AI, být kategoricky mimo.

Je tu další zvrat, který vám zanechávám jako poslední zajímavou myšlenku pro váš den.

Komik Dane Cook údajně řekl tento vtip o autonehodách: „Před pár dny jsem měl autonehodu. Není to má chyba. I když to není vaše chyba, ten druhý vystoupí z auta a podívá se na vás, jako by to byla vaše chyba: Proč jste zastavili na červenou a nechali mě srazit vás na 80!“

Tam, kde se zvrat dostává do popředí, je možnost, že systém umělé inteligence se může rozhodnout trvat na tom, že když dojde k nehodě s umělou inteligencí, která se týká této konkrétní umělé inteligence, umělá inteligence prohlašuje, že incident zavinil člověk, a jistě nikoli umělá inteligence. Mimochodem, to by mohla být naprostá pravda a člověk by se mohl pokoušet udělat z AI obětního beránka tvrzením, že to byla vina AI.

Nebo se možná AI pokouší z člověka obětního beránka.

Víte, umělá inteligence, kterou vymýšlíme, může být tímto způsobem záludná, ať už náhodou nebo ne.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-looms-over-autonomous-self- řízení-auta-také/