Etická umělá inteligence ambiciózně doufající, že se umělá inteligence naučí etickému chování sama, jako je tomu v případě umělé inteligence v autonomních automobilech s vlastním řízením

Aristoteles skvěle prohlásil, že vzdělávání mysli bez vzdělávání srdce není vůbec žádné vzdělávání.

Tuto zasvěcenou poznámku byste si mohli vyložit tak, že naznačit, že učení o etice a morálním chování je pro lidstvo nesmírně životně důležité. V klasické debatě o přírodě versus výchově se musíme ptát, kolik z našich etických zvyklostí je instinktivně přirozené, zatímco kolik jsme se toho naučili v průběhu života. Batolata si všímají ostatních lidí a pravděpodobně získávají své etické základy na základě toho, co vidí a slyší. Totéž lze říci o teenagerech. U dospělých s otevřenou myslí se i oni budou nadále přizpůsobovat a pokročit ve svém etickém myšlení v důsledku prožívání každodenního světa.

Samozřejmě je součástí kurzu také výslovné poučení někoho o etice. Lidé jsou povinni se dozvědět o etických způsobech navštěvováním kurzů na dané téma nebo třeba návštěvou akcí a praktik, které je zajímají. Etické hodnoty lze jasně identifikovat a sdílet jako prostředek pomoci ostatním při formulování jejich vlastní struktury etiky. Kromě toho může být etika nenápadně skryta v příbězích nebo jiných výukových režimech, které v konečném důsledku nesou zprávu o tom, z čeho se skládá etické chování.

Tak se zdá, že lidé naplňují etiku.

A co umělá inteligence (AI)?

Uvědomuji si, že taková otázka se může zdát zvláštní. Určitě očekáváme, že lidé začlení etiku a projdou životem s určitým zdáním morálního kodexu. Je to jednoduchý a zřejmý fakt. Na druhou stranu se zdá, že stroj nebo počítač nezapadají do stejného referenčního rámce. Vaše vnitřní reakce může být taková, že je přitažené za vlasy nebo výstřední považovat AI za ztělesnění etických a morálních kodexů.

Zdá se, že to nejlepší, co můžeme s umělou inteligencí udělat, je vymyslet ji tak, aby se neodchylovala od etického chování. Vývojáři umělé inteligence a ti, kteří se zabývají umělou inteligencí, nesou odpovědnost za zajištění toho, že AI tak, jak byla navržena a implementována, je již v souladu s etickými zásadami. Abychom to tak řekli, AI už by měla být nedotčená a připravená vyrazit jako plně eticky správné zařízení.

Určitě byste měli pravdu, když si mysleli, že systémy umělé inteligence by skutečně měly být vytvořeny tak, aby zcela zapadaly do etického základu. Společnost byla docela nadšená, když byla poprvé vydána nejnovější vlna systémů umělé inteligence a zdálo se, že jsme byli v éře AI pro dobro. Umělá inteligence by pomohla vyřešit mnoho nejnáročnějších světových problémů. Pokroky v technologii byly využívány k doplnění lidských schopností o kognitivní zařízení, i když mi dovolte zdůraznit, že zatím nemáme žádnou vnímavou AI a nevíme, zda bude dosaženo vnímající AI.

Problém se spěchem dostat AI do světa postupně odhalil ošklivé podbřišek AI známé jako AI pro špatné. Objevilo se mnoho titulků o systémech umělé inteligence, které využívají algoritmické rozhodování (ADM), které je plné předsudků a nespravedlností. Navíc velká část současné umělé inteligence trpí nedostatkem transparentnosti, má tendenci být nevysvětlitelná, pokud jde o vysvětlování výpočetních rozhodnutí, často vykazuje nedostatek spravedlnosti a některým umožnila odvrátit svou lidskou odpovědnost tím, že na AI ukazují prstem.

Ve svých spisech se rozsáhle zabývám etickou AI a etikou AI, včetně odkaz zde a odkaz zde, Abychom jmenovali jen několik.

Jak tam může být AI pro špatné pokud vezmeme jako deklarovaný konstrukt, že AI by měla být vytvořena od začátku, aby se zabránilo neetickému jednání?

Odpověď je vícenásobná.

Za prvé, mnoho vývojářů umělé inteligence a společností zabývajících se umělou inteligencí sami neví, jak je důležité utvářet svou umělou inteligenci tak, aby zůstala v rámci etických hranic. Koncept není vůbec na jejich radaru. Půvab rychlého vydělávání peněz způsobuje, že někteří prosazují jakékoli divoké představy umělé inteligence, které chtějí záměrně vytvořit. Není třeba vymýšlet nějaké etické věci. Stačí postavit AI a rozjet to.

Za druhé, existují takové, které vytvářejí AI, které zkrášlují přímé povědomí o etických důsledcích, ale zjevně bagatelizují nebo poněkud ignorují úvahy o etické AI. Jednou z běžných perspektiv je klasická mantra pro techniky zaměřená na rychlé a časté selhání. Pokračujte v opakování, dokud se věci, doufejme, vhodně nevyřeší. Šance na vmáčknutí jakéhokoli systematického a promyšleného začlenění etiky AI do těchto rychlých snah o AI je bohužel mizivá. Diskutuji o potřebě posílení vedení směrem k Etické umělé inteligenci na odkaz zde.

Za třetí, existuje mnoho nejasností o tom, jaké etické mantinely by se měly dodržovat při vymýšlení umělé inteligence. Jistě, v dnešní době existuje mnoho etických pokynů AI, viz moje pokrytí na odkaz zde, i když je těžké tyto praktické teoretické zásady proměnit ve specifika pro daný budovaný systém umělé inteligence. Naznačil jsem, že budeme pomalu svědky vzniku nástrojů a metodologií pro vytváření umělé inteligence, které zahrnují postupy etického kódování umělé inteligence, které pomáhají zacelit propast mezi abstraktními aspekty a příslovečnými aspekty kaučuku.

Za čtvrté, podle zde uvedeného důrazu, prozkoumáme postižený případ AI, která i když byla původně složena v rámci etických hranic, následně se při používání vine za předpokládané eticky zakódované parametry.

Musíme to rozbalit.

Velká část dnešní umělé inteligence využívá strojové učení (ML) a hluboké učení (DL). Jedná se o výpočetní techniky a technologie porovnávání vzorů. Obecně jde o to, že shromáždíte spoustu relevantních dat pro cokoliv, co má umělá inteligence umět, vložíte tato data do zvoleného výpočetního porovnávání vzorů a porovnávání vzorů se matematicky pokusí najít užitečné vzory. Všimněte si, že ze strany této umělé inteligence (která opět nic takového zatím neexistuje) neexistuje žádná sentience. Není v tom ani žádný zdravý rozum. Všechno je to matematika a výpočty.

Je možné, že data vkládaná do ML/DL jsou již naplněna předsudky a nerovnostmi. V takovém případě je pravděpodobné, že shoda výpočetních vzorů bude pouze napodobovat stejné sklony. Pokud poskytnete údaje, které upřednostňují jednu rasu před druhou nebo upřednostňují jedno pohlaví před druhým, existuje značná šance, že shoda vzorů se uchytí jako objevený vzor.

Velkým problémem tohoto typu latchingu je to, že bychom mohli mít problém zjistit, že vzory jsou založeny na tomto aspektu dat. Trnitá a složitá matematika může nacházení takto nalezených vzorů značně ztížit. Dokonce ani testování AI nemusí nutně odhalit tyto tendence v závislosti na rozsahu a hloubce testů, které jsou použity.

Předpokládejme tedy, že jste vytvořili systém umělé inteligence a udělali jste domácí úkol tím, že jste se nejprve pokusili vyhnout použití dat, která již dříve existovala zkreslení. Poté, jakmile bylo provedeno strojové učení a hluboké učení, otestovali jste výsledky, abyste zjistili, zda nějak nevznikly nějaké předsudky nebo nespravedlnosti. Předpokládejme, že nejste schopni najít žádné takové nežádoucí sklony.

Sečteno a podtrženo, nyní je dáno zelené světlo, abyste mohli začít používat AI. Lidé začnou používat AI a pravděpodobně budou předpokládat, že je to eticky správné. To si myslí i vývojáři. Společnost zabývající se AI si to myslí. Všichni jdeme pryč.

Zde je to, co se může stát.

Náznak zkreslení, který nebyl nalezen v původních datech a který nebyl zachycen během testování AI, je pravděpodobně aktivován. Možná se to stává jen zřídka. Možná věříte, že dokud je to vzácné, je všechno v pořádku. Pochybuji však, že ti, kdo jsou náchylní k uvedené zaujatosti, jsou ochotni vidět věci tímto způsobem. Troufám si tvrdit, že systém umělé inteligence a ti, kteří jej formulovali, budou čelit dopadům, ať už u soudních soudů, nebo u soudu veřejného mínění s otevřeným koncem.

Další variací je pověstná představa vzít palec a urvat míli. Tušení může být zpočátku nepatrné. Během používání AI mohla být AI navržena tak, aby se sama měnila, jak věci jdou. Tento druh „učení“ nebo „samoučení“ může být docela užitečný. Namísto toho, aby vývojáři s lidskou inteligencí museli neustále upravovat a upravovat systém AI, je AI vytvořena tak, aby to dělala sama. Žádné zpoždění, žádná drahá práce atd.

Nevýhodou tohoto praktického samočinného nastavení je, že tušení může být v rámci použití AI povýšeno na větší a větší. Zatímco zaujatost mohla být v těsném malém rohu, nyní je dán prostor pro rozšíření. Umělá inteligence nemá ani zdání, že je to „špatné“ a pouze výpočetně rozšiřuje něco, co se zdá být funkční.

Pokud vám z toho vstávají vlasy na hlavě, budete si muset sednout k další variantě.

Předpokládejme, že zkreslení neexistovalo od samého začátku a my máme všechny odůvodněné přesvědčení, že AI je zcela bez zkreslení. Buď jsme měli štěstí, nebo jsme se náhodou systematicky ujistili, že nikde v datech nejsou žádné zkreslení a žádné nevznikly prostřednictvím porovnávání výpočtových vzorů. Navzdory tomuto úlevnému povzdechu se AI může během používání přizpůsobit. Dveře Pandory se otevřou a AI se rozhodne výpočetně přitahovat ke zkreslení, které se nachází během čehokoli, co AI dělá.

Nově nalezená zaujatost je pohlcena AI a nikdo není o to moudřejší, že se to stalo. Jejda, vytvořili jsme monstrum, skutečného Frankensteina.

Jak lze tomuto vzniku zabránit nebo jej alespoň označit?

Jeden přístup, který získává na síle, spočívá v zabudování etického shromažďování do AI. Umělá inteligence je konstruována tak, aby zahrnovala prvky etické umělé inteligence. Tyto prvky pak sledují nebo monitorují zbytek AI, zatímco se AI v průběhu času přizpůsobuje. Když se zdá, že umělá inteligence překročila naprogramované etické zásady, pokusí se etická umělá inteligence provést tyto úpravy nebo upozorní vývojáře, že se něco pokazilo.

Můžete zkusit naprogramovat tuto schopnost Etické umělé inteligence a doufat, že bude převládat, dokud se AI bude používat.

Dalším poněkud kontroverzním úhlem pohledu by bylo použití strojového učení a hlubokého učení k trénování etických aspektů umělé inteligence do systému umělé inteligence.

Řekni, co?

Ano, možná neortodoxní koncept je ten, že namísto toho, aby lidský programátor přímo kódoval sadu etických zásad AI, je AI tvarována tak, aby se je místo toho pokusila „naučit“. Připomeňme, že jsem stručně poznamenal, že použití ML/DL se obvykle opírá o dodávání dat do algoritmů a probíhá porovnávání výpočetních vzorů. Otázkou za milion je, zda můžeme použít stejný mechanismus k vložení etických hodnot do systému umělé inteligence.

Předpokládám, že byste to mohli přirovnat k mé diskusi na začátku o tom, jak si lidé uvědomují etické principy, i když prosím neantropomorfizujte dnešní umělou inteligenci jako srovnatelnou s lidským myšlením (není, a toto nabádání krátce zopakuji). Umělá inteligence může být naprogramována „vrozeně“ s etickými zásadami umělé inteligence. Nebo by se umělá inteligence mohla „naučit“ etické zásady umělé inteligence. Můžete samozřejmě dělat obojí, což je něco, o čem jsem se již zmínil jinde, viz odkaz zde.

Udělejte si chvilku a zamyslete se nad zdánlivě překvapivým konceptem, že by se umělá inteligence mohla „naučit“ etice a ergo pravděpodobně dodržovat etické chování.

Tito výzkumníci používají příklad systému umělé inteligence, který zjišťuje požadovanou teplotu v domě, aby ilustroval, jak to může fungovat: „Nejprve ‚pozoroval‘ chování lidí v různých domácnostech po dobu pouhého týdne a vyvodil závěry o jejich preferencích. Poté pomocí senzoru detekujícího pohyb zjistil, zda je někdo doma. Když byl dům prázdný, inteligentní termostat vstoupil do režimu vysoké úspory energie; když byli lidé doma, termostat upravoval teplotu podle jejich preferencí. Tento termostat jednoznačně splňuje dva požadavky etického robota, i když velmi jednoduchý. Posuzuje preference lidí a vnucuje je ovládání systému vytápění a chlazení. Někdo se může ptát, co to má společného se společenskými morálními hodnotami. Tento termostat umožňuje lidem s různými hodnotami nastavení teploty, které preferují. Obyvatelé domova nemusí každý den resetovat termostat, když přicházejí a odcházejí. Tento jednoduchý etický bot také snižuje celkovou energetickou stopu komunity“ (podle článku Amitaie Etzioniho a Orena Etzioniho nazvaného „AI Assisted Ethics“ ve svazku Etika a informační technologie).

Než se pustím dále do zvratů v používání AI, která se „učí“ etickému chování, rád bych řekl něco více o stavu AI.

AI se může skládat z těchto možných stavů:

1. Necítivá obyčejná AI dneška

2. Senzitivní AI lidské kvality (tu zatím nemáme)

3. Vnímavá umělá inteligence, která je superinteligentní (rozsah za #2)

Zaměřím se na stávající stav, kterým je necítící obyčejná AI. Mnoho z toho, co jste mohli číst o Etické umělé inteligenci, se občas týká vnímající umělé inteligence, a je proto vysoce spekulativní. Říkám, že je to spekulativní, protože nikdo nemůže přišpendlit ocas osel, jaká bude vnímající AI. Ještě dále za říší vnímající umělé inteligence lidské kvality je velmi promyšlená superinteligentní AI. Existuje spousta sci-fi příběhů a pochybností o tom, jak by se tyto příchutě AI mohly rozhodnout zotročit lidstvo, nebo nás možná všechny vyhladit. Toto je známé jako existenční riziko AI. Občas je toto dilema také formulováno jako katastrofické riziko AI.

Někteří tvrdí, že bychom mohli být v pořádku, pokud si AI ponecháme na necítivé obyčejné AI, kterou máme dnes. Předpokládejme, že nemůžeme dosáhnout vnímající AI. Představte si, že bez ohledu na to, jak moc se snažíme vytvořit vnímavou AI, se nám to nedaří. Pro diskusi také předpokládejme, že vnímající AI nevzniká nějakým záhadným spontánním procesem.

Nemáme pak jistotu, že se bude používat tato umělá inteligence menšího kalibru, která je představovaným jediným možným druhem umělé inteligence?

Spíš ne.

Pravděpodobně nastanou stejné obecné problémy. Netvrdím, že AI si „myslí“ svůj způsob, jak nás chtít zničit. Ne, obyčejná necítící AI je pouze umístěna do mocenských pozic, které nás utápí v sebezničení. Například do zbraní hromadného ničení vkládáme necítící umělou inteligenci. Tyto autonomní zbraně nejsou schopny myslet. Lidé zároveň nejsou plně ve střehu. Výsledkem je, že umělá inteligence jako forma autonomní automatizace neúmyslně způsobí katastrofické výsledky, buď lidským příkazem, nebo chybou nebo chybou, implantovaným zlo, nebo samočinnými úpravami, které vedou věci dolů. ošklivá cesta atd.

Tvrdil bych, že problém etiky umělé inteligence existuje pro všechny tři uvedené stavy umělé inteligence, totiž že máme etické problémy s umělou inteligencí s necítící obyčejnou AI a s vnímavou AI, která je buď pouze na lidské úrovni, nebo rozšířená AI, která dosahuje uznávaná úroveň superinteligence.

Vzhledem k tomuto střízlivému prohlášení můžeme s jistotou diskutovat o rozsahu a obtížnosti spojených s etickými problémy na každé z příslušných úrovní umělé inteligence. Obvyklým názorem je, že etický problém umělé inteligence je méně nepřekonatelný na necítivé umělé inteligenci, tvrdší na úrovni vnímající umělé umělé inteligence a skutečný škrábanec na úrovni vnímající superinteligentní umělé inteligence.

Čím lepší je AI, tím horší je etický problém AI.

Možná je to nedotknutelný přírodní zákon.

Když se vrátíme k zaměření na dnešní umělou inteligenci, pokus o to, aby se umělá inteligence „naučila“ etickému chování prostřednictvím současného strojového učení a hlubokého učení, je plná obav a záludných problémů. Předpokládejme, že AI nedokáže získat požadované etické zásady? Jak budeme s jistotou vědět, že při tom zakolísala? Budou také jiné části systému umělé inteligence potenciálně potlačovat nasbírané etické konstrukty? Přidejte k tomu, že pokud se AI upravuje za běhu, úpravy by mohly ztenčit etické aspekty nebo je nechtěně zcela převálcovat.

Aby toho nebylo málo, „učení“ by mohlo vést k tomu, že AI přistála na skutečně neetickém chování. Zatímco jsme si mysleli, že jsme udělali správnou věc, když jsme AI pobízeli k etickému chování, ukázalo se, že AI místo toho sklouzla k porovnávání vzorů na neetických aspektech. Mluvit o střelbě do vlastní nohy, to se může stát.

Vsadil bych se, že v tomto okamžiku této diskuse si přejete nějaké další příklady ze skutečného světa, které by mohly poukázat na to, jak by se AI „učení“ etiky mohlo vztahovat na dnešní AI (jiné než chutná upoutávka z příkladu termostatu).

Jsem rád, že ses zeptal.

Existuje speciální a jistě oblíbený soubor příkladů, které jsou mému srdci blízké. Víte, jako odborník na AI včetně etických a právních důsledků jsem často žádán, abych určil realistické příklady, které předvádějí dilemata etiky AI, aby bylo možné snáze pochopit poněkud teoretickou povahu tématu. Jednou z nejvíce sugestivních oblastí, která živě prezentuje tento etický problém umělé inteligence, je příchod skutečně samořídících aut založených na umělé inteligenci. To poslouží jako praktický příklad použití nebo příklad pro rozsáhlou diskusi na dané téma.

Zde je pak pozoruhodná otázka, která stojí za zamyšlení: Osvětluje příchod skutečně samořídících aut založených na umělé inteligenci něco o tom, že umělá inteligence je schopna „učit se“ etické zásady umělé inteligence, a pokud ano, co to ukazuje?

Dovolte mi chvíli rozbalit otázku.

Za prvé, všimněte si, že ve skutečném samořídícím autě není žádný lidský řidič. Mějte na paměti, že skutečně samořídící auta jsou řízena systémem AI. Není potřeba, aby za volantem byl lidský řidič, ani neexistuje ustanovení, aby vozidlo řídil člověk. Pro mé rozsáhlé a průběžné pokrytí Autonomních vozidel (AV) a zejména samořiditelných vozů viz odkaz zde.

Rád bych dále objasnil, co je míněno, když mluvím o skutečných samořídících autech.

Porozumění úrovním samořídících automobilů

Pro objasnění platí, že skutečná samojízdná auta jsou ta, která AI řídí auto zcela sama a během řízení neexistuje žádná lidská asistence.

Tato vozidla bez řidiče jsou považována za úroveň 4 a úroveň 5 (viz mé vysvětlení na adrese odkaz zde), zatímco vůz, který vyžaduje, aby se na řízení společně podílel lidský řidič, se obvykle považuje za úroveň 2 nebo úroveň 3. Vozy, které spolu sdílejí úkol řízení, jsou popsány jako semi-autonomní a obvykle obsahují různé automatizované doplňky, které se označují jako ADAS (Advanced Driver-Assistance Systems).

Na úrovni 5 zatím není opravdové samonaváděcí auto, které ještě nevíme, jestli to bude možné dosáhnout, ani jak dlouho to bude trvat.

Mezitím se úsilí úrovně 4 postupně snaží získat určitou trakci tím, že podstupují velmi úzké a selektivní testy na veřejných komunikacích, ačkoli existuje spor o to, zda by toto testování mělo být povoleno jako takové (všichni jsme pokusnými pokusnými králíky na život a na smrt odehrávající se na našich dálnicích a vedlejších cestách, někteří tvrdí, viz moje zpravodajství na odkaz zde).

Protože poloautonomní auta vyžadují řidiče, přijetí těchto typů automobilů se nebude výrazně lišit od řízení konvenčních vozidel, takže o tomto tématu není samo o sobě nic nového (jak vidíte, uvidíte) za okamžik jsou obecně použitelné následující body).

U poloautonomních automobilů je důležité, aby veřejnost musela být upozorněna na znepokojující aspekt, který se objevuje v poslední době, a to navzdory těm lidským řidičům, kteří neustále vysílají videa, která usínají za volantem auta úrovně 2 nebo 3 , všichni se musíme vyhnout tomu, aby byli uvedeni v omyl v přesvědčení, že řidič může odvrátit jejich pozornost od úkolu řízení při řízení poloautonomního automobilu.

Jste odpovědnou stranou za řízení vozidla, bez ohledu na to, kolik automatizace může být hodeno do úrovně 2 nebo úrovně 3.

Samořídící auta a etické očkování AI

U vozidel s vlastním řízením úrovně 4 a 5 nebude do řízení zapojen lidský řidič.

Všichni cestující budou cestující.

AI řídí.

Jedním z aspektů, které je třeba okamžitě projednat, je skutečnost, že umělá inteligence zapojená do dnešních řídicích systémů umělé inteligence není vnímavá. Jinými slovy, AI je celkově kolektiv počítačového programování a algoritmů a nejspíše není schopen uvažovat stejným způsobem jako lidé.

Proč je tento dodatečný důraz na to, aby AI nebyla vnímavá?

Protože chci zdůraznit, že při diskusi o roli řídícího systému AI nepřičítám AI lidské vlastnosti. Uvědomte si, že v dnešní době existuje trvalá a nebezpečná tendence k antropomorfizaci AI. V zásadě lidé dnešní AI připisují lidskou vnímavost, a to navzdory nepopiratelné a nepopiratelné skutečnosti, že taková AI dosud neexistuje.

S tímto vysvětlením si můžete představit, že systém řízení AI nebude nativně nějak „vědět“ o aspektech řízení. Řízení a vše, co to obnáší, bude muset být naprogramováno jako součást hardwaru a softwaru samořízeného automobilu.

Pojďme se ponořit do nesčetných aspektů, které na toto téma hrají.

Zaprvé je důležité si uvědomit, že ne všechna samořídící auta s umělou inteligencí jsou stejná. Každá automobilka a technologická firma s vlastním řízením přistupuje k navrhování samořídících vozů. Jako takové je obtížné činit rozsáhlá prohlášení o tom, co budou či nebudou dělat řídicí systémy AI.

Kromě toho, kdykoli uvedou, že řídící systém AI nedělá nějakou konkrétní věc, může to později předběhnout vývojáři, kteří ve skutečnosti naprogramují počítač, aby udělal právě tuto věc. Krok za krokem se postupně zdokonalují a rozšiřují systémy řízení AI. Stávající omezení dnes již nemusí existovat v budoucí iteraci nebo verzi systému.

Věřím, že to poskytne dostatečnou litanii námitek, které jsou základem toho, o čem se chystám vyprávět.

Nyní jsme připraveni se hluboce ponořit do samořídících aut a možností etické umělé inteligence, což s sebou nese tvrzení, že umělou inteligenci dokážeme „učit“ o etickém chování sama.

Použijme jednoduchý příklad. V ulicích vašeho sousedství jezdí auto s umělou inteligencí a zdá se, že jezdí bezpečně. Zpočátku jste věnoval zvláštní pozornost pokaždé, když se vám podařilo zahlédnout samořídící auto. Autonomní vozidlo vyniklo regálem elektronických senzorů, které zahrnovaly videokamery, radarové jednotky, zařízení LIDAR a podobně. Po mnoha týdnech samořídícího auta křižujícího kolem vaší komunity si toho nyní sotva všimnete. Pokud jde o vás, je to jen další auto na již tak frekventovaných veřejných komunikacích.

Abyste si nemysleli, že je nemožné nebo nepravděpodobné seznámit se se samořiditelnými auty, často jsem psal o tom, jak si místa, která jsou v rámci zkoušek samořiditelných aut, postupně zvykla na vyšperkovaná vozidla, viz moji analýzu na odkaz zde. Mnozí z místních nakonec přešli z uchváceného civění s otevřenými ústy k tomu, že nyní vydávali expanzivní zívání nudy, aby byli svědky těch klikatých samořídících aut.

Pravděpodobně hlavním důvodem, proč by si právě teď mohli všimnout autonomních vozidel, je faktor podráždění a podráždění. Řídicí systémy AI podle knihy zajišťují, že auta dodržují všechny rychlostní limity a pravidla silničního provozu. U hektických lidských řidičů v jejich tradičních lidsky řízených autech budete občas naštvaní, když uvíznete za přísně zákony dodržujícími samořídícími auty založenými na umělé inteligenci.

To je něco, na co si možná budeme muset všichni zvyknout, ať už oprávněně nebo neprávem.

Zpět k našemu příběhu. Předpokládejme, že jednoho dne ve vašem městě jede samořídící auto a ocitne se v situaci, kdy chodec čeká, aby přešel silnici. Předpokládejme, že chodec sám o sobě nemá přednost. Člověkem řízené auto by mohlo projít kolem chodce a bylo by přitom zcela legální. Stejně tak je systém řízení AI legálně schopen projít kolem čekajícího chodce.

Rozhodnutí, zda zastavit a nechat chodce přejít přes ulici, je zcela na uvážení řidiče, bez ohledu na to, zda je lidským řidičem nebo systémem AI.

Jsem si jistý, že jste se s podobnou situací setkali nesčetněkrát. Možná spěcháte, takže se nezastavíte, abyste nechali chodce přejít. Při jiné příležitosti máte spoustu času dostat se do cíle, takže se rozhodnete zastavit a umožnit čekající osobě přejít ulici. Vaše nálada a konkrétní okolnosti určují, co se rozhodnete dělat.

Nic na tomto scénáři se nezdá neobvyklé nebo znepokojivé.

Než prozkoumám stránku věci s umělou inteligencí, možná vás bude zajímat, že tento konkrétní aspekt diskrétnosti umožňující chodci přejít ulici byl důkladně prozkoumán. Výzkumníci zjistili, že volba řidiče někdy může zjevně záviset na rasových nebo genderových předsudcích. Lidský řidič by si mohl počítat s čekajícím chodcem a rozhodnout se, že umožní osobě přejít, zdánlivě na základě vrozených předsudků řidiče. Zda si řidič vůbec uvědomuje, že tak činí, je předmětem neustálého výzkumu. Podívejte se na mé pokrytí na odkaz zde.

Připravil jsem půdu pro naše zkoumání toho, co by mohl udělat systém řízení AI na přechodu pro chodce.

Konvenční programování umělé inteligence může znamenat, že se vývojáři umělé inteligence rozhodnou vždy zastavit řídicí systém AI a nechat chodce přejít. Zdá se, že to je eticky správná nebo civilní věc. Samořídící auto se podřídí čekajícímu člověku, který chce přejít ulici.

Troufám si tvrdit, že kdybyste byli pasažérem v samořídícím autě a umělá inteligence se vždy zastavila pro všechny dobrovolně čekající chodce, mohli byste se zbláznit. Vaše rychlá cesta do obchodu s potravinami může trvat mnohokrát déle. Pamatujte také, že nemáme na mysli chodce, kteří mají oddané zákonné právo na přechod, protože tyto případy by již pravděpodobně měly AI naprogramované tak, aby to vždy umožňovalo. Zaměřujeme se pouze na diskreční okolnosti.

Toto prohlášení o tom, že vždy zastavíte, aby chodci mohli přejít ulici, má více nevýhod.

Ti, kteří vyrábějí a používají samořídící auta založená na umělé inteligenci, chtějí, aby v nich lidé jezdili. Myšlenka je taková, že tím, že budeme mít samořídící auta, bychom mohli snížit počet každoročních autonehod, které v současnosti jen ve Spojených státech způsobují ročně 40,000 2.5 úmrtí a XNUMX milionu zranění, viz moje sbírka statistik na odkaz zde. Kromě tohoto uctívaného společenského cíle automobilky a samořídící tech tvůrci doufají, že také vydělají peníze na svých výtvorech AI, přirozeně ano.

Uvádím to proto, že se lidé mohou rozhodnout, že nebudou jezdit v samořídících autech, pokud to systém AI dělá zbytečně zdržovat cesty. Každý světský člověk by usoudil, že když si místo toho vybere lidského řidiče, cesta může být rychlejší, a ergo, když si na cestu vybere auto s umělou inteligencí, může se na seznamu svých možností umístit velmi nízko. To by zase znamenalo, že bychom nedosáhli požadovaného snížení počtu autonehod a také že by výrobci potenciálně považovali své zboží za nerentabilní.

Vzhledem k této sadě argumentů můžete být svedeni k myšlence, že umělá inteligence by se nikdy neměla zastavit, když dojde k náhodnému výskytu chodce, který chce přejít ulici. Stačí naprogramovat systém řízení AI tak, aby dělal cokoli, co je přísně legální. Pokud neexistuje zákonná povinnost nechat chodce přejít, pak má smůla na čekajícího chodce. Možná by se ta osoba měla vydat na hraniční přechod, který umožňuje právní základ, aby umělá inteligence zastavila samořídící auto.

Dokážete si představit ten pokřik?

Lidé ve vašem městě nebo městě postupně zjišťují, že samořídící auta s umělou inteligencí nikdy nedovolí přejít chodci, který je podle uvážení. Ta zatracená vznětlivá AI! Je to, jako by AI ukazovala na lidi nos. Nevychovaný spratek kusu špatné automatizace. K tomu si představte, že existují zdokumentované okolnosti, kdy chodci zoufale potřebují přejít, a AI by se vůbec nezastavila.

Mezitím lidští řidiči ochotně zastavovali, aby umožnili těmto „zoufalcům“ bezpečně přejít ulici.

V důsledku tohoto rozhořčení již nejsou samořídící auta s umělou inteligencí vítána na ulicích a vedlejších kolejích vašeho místa. Povolení vydaná vedením města jsou zrušena. Dostat ty nevděčné hovada z našich silnic je hlasitý pokřik.

Dobře, zdá se, že jsme mezi skálou a tvrdým místem. Umělá inteligence by neměla vždy nechat dobrovolného chodce přejít (ne vždy zastavit). Umělá inteligence by neměla vždy bránit dobrovolnému chodci v přechodu (ne vždy přibližovat). Co dělat?

Zřejmou odpovědí by bylo naprogramovat AI, aby jednala diskrečním způsobem.

Žádám vás, abyste zvážili ADM (algoritmické rozhodování), ze kterého by to mělo sestávat. Pokusí se umělá inteligence odhalit povahu chodce a použít zjištěné vlastnosti jako základ pro rozhodnutí, zda samořídící auto zastavit nebo ne? Možná někdo starší hledá způsob, jak si vybrat. Ale je to diskriminace na základě věku? A tak dále.

Možná je systém řízení AI naprogramován tak, aby se zastavil během dne a nikdy nezastavil během noci. Logika možná spočívá v tom, že se předpokládá, že pro jezdce v samořídícím autě je bezpečnější, aby se autonomní vozidlo zastavilo ve dne, ale ne v horších večerních hodinách.

To možná zní rozumně. Část problému bude představovat očekávání chodců. Tady je to, co mám na mysli. Chodci vidí, jak samořídící auta s umělou inteligencí zastavují na dobrovolné přechody, ke kterým dochází za denního světla. Chodci nevědí, jaká kritéria AI používá k rozhodnutí zastavit. Někteří chodci předpokládají, že AI se vždy zastaví (neuvědomujíce si, že skutečným určovatelem je denní světlo versus noc). Výsledkem je, že ti chodci, kteří věří, že samořídící auto vždy zastaví, využijí šance a začnou přecházet, když se systém řízení AI vůbec nesnaží zastavit (což by se AI pravděpodobně zastavila, kdyby chodec vstupuje do ulice, i když by to mohlo být zrádné a fyzika by mohla zabránit AI v zastavení samořídícího auta, není dost času na to, aby nenarazila do zdánlivě „nezběhlého“ chodce).

Předpokládejme, že vývojáři umělé inteligence a firmy, které dávají dohromady a nasazují samořídící auta ve vašem městě, si nejsou jisti, jak v této záležitosti umělou inteligenci zrychlit.

Rozhodnou se „trénovat“ AI na datech shromážděných z celého národního prostředí. Ukázalo se, že existuje spousta městských kamer, které zachytily příjezdy a odjezdy aut v celé obci. Tato data ukazují mnoho případů chodců, kteří se snaží přejít ulici podle vlastního uvážení. Všechna data jsou vkládána do systému strojového učení a hlubokého učení, aby bylo možné odvodit to, co je v dané jurisdikci považováno za obvyklé.

Trénujeme umělou inteligenci, aby dělala to, co je třeba udělat?

Jinými slovy, pokud by dané město mělo místní kulturu spíše tendenci zastavit a nechat volně přecházet chodce, jak dokazují jednání lidských řidičů, ML/DL by se potenciálně výpočetně zvedly na tomto vzoru. AI by pak byla vycvičena, aby dělala totéž. Druhým extrémem je, že pokud se lidští řidiči jen zřídka zastaví, AI by potenciálně dostala „lekci“ z výpočetní analýzy dat. Umělá inteligence bude dělat něco podobného jako lidé.

Tvrdí se, že etické chování lidí je zachyceno v datech a že AI se chystá naplnit stejné etické zásady pomocí výpočetní analýzy. Etik by to obecně popsal jako komunitární přístup k etice. Sdílené hodnoty komunity se odrážejí v úsilí komunity jako celku.

Může se to zdát jako šikovné řešení.

Bohužel je tu spousta úskalí.

Jedním možná zřejmým problémem je, že lidští řidiči již mohou uplatňovat určitou formu předsudků, když se rozhodují zastavit nebo nezastavit (jak bylo zmíněno dříve). AI pak bude kopírovat tyto předsudky. Chceme, aby tomu tak bylo?

Zvažte jiný problém. Předpokládejme, že lidští řidiči ochotně nepřijímají, jak fungují samořídící auta s umělou inteligencí. Jen proto, že lidští řidiči byli řekněme ochotni zastavit, to se nemusí stejně předpokládat u samořídících aut. Je možné, že lidské řidiče rozčilují samořídící auta s umělou inteligencí, která neustále zastavují kvůli chodcům, i když totéž se děje rukama lidských řidičů, ale nezdá se, že by to lidské řidiče rušilo.

Kromě toho, že to bude rušivé, můžete také vykouzlit možnost, že lidští řidiči nedopatřením skončí vzadu samořídící auta. Pokud lidský řidič neočekával, že samořídící auto zastaví kvůli chodci, a pokud je člověkem řízené auto přímo za samořídícím autem, může dojít k hroznému nesouladu očekávání. AI jízdní systém zastaví samořídící auto. Lidský řidič tuto akci nepředvídal. Lidský řidič narazí do samořídícího auta. Následují zranění a možná i smrt.

Záměrně jsem poukázal na možnost lidského poškození.

Chodec přecházející ulici se může na letmý pohled zdát jako triviální otázka. Zdálo by se, že nikdo se nemůže zranit, ať už se AI rozhodne zastavit nebo nezastavit, kteroukoli metodou. Špatně! Existuje možnost přejetí chodce. Existuje možnost, že do samořídícího vozu narazí člověkem řízené auto. Řidič a spolujezdci z auta řízeného lidmi se mohou zranit. Jezdci uvnitř samořídícího vozu mohou být zraněni. Další obměny možného lidského poškození jsou snadno předvídatelné.

Proč investovat do čističky vzduchu?

Když už mluvíme o lidském ubližování, dám vám něco jiného, ​​abyste se zamysleli nad tímto hlavolamem Etické umělé inteligence.

V novinách se objevilo, že muž vjížděl autem do křižovatky a měl na to zelenou. Další člověkem řízené auto se rozhodlo jet na červenou křižovatku a nelegálně a nebezpečně vjelo nerušeně do křižovatky a hrozilo, že srazí legálně jedoucí auto.

Řidič novinářům řekl, že si musí vybrat mezi tím, zda srazí ránu, nebo může otočit své auto, aby se snad vyhnul nárazu, ale poblíž byli chodci a vybočení by mohlo tyto lidi ohrozit. Co bys dělal? Můžete se rozhodnout, že vás toto rýsující se auto srazí a možná budete žít, abyste mohli vyprávět příběh. Nebo se můžete pokusit vyhnout zásahu, ale mezitím možná srazit nevinné chodce.

Velká část našeho každodenního řízení vyžaduje eticky obrovská a okamžitá rozhodnutí. Diskutoval jsem o tom obšírně, spolu s tím, že jsem tato rozhodnutí o jízdě na život a na smrt spojoval se slavným nebo někteří říkají nechvalně známým problémem trolejbusu, viz můj rozbor na odkaz zde.

Nahraďte lidského řidiče v tomto scénáři systémem řízení AI.

Co chcete, aby AI dělala?

To je matoucí otázka.

Jedním z přístupů je naprogramovat AI tak, aby pronikavě prováděla čistě přímočarou jízdu, a tudíž ani výpočetně nezvažovala jiné možnosti, jako je odklon od pravděpodobné havárie. Očekával bych, že jezdci v samořiditelných autech budou naštvaní, když zjistí, že umělá inteligence nebyla navržena k ničemu jinému než k tomu, aby trefili. Můžete očekávat žaloby a pozdvižení.

Dalším přístupem by bylo pokusit se naprogramovat AI tak, aby zvážila různé možnosti. Komu se však podaří založit ADM, který rozhoduje, jakým směrem se bude systém řízení AI ubírat? Zdálo by se, že umožnit vývojářům umělé inteligence, aby sami činili tak závažná rozhodnutí, je plné obav.

Můžete se pokusit nechat AI „učit se“ z dat o řízení lidí shromážděných každodenními dopravními situacemi. To je podobné dilematu přechodu pro chodce a dříve navrhované myšlence použít shromážděná data k tomu, aby umělá inteligence sbírala, ať už se místní etické zvyklosti zdály být jakékoli. Existuje mnoho upozornění ohledně toho, například zda jsou objevené vzory ML/DL vhodné nebo ne atd.

Také jsem předem varoval, že existuje šance, že AI sbírá možná neetické chování, v závislosti na etických zvyklostech. Předpokládejme například, že AI nějak přistála na výpočetním vzoru, aby vždy mířila na chodce, kdykoli jiné auto hrozilo, že narazí do samořídícího auta.

Páni, dávejte si pozor na chodce, budete hotové cíle.

Nyní je čas ukončit diskusi a učinit tak povzbudivou závěrečnou myšlenkou.

Možná víte, že Isaac Asimov navrhl své „Tři zákony robotiky“ v roce 1950 a dodnes jsme těmito proklamovanými pravidly fascinováni. Ačkoli se zdá, že pravidla jsou snadno dosažitelná, jako například, že systém umělé inteligence nebo robot nesmí ublížit člověku a ani nedovolit, aby člověk ublížil, existuje mnoho zásadních nuancí, které činí toto složité a občas neudržitelné, viz moje analýza v odkaz zde.

V každém případě je zde ještě něco, čím je Asimov také známý, i když méně: „Nikdy nenechte svůj smysl pro morálku, aby vám bránil v tom, co je správné.“

U etické umělé inteligence, kterou všichni doufáme vymyslíme, musíme mít na paměti, že vložená etika umělé inteligence nemusí být taková, jakou jsme očekávali, a že umělá inteligence bude stále muset udělat vše, co je správné. Asimov to řekl dobře. Dlouho předtím se zdálo, že Aristoteles uvažoval velmi podobně.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitiously-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as- the-case-with-ai-in-autonomní-self-driving-cars/