Poučení o etice umělé inteligence a autonomních systémech získaných z nedávného letu Alaska Airlines, kde pilot a druhý pilot nesouhlasili před odletem a náhle se rozhodli pro taxi zpět do terminálu a odjeli vlastními cestami

Letecké společnosti jsou v poslední době poměrně hodně ve zprávách.

Jsme v letní tísni letů. Unavení a frustrovaní cestující se ocitají v situaci, kdy čelí nejrůznějším narušením letů a zkreslení letového řádu. Lety jsou nečekaně zrušeny. Lety mají zpoždění. Výpary cestujících. Bohužel se vyskytlo mnoho případů cestujících, kteří umožnili propuknout tyto nepokoje, a viděli jsme žalostně příliš mnoho virálních videí s přímými konfrontacemi a někdy i údery pěstí.

Vzácněji se dozvídáme o sporech mezi pilotem a kopilotem, ke kterým může dojít v kokpitu.

To je docela překvapení.

Přirozeně nás zaráží myšlenka, že pilot a druhý pilot by měli v jakékoli fázi letu sebemenší zdání vážných neshod. Pokud se neshoda týká toho, která značka kávy je nejlepší, předpokládáme, že to nebude zasahovat do pracovního úsilí spojeného s řízením letadla. Ti dva by jednoduše pokrčili rameny nad tím, že si na téma zdánlivě nesouvisející s úletem povídají z očí do očí. Jejich profesionální chování a dlouholetý pilotní výcvik by nastartovaly a oni by se soustředili zpět na letové detaily.

Zvažte však, když a odborný nesouhlas zasahuje.

Krátce se s vámi podělím o široce publikovanou novinku o nedávném případu něčeho, co se stalo během letu v USA a které se týkalo údajných profesních neshod v kokpitu.

Toto je zde především citováno, abychom mohli prozkoumat související téma, které je velmi důležité pro příchod umělé inteligence (AI). Víte, může existovat určitá forma řekněme profesionálního neshody nejen mezi lidmi v neshodách mezi lidmi, ale můžeme také zažít něco podobného uprostřed přijetí AI az toho plynoucí profesionální neshody člověk versus AI. . Objevují se nejrůznější úvahy o etice umělé inteligence. Pro mé rozsáhlé a průběžné pokrytí etiky AI a etických problémů AI viz odkaz zde a odkaz zde, jen abychom jmenovali alespoň některé.

Připravte se na fascinující příběh.

Jak se nedávno objevilo ve zprávách, případ „profesionálního neshody“ zjevně vyvstal během letu společnosti Alaska Airline, který mířil z Washingtonu do San Francisca. Podle zpráv se letadlo vzdálilo od brány a čekalo na asfaltu na povolení pojíždět a vzlétnout. Právě probíhala bouře, která vedla ke zpoždění letu o více než hodinu a půl. Ukázalo se, že letadlo se nakonec otočilo a zamířilo zpět k bráně, o níž někteří cestující mohli normálně předpokládat, že šlo pouze o bezpečnostní opatření související s bouří.

Podle různých tweetů se zdá, že pilot a druhý pilot měli během svého pobytu v kokpitu nějaký spor mimo zorný úhel a nějak došli k závěru, že nejrozumnějším přístupem by bylo vydrhnout let a vrátit se na terminál. . Tweety naznačovaly, že kapitán a první důstojník spolu zřejmě nemohou vycházet. Letecká společnost později vydala prohlášení, že situace byla nešťastná (situace nebyla explicitně uvedena nebo vysvětlena sama o sobě), dva palubní důstojníci byli vyhodnoceni vedením a uznáni za způsobilé k letu, posádky se vyměnily a let se nakonec uskutečnil. a později dosáhl San Francisca.

V jistém smyslu, pokud skutečně mezi pilotem a druhým pilotem došlo k profesní neshodě, například zda je letadlo vhodně připraveno k letu nebo zda je riziko proletu bouřkou ve vhodném bezpečnostním rozsahu, měli by se těmto cestujícím ulevit a děkuji, že se letadlo vrátilo k bráně. Lepší být v bezpečí, než litovat. Dodatečné zpoždění stojí za předpokládané snížení rizik spojených s uvažovanou drsnou nebo nepříznivou cestou létáním.

Někoho možná překvapí, že může vzniknout taková odborná neshoda.

Možná máme mylný dojem, že vše, co se děje v kokpitu, je naprosto přesné a dobře naskriptované. Všechny formy lidského uvážení byly zdánlivě vyždímány z procesu. Na základě přesných a důkladně propočítaných tabulek je let buď v pořádku pokračovat, nebo ne. Když se předpokládá, že celá stavebnice a caboodle jsou založeny na nevyvratitelném počtu faktů a čísel, nemůže existovat žádný nesouhlas.

To není úplná pravda věci. Jistě, existuje spousta protokolů a všemožných kontrol a protivah, ale to nevytlačí všechnu špetku lidského úsudku. Piloti a kopiloti stále uplatňují lidský úsudek. Naštěstí je tento lidský úsudek vybroušen léty létání. Je pravděpodobné, že pilot a druhý pilot v komerčním osobním letadle mají spoustu předchozích letových zkušeností a pohotově využívají své mnohaleté hloubkové uvažování a úsudky spojené s řízením letu.

Vzhledem k významné úloze lidského úsudku bychom mohli logicky předpokládat, že pilot a druhý pilot budou mít někdy profesní neshody. Většinu času pravděpodobně existuje velmi málo takových neshod. Pilot a druhý pilot pro každodenní lety budou pravděpodobně v převaze času dobře sladěni. Pouze v případě, že by se letový scénář mohl dostat mimo konvenční meze, bychom očekávali napjatější tření.

Pokud je mezi těmito dvěma velký rozdíl v názorech, troufl bych si říct, že chceme, aby to utrousili.

Představte si situaci, kdy pilot chce prudce pokračovat, ale druhý pilot vnímá, že rizika jsou příliš vysoká. Pouhé klanění druhého pilota pilotovi by se zdálo nežádoucí. Druhý pilot je kontrola a vyvážení toho, co by mohl pilot uvažovat. Pro ty, kteří chtějí, aby druhý pilot mlčel a jednal bezmyšlenkovitě podle toho, co pilot nařídí, to není moc ujištění. Kopilot není jen náhradní „pilot“, který vstoupí do obrazu pouze tehdy, když je pilot zcela neschopný. To je zavádějící chápání hodnoty pilota a druhého pilota v kokpitu.

To má i jiný úhel pohledu.

Vezměme si případ pilota, který nevěří, že by let měl pokračovat, a druhý pilot se mezitím snaží vstát do vzduchu. Co pak? Podle očekávané hierarchie má pilot konvenčně převládnout nad druhým pilotem. Určená role hlavního velícího dělá z pilota většího z toho, co je jinak do jisté míry rovnocenné. Normálně má pilot více času na celkový letový čas než druhý pilot, a proto se od druhého pilota hierarchicky předpokládá, že se podřídí pilotovým přáním (pokud je v rozumných mezích).

V každém případě si myslím, že se všichni shodneme na tom, že rozhodnout se nelétat je rozhodně méně riskantní volbou než rozhodnout se létat. Jakmile je letadlo ve vzduchu, úroveň rizika je enormní ve srovnání s pobytem na jakékoli běžné stabilní zemi. Obvyklý komerční let, který jednoduše odjíždí zpět k terminálu, aniž by se dostal do vzduchu, by byl docela přátelským řešením jakékoli vášnivé a prudké debaty o zahájení letu.

Zařaďme rychlost a použijme tuto odvážnou novinku k úplně jinému, ale příbuznému účelu.

Postupně mezi námi převládají autonomní systémy založené na umělé inteligenci. Někdy AI provozuje show, jak to bylo. Umělá inteligence dělá vše od A do Z a můžeme to chápat jako AI, která je plně autonomní nebo téměř tak. V jiných případech můžeme mít AI, která interaguje a do určité míry je naprogramována tak, aby se spoléhala na to, že má člověka ve smyčce.

Rád bych se soustředil na záležitost autonomního nebo poloautonomního systému založeného na umělé inteligenci, který má od začátku ve smyčce člověka. Umělá inteligence a člověk jsou záměrně spojeni a předpokládá se, že spolu pracují v tandemu. Jsou to kohorty při provádění konkrétního úkolu. Umělá inteligence sama o sobě nemá plnit úkol. AI musí interagovat s určeným člověkem ve smyčce.

Tuto charakteristiku uvádím, abych odlišil od situací, kdy je člověk ve smyčce považován za volitelný aspekt. V podstatě má AI volnou ruku. Pokud se AI rozhodne využít člověka, ať tak učiní. Neexistuje žádný požadavek, aby se AI dotkla základny s určeným člověkem nebo s ním pracovala ruku v ruce. Analýzy, které se chystám vylíčit, se k tomuto druhu rozhodně vztahují volitelný uspořádání interakce, ale to není to, na co konkrétně v této diskusi jezdím.

Dobře, takže máme nějaký úkol, na kterém budou lidé a umělá inteligence pracovat společně, neoddělitelně od sebe. V abstraktním smyslu máme člověka sedícího na jednom sedadle a systém AI sedící na druhém doprovodném sedadle. Říkám to drze, protože tuto diskusi neomezujeme například na robota, který by ve skutečnosti mohl sedět na sedadle. Metaforicky narážím na představu, že umělá inteligence se někde účastní úkolu a také člověk. Fyzicky jejich místo pobytu není pro diskusi nijak zvlášť důležité.

Možná si nejste jisti, kdy taková situace může nastat.

Snadné.

Později budu diskutovat o nástupu autonomních vozidel a samořídících aut. Na určitých úrovních autonomie by AI a člověk měli spolupracovat. AI může řídit auto a požádat člověka, aby převzal řízení. Člověk může řídit auto a aktivovat AI, aby převzala ovládání. Střídají se u řízení.

Navíc některé návrhy mají AI v podstatě aktivní po celou dobu (nebo, pokud není vypnutá), takže AI je vždy připravena. Kromě toho může AI přímo zasáhnout, dokonce i bez toho, aby se člověk zeptal, v závislosti na situaci, která se vyvíjí. Předpokládejme například, že se zdá, že člověk usnul za volantem. Protože člověk zdánlivě nemůže aktivovat AI (protože osoba spí), AI může být naprogramována tak, aby převzala ovládání od člověka.

Některé designy přivádějí AI a lidi k dvojímu řízení. AI řídí a člověk řídí. Nebo, chcete-li, člověk řídí a AI také řídí. Každý z nich řídí vozidlo. Přirovnávám to k těm speciálně upraveným autům, které jste možná používali při školení řidičů a ve vozidle byly dvě sady ovládacích prvků, jedna pro řidiče-studenta a druhá pro instruktora jízdy.

To je jen jeden příklad prostředí, ve kterém umělá inteligence a lidé mohou pracovat společně na úkolu. Existují všechny druhy možností. Jiné druhy autonomních vozidel mohou být navrženy podobně, jako jsou letadla, drony, ponorky, povrchové lodě, vlaky a tak dále. Nemusíme brát v úvahu pouze nastavení vozidla a dopravy. Představte si lékařskou oblast a operace, které společně provádí lékař a systém umělé inteligence. Seznam je nekonečný.

Skoro mám chuť odkazovat na klasicky bouřlivý vtip o člověku a AI, kteří spolu vejdou do baru. Je to docela k smíchu pro ty, kteří se zabývají AI.

Vážně, vraťme se k zaměření člověka a systému umělé inteligence, kteří spolupracují na daném úkolu. Za prvé, chci se vyhnout antropomorfizaci AI, což je něco, co budu zdůrazňovat. AI není vnímavá. Mějte to prosím na paměti.

Tady je něco k zamyšlení: Bude určený člověk ve smyčce vždy v naprosté shodě s AI ve společném týmu?

U jakéhokoli složitého úkolu by se zdálo nepravděpodobné, že by člověk a umělá inteligence byli zcela a vždy plně v záběru. Člověk může v některých případech s AI nesouhlasit. Tento předpoklad můžeme vzít až do banky.

Byl bych rád, abyste také zvážili tuto možná překvapivou možnost: Bude AI vždy v naprosté shodě s určeným člověkem ve smyčce?

Opět platí, že pro jakýkoli složitý úkol by se zdálo docela myslitelné, že AI nebude v některých případech souhlasit s lidmi. Pokud se již přikláníte k myšlence, že AI se musí vždy mýlit, zatímco lidé musí mít vždy pravdu, bylo by moudré tento ukvapený závěr přehodnotit. Představte si auto, které má člověka a AI společně řídit semi-autonomní vozidlo. Člověk míří k cihlové zdi. Proč? Nevíme, možná je ten člověk opilý nebo usnul, ale víme, že narazit do cihlové zdi není dobrý nápad, když jsou všechny ostatní stejné. Umělá inteligence může odhalit nadcházející neštěstí a pokusit se odvrátit blížící se bariéru.

Celkově vzato, budeme mít zřetelnou možnost, že AI a lidé spolu nebudou souhlasit. Jiný způsob, jak říci totéž, je, že lidé a AI navzájem nesouhlasí. Všimněte si, že nechci, aby pořadí AI-a-člověk versus člověk-a-AI naznačovalo něco o směru nebo věrohodnosti neshody.

Dva pracovníci, jeden člověk a jeden, který je AI, spolu nesouhlasí.

Mohli bychom předem prohlásit, že kdykoli dojde k neshodě mezi danou AI a daným člověkem, předem prohlásíme, že člověk převládá nad AI. Jak již bylo řečeno, můj názorný příklad o autě, které míří do cihlové zdi, nás zřejmě odrazuje od toho, že člověk bude mít vždy nutně pravdu.

Na rozdíl od toho bychom se mohli rozhodnout předem prohlásit, že kdykoli dojde k neshodě, budeme předem konstatovat, že AI má pravdu a člověk se mýlí. Ani toto není rozumně zobecňující ustanovení. Představte si auto, ve kterém má AI nějakou vestavěnou softwarovou chybu nebo chybu, a AI se snaží svést vozidlo ze silnice a do příkopu. Za předpokladu, že vše ostatní je stejné, by člověk měl být schopen překonat tuto AI řízení a zabránit vozidlu v přistání v rokli.

Pojďme si to rychle shrnout:

  • Bude člověk ve smyčce vždy v naprosté shodě s AI? Odpověď: Ne.
  • Bude AI vždy v naprosté shodě s člověkem ve smyčce? Odpověď: Ne.
  • Bude mít člověk ve smyčce vždy pravdu ve srovnání s umělou inteligencí? Odpověď: Ne nutně.
  • Bude mít AI vždy pravdu ve srovnání s člověkem ve smyčce? Odpověď: Ne nutně.

Určitě můžete nastavit AI tak, aby byla ve výchozím nastavení považována za „špatnou“ nebo slabší stranu, a proto se vždy podřídit člověku, kdykoli se objeví neshoda. Podobně můžete nastavit AI tak, aby předpokládala, že AI je považována za „správnou“, kdykoli člověk s AI nesouhlasí. Chci objasnit, že to můžeme programově udělat, pokud si to přejeme. Tvrdím však, že obecně tomu tak vždy nebude. Jistě existují situace, ve kterých předem nevíme, zda má AI „správnou“ nebo „správnou“ člověk, pokud jde o to, že se při neshodách souvisejících s daným úkolem přikloní k jednomu nebo druhému.

Přivedl jsem vás k velmi důležité a velmi komplikované otázce.

Co bychom měli dělat, když dojde k profesionální neshodě mezi člověkem ve smyčce a umělou inteligencí (nebo ekvivalentně to můžeme formulovat jako mezi umělou inteligencí a člověkem ve smyčce)?

Nesnažte se otázce uhnout.

Někdo by mohl namítnout, že se to nikdy nestane, ale jak jsem uvedl ve svém příkladu o autě, stát se to určitě může. Někdo by mohl namítnout, že člověk je zjevně nadřazený a musí být vítězem jakékoli neshody. Můj příklad auta a cihlové zdi to srazí dolů. Existují zastánci umělé inteligence, kteří mohou trvat na tom, že vítězem musí být umělá inteligence, a to kvůli zdánlivému překonání lidských emocí a svévolného myšlení těchto nahodilých lidí s nejasným myšlením. Opět můj další příklad, kdy auto míří do příkopu, toto tvrzení podkopává.

Ve skutečném světě se AI a lidé neshodnou, i když se tito dva záměrně dostanou do týmové situace, aby společně provedli úkol. Stane se to. Nemůžeme strkat hlavu do písku a předstírat, že se to nestane.

Viděli jsme, že lidé, kteří pilotovali letadlo, se zjevně neshodli. Naštěstí souhlasili s tím, že nebudou souhlasit, takže se zdá. Přivezli letadlo zpět na terminál. Našli způsob, jak se s neshodou vypořádat. Řešení jejich nesouhlasu dopadlo dobře, ve srovnání s tím, kdyby se možná pustili do pěstí v kokpitu nebo možná vyletěli do vzduchu a pokračovali mezi sebou v boji. To je žalostný scénář, který je neudržitelný a můžeme být vděční, že k němu nedošlo.

Dovolte mi, abych uvedl svůj seznam různých způsobů, jak mohou být neshody v oblasti AI a člověk ve smyčce (nebo člověk ve smyčce a AI) vyřešeny:

  • Umělá inteligence a spojenci lidé vyřeší věci (přátelsky nebo ne)
  • Člověk ve výchozím nastavení převažuje nad AI
  • AI standardně převažuje nad člověkem
  • Ve výchozím nastavení převládá některé jiné předem určené pevné rozlišení
  • Člověk třetí strany je zapojen do smyčky a jeho označení převažuje nad stranami
  • Umělá inteligence třetí strany je zapojena do smyčky a její indikace převažuje nad stranami
  • Člověk třetí strany nahrazuje stávajícího člověka, věci postupují znovu
  • Umělá inteligence třetích stran nahrazuje stávající AI, věci pokračují znovu
  • Člověk třetí strany nahrazuje stávající AI, věci pokračují znovu (nyní z člověka na člověka)
  • Umělá inteligence třetích stran nahrazuje stávajícího člověka, věci pokračují znovu (nyní AI-to-AI)
  • Ostatní

Ty jsou bohatě hodné rozbalení.

Než se pustíme do dalšího masa a brambor o divokých a vlněných úvahách, které jsou základem toho, jak se vypořádat s umělou inteligencí a lidskými neshodami, uveďme několik dalších základů na hluboce zásadní témata. Musíme se krátce ponořit do etiky umělé inteligence a zejména do příchodu strojového učení (ML) a hlubokého učení (DL).

Možná si matně uvědomujete, že jeden z nejhlasitějších hlasů dnešní doby v oblasti umělé inteligence a dokonce i mimo ni spočívá v dožadování se většího zdání etické umělé inteligence. Pojďme se podívat na to, co znamená odkazovat se na etiku AI a etické AI. Kromě toho prozkoumáme, co mám na mysli, když mluvím o strojovém učení a hlubokém učení.

Jeden konkrétní segment nebo část etiky umělé inteligence, kterému se dostává velké pozornosti médií, se skládá z umělé inteligence, která vykazuje nepatřičné předsudky a nespravedlnosti. Možná si uvědomujete, že když začala nejnovější éra umělé inteligence, došlo k obrovskému výbuchu nadšení z toho, co někteří dnes nazývají AI pro dobro. Bohužel v patách toho tryskajícího vzrušení jsme začali být svědky AI pro špatné. Například bylo odhaleno, že různé systémy rozpoznávání obličeje založené na umělé inteligenci obsahují rasové a genderové předsudky, o kterých jsem mluvil na odkaz zde.

Snahy bránit se AI pro špatné aktivně probíhají. Kromě hlučného právní ve snaze omezit provinění na uzdě existuje také podstatný tlak na přijetí etiky umělé inteligence, aby se napravila odpornost umělé inteligence. Myšlenka je taková, že bychom měli přijmout a schválit klíčové etické principy umělé inteligence pro rozvoj a nasazení umělé inteligence, abychom podkopali AI pro špatné a současně ohlašovat a propagovat preferované AI pro dobro.

Pokud jde o související představu, jsem zastáncem pokusu o použití umělé inteligence jako součásti řešení problémů s umělou inteligencí a bojování ohně ohněm tímto způsobem myšlení. Mohli bychom například začlenit komponenty Etické umělé inteligence do systému umělé inteligence, který bude monitorovat, jak zbytek umělé inteligence dělá věci, a tak potenciálně v reálném čase zachytit jakékoli diskriminační snahy, viz moje diskuze na odkaz zde. Mohli bychom mít také samostatný systém AI, který funguje jako typ monitoru etiky AI. Systém umělé inteligence slouží jako dozorce, který sleduje a zjišťuje, kdy se jiná umělá inteligence dostává do neetické propasti (viz moje analýza takových schopností na odkaz zde).

Za chvíli se s vámi podělím o některé zastřešující principy, které jsou základem etiky umělé inteligence. Takových seznamů se tu a tam pohybuje spousta. Dalo by se říci, že zatím neexistuje jediný seznam univerzální přitažlivosti a souběžnosti. To je ta nešťastná zpráva. Dobrou zprávou je, že alespoň existují snadno dostupné seznamy etiky AI a bývají velmi podobné. Celkově to naznačuje, že formou odůvodněné konvergence svého druhu nacházíme cestu k obecné shodě toho, z čeho se skládá etika umělé inteligence.

Nejprve si stručně proberme některé z celkových etických zásad umělé inteligence, abychom ilustrovali, co by mělo být životně důležitým faktorem pro každého, kdo umělou inteligenci tvoří, využívá nebo používá.

Například, jak uvádí Vatikán v Řím vyzývá k etice umělé inteligence a jak jsem se podrobně věnoval odkaz zdeToto je jejich identifikovaných šest primárních etických principů AI:

  • Transparentnost: V zásadě musí být systémy umělé inteligence vysvětlitelné
  • zařazení: Potřeby všech lidských bytostí musí být brány v úvahu, aby každý mohl mít prospěch a všem jednotlivcům mohly být nabídnuty nejlepší možné podmínky k vyjádření a rozvoji.
  • Odpovědnost: Ti, kdo navrhují a nasazují použití AI, musí postupovat zodpovědně a transparentně
  • Nestrannost: Nevytvářejte ani nejednajte podle zaujatosti, a tím si zajistěte spravedlnost a lidskou důstojnost
  • Spolehlivost: Systémy umělé inteligence musí být schopny spolehlivě fungovat
  • Zabezpečení a soukromí: Systémy umělé inteligence musí fungovat bezpečně a respektovat soukromí uživatelů.

Jak uvedlo americké ministerstvo obrany (DoD) ve svém Etické zásady pro používání umělé inteligence a jak jsem se podrobně věnoval odkaz zde, toto je jejich šest primárních etických principů AI:

  • Odpovědný: Personál ministerstva obrany bude uplatňovat přiměřenou úroveň úsudku a péče, přičemž zůstane odpovědný za vývoj, nasazení a používání schopností AI.
  • Spravedlivý: Ministerstvo podnikne promyšlené kroky k minimalizaci nezamýšleného zkreslení schopností AI.
  • sledovatelné: Schopnosti AI ministerstva budou vyvinuty a rozmístěny tak, aby příslušní pracovníci měli odpovídající znalosti o technologii, vývojových procesech a provozních metodách použitelných pro schopnosti AI, včetně transparentních a auditovatelných metodologií, zdrojů dat a návrhových postupů a dokumentace.
  • Spolehlivý: Schopnosti umělé inteligence ministerstva budou mít explicitní, dobře definovaná použití a bezpečnost, zabezpečení a účinnost těchto schopností bude předmětem testování a zajištění v rámci těchto definovaných použití během celého životního cyklu.
  • ovladatelný: Ministerstvo navrhne a zkonstruuje schopnosti umělé inteligence tak, aby plnily zamýšlené funkce, přičemž bude mít schopnost detekovat a vyhnout se nezamýšleným následkům a schopnost odpojit nebo deaktivovat nasazené systémy, které vykazují nezamýšlené chování.

Diskutoval jsem také o různých kolektivních analýzách etických principů umělé inteligence, včetně toho, že jsem se zabýval souborem navrženým výzkumníky, kteří zkoumali a zhušťovali podstatu mnoha národních a mezinárodních zásad etiky umělé inteligence v dokumentu nazvaném „The Global Landscape Of AI Ethics Guidelines“ (publikováno v Příroda), a které mé pokrytí zkoumá na odkaz zde, což vedlo k tomuto klíčovému seznamu:

  • Průhlednost
  • Spravedlnost a férovost
  • Neškodlivost
  • Odpovědnost
  • Ochrana osobních údajů
  • Dobročinnost
  • Svoboda a autonomie
  • Věřte
  • udržitelnost
  • Důstojnost
  • Solidarita

Jak můžete přímo hádat, pokusit se určit specifika, která jsou základem těchto principů, může být extrémně obtížné. Snaha přeměnit tyto široké principy v něco zcela hmatatelného a dostatečně podrobného, ​​aby to bylo možné použít při vytváření systémů umělé inteligence, je navíc tvrdým oříškem. Celkově je snadné mávnout rukou nad tím, co jsou etická pravidla AI a jak by se měly obecně dodržovat, zatímco v kódování AI je mnohem složitější situace, kdy musí být opravdová guma, která splňuje silnici.

Principy AI etiky mají využívat vývojáři AI spolu s těmi, kteří řídí úsilí o vývoj AI, a dokonce i ti, kteří nakonec nasazují a provádějí údržbu systémů AI. Všechny zúčastněné strany během celého životního cyklu vývoje a používání AI jsou posuzovány v rámci dodržování zavedených norem etické AI. To je důležitý bod, protože obvyklý předpoklad je, že „pouze kodéři“ nebo ti, kteří programují AI, podléhají etickému pojetí AI. Jak již bylo řečeno, k vymýšlení a nasazení AI je zapotřebí vesnice a celá vesnice musí být zběhlá a dodržovat etická pravidla AI.

Pojďme se také ujistit, že jsme na stejné stránce ohledně povahy dnešní umělé inteligence.

Dnes neexistuje žádná AI, která by byla vnímavá. Tohle my nemáme. Nevíme, zda bude vnímající AI možná. Nikdo nemůže výstižně předpovědět, zda dosáhneme vnímající AI, ani zda se vnímající AI nějakým zázrakem spontánně objeví ve formě výpočetní kognitivní supernovy (obvykle označované jako singularita, viz moje pokrytí na odkaz zde).

Typ AI, na který se zaměřuji, se skládá z necítivé AI, kterou máme dnes. Pokud bychom chtěli divoce spekulovat o cítící AI, tato diskuse by se mohla ubírat radikálně jiným směrem. Vnímavá AI by měla mít lidské kvality. Měli byste vzít v úvahu, že vnímající AI je kognitivní ekvivalent člověka. Navíc, protože někteří spekulují, že bychom mohli mít superinteligentní AI, je možné, že taková AI by mohla být chytřejší než lidé (pro můj průzkum superinteligentní AI jako možnosti viz. pokrytí zde).

Nechme věci více při zemi a uvažujme o dnešní výpočetní necítivé umělé inteligenci.

Uvědomte si, že dnešní umělá inteligence není schopna „myslet“ žádným způsobem na stejné úrovni jako lidské myšlení. Když komunikujete s Alexou nebo Siri, konverzační schopnosti se mohou zdát podobné lidským schopnostem, ale skutečnost je taková, že jsou výpočetní a postrádají lidské poznání. Nejnovější éra umělé inteligence široce využívá strojové učení (ML) a hluboké učení (DL), které využívají porovnávání výpočetních vzorů. To vedlo k systémům umělé inteligence, které vypadají jako lidské sklony. Mezitím dnes neexistuje žádná umělá inteligence, která by měla zdání zdravého rozumu, ani žádný z kognitivních zázraků robustního lidského myšlení.

ML/DL je forma porovnávání výpočetních vzorů. Obvyklý přístup je takový, že shromažďujete data o úloze rozhodování. Data vkládáte do počítačových modelů ML/DL. Tyto modely se snaží najít matematické vzorce. Po nalezení takových vzorů, pokud jsou nalezeny, systém umělé inteligence tyto vzory použije, když narazí na nová data. Po předložení nových dat se pro vykreslení aktuálního rozhodnutí použijí vzory založené na „starých“ nebo historických datech.

Myslím, že můžete hádat, kam to směřuje. Pokud lidé, kteří se rozhodovali podle vzoru, začlenili nežádoucí předsudky, je pravděpodobné, že data to odrážejí jemnými, ale významnými způsoby. Počítačové porovnávání vzorů Machine Learning nebo Deep Learning se jednoduše pokusí odpovídajícím způsobem matematicky napodobit data. Neexistuje žádné zdání zdravého rozumu nebo jiných vnímavých aspektů modelování vytvořeného umělou inteligencí jako takového.

Kromě toho si vývojáři AI nemusí uvědomit, co se děje. Tajemná matematika v ML/DL může ztížit odhalení nyní skrytých předsudků. Oprávněně byste doufali a očekávali, že vývojáři umělé inteligence budou testovat potenciálně pohřbené předsudky, i když je to složitější, než by se mohlo zdát. Existuje solidní šance, že i přes poměrně rozsáhlé testování, že v modelech porovnávání vzorů ML/DL budou stále zakomponovány zkreslení.

Dalo by se tak trochu použít slavné nebo nechvalně známé pořekadlo o smetí-do odpadu-ven. Jde o to, že je to spíše podobné předsudkům – in, které se zákeřně prolínají, když se předsudky ponoří do AI. Algoritmus rozhodování (ADM) umělé inteligence je axiomaticky zatížen nerovnostmi.

Špatný.

Vraťme se k našemu zaměření na neshody mezi AI a člověkem.

Již dříve jsem uvedl, že toto jsou některé ze strategií řešení neshod:

  • Umělá inteligence a spojenci lidé vyřeší věci (přátelsky nebo ne)
  • Člověk ve výchozím nastavení převažuje nad AI
  • AI standardně převažuje nad člověkem
  • Ve výchozím nastavení převládá některé jiné předem určené pevné rozlišení
  • Člověk třetí strany je zapojen do smyčky a jeho označení převažuje nad stranami
  • Umělá inteligence třetí strany je zapojena do smyčky a její indikace převažuje nad stranami
  • Člověk třetí strany nahrazuje stávajícího člověka, věci postupují znovu
  • Umělá inteligence třetích stran nahrazuje stávající AI, věci pokračují znovu
  • Člověk třetí strany nahrazuje stávající AI, věci pokračují znovu (nyní z člověka na člověka)
  • Umělá inteligence třetích stran nahrazuje stávajícího člověka, věci pokračují znovu (nyní AI-to-AI)
  • Ostatní

Je čas to rozbalit.

Nejprve si uvědomte, že o to jde profesionální neshody.

Profesionální neshoda je volně definována jako neshoda spojená s pracovním úkolem.

Například neshoda, která vznikne mezi pilotem a druhým pilotem ohledně toho, zda pokračovat v letu čelícím bouři, by mohla být přiměřeně označena jako profesionální neshoda. Naproti tomu vehementní neshoda ohledně toho, kterou značku kávy pilot obhajuje, oproti značce, kterou preferuje druhý pilot, je v tomto konkrétním kontextu snadno kategorizována jako neprofesionální neshoda.

Samozřejmě, že pokud neprofesionální neshoda přeroste v neshodu profesionální, mohl by nás nakonec zajímat neprofesionální neshoda jako předpokládaný zdroj nebo jiskra pro ten profesionální. Představte si, že se pilot a druhý pilot hořce dohadují o tom, která značka kávy je nejlepší, což se pak bohužel přelije do obav specifických pro daný let (slovní hříčka!), jako například zda vzlétnout nebo ne.

Zadruhé, musíme mít na paměti závažnost profesionálních neshod.

Možná pilot a druhý pilot nebo mírné neshody ohledně pokračování v letu. Nejsou ve sporu a pouze uvažují o výhodách a nevýhodách toho, zda vzlétnout. Toto není kalibr ani rozsah profesionálních neshod, které zde obvykle zvažujeme. Jde o to, že by se mohlo stát, že profesní neshoda je přechodná a obě strany srdečně nebo alespoň včas vypracují řešení. Obecně platí, že ohniskem profesionálních neshod v rámci rozsahu jsou ty, které jsou zdánlivě neovladatelné a obě strany zůstávají vytrvale v neshodě.

Za třetí, aby tyto pokyny mohly vstoupit do hry, obvykle musí být něco vážného.

Rozhodnutí letět nebo neletět je rozhodně rozhodnutím na život a na smrt, pokud je let ohrožen kvůli bouři nebo je letadlo považováno za ne zcela připravené na takovou cestu. Tohle je seriózní záležitost. Stále můžeme použít pokyny na méně významné profesní neshody, i když to může být více obtěžující, než by to stálo za to.

Dobře, naše úvahy jsou následující:

  • Neshoda je zásadně profesně zaměřena spíše než kvůli něčemu neprofesionálnímu
  • Neshoda je trvalé povahy a není pouze přechodná nebo jinak snadno řešitelná
  • Neshoda předpovídá vážné důsledky a má obvykle dopad
  • Strany jsou ve sporu a zdají se být neovladatelné

Pojďme se nyní blíže podívat na každý z mých navrhovaných pokynů nebo přístupů týkajících se toho, jak se vyrovnat s takovými profesními neshodami.

Umělá inteligence a spojenci lidé vyřeší věci (přátelsky nebo ne)

Začnu seznam s přímou možností, že AI a člověk ve smyčce jsou schopni vyřešit profesionální neshody mezi sebou. Zdá se, že případ dvou lidí, pilota a druhého pilota, možná ilustruje tento druh okolností. Nějak se rozhodli vrátit se k terminálu a jít každý svou cestou. Je možné, že systém umělé inteligence a člověk jsou schopni vymyslet řešení, které je obecně uspokojivé pro obě strany, a věc je tak uspokojivě uzavřena.

Člověk ve výchozím nastavení převažuje nad AI

Při nastavování AI bychom mohli naprogramovat pravidlo, které říká, že člověk ve smyčce bude mít vždy přednost, kdykoli dojde k profesionální neshodě. Toto by bylo explicitně zakódované výchozí nastavení. Můžeme také povolit nějakou formu potlačení, pro každý případ, i když platí pravidlo, že člověk má přednost.

AI standardně převažuje nad člověkem

Při nastavování umělé inteligence bychom mohli naprogramovat pravidlo, které říká, že umělá inteligence bude mít vždy přednost před člověkem ve smyčce, kdykoli dojde k profesionální neshodě. Toto je explicitně kódované výchozí nastavení. Můžeme také povolit nějakou formu potlačení, pro každý případ, i když platí pravidlo, že AI převládá.

Ve výchozím nastavení převládá některé jiné předem určené pevné rozlišení

Při nastavování AI bychom mohli naprogramovat pravidlo, které říká, že nějaké jiné předem určené pevné rozlišení převládne, kdykoli se objeví profesionální neshoda s člověkem ve smyčce. Human-in-the-loop standardně nepřevládá. AI ve výchozím nastavení nepřevládá. Existuje další předem určené usnesení. Možná je tu například hod mincí, která bude použita k rozhodnutí, která z obou stran je považována za správnou cestu. To by se zjevně zdálo poněkud svévolné; dalším příkladem přístupu by tedy bylo, že se spustí specializované pravidlo, které vypočítá hodnotu na základě vstupů od dvou stran a dospěje k výsledku jako nerozhodný výsledek.

Člověk třetí strany je zapojen do smyčky a jeho označení převažuje nad stranami

V případě profesionální neshody může být pravidlem, že je přivolána třetí strana, která je člověkem, a zavolá se do prostředí, aby rozhodla o vyřešení neshody. Umělá inteligence je naprogramována tak, aby se podřídila čemukoli, co se člověk třetí strany rozhodne. Člověk, který je již ve smyčce, byl předem instruován, že pokud taková situace nastane, musí se také podřídit člověku třetí strany. Kromě toho můžete pravděpodobně předpokládat, že člověk ve smyčce může mít úzkost z toho, že přistoupí na cokoliv, o čem se člověk třetí strany rozhodne, pokud rozhodnutí nesouhlasí s postojem člověka ve smyčce.

Umělá inteligence třetí strany je zapojena do smyčky a její indikace převažuje nad stranami

V případě profesionální neshody může být pravidlem, že je zavolána třetí strana, která je jiným systémem umělé inteligence, a zavolá se do prostředí, aby učinila rozhodnutí o vyřešení neshody. Původní umělá inteligence je naprogramována tak, aby se podřídila čemukoli, co rozhodne umělá inteligence třetí strany. Člověk, který se již nachází ve smyčce, byl předem instruován, že pokud taková situace nastane, musí se také podřídit AI třetí strany. Kromě toho můžete pravděpodobně předpokládat, že člověk ve smyčce může mít úzkost z toho, že přistoupí na cokoliv, o čem se AI třetí strany rozhodne, pokud rozhodnutí nesouhlasí s postojem člověka ve smyčce.

Člověk třetí strany nahrazuje stávajícího člověka, věci postupují znovu

Na základě odborné neshody je člověk-in-the-loop nahrazen třetí stranou, která je člověkem a která se od nynějška stává člověkem-in-the-loop. Člověk, který byl původním člověkem ve smyčce pro daný úkol, již není považován za součást daného úkolu. Je to otevřený aspekt toho, co se jinak děje s nyní nahrazenými lidmi ve smyčce, ale říkáme, že s jistotou již nemají žádnou trvalou roli v pracovním úkolu.

Umělá inteligence třetích stran nahrazuje stávající AI, věci pokračují znovu

Na základě odborné neshody je AI nahrazena AI třetí strany, která se od nynějška stává AI používanou pro daný pracovní úkol. Umělá inteligence, která byla pro úkol původně používána, již není považována za součást daného úkolu. Je to otevřený aspekt toho, co se jinak děje s nyní nahrazenou umělou inteligencí, ale říkáme, že s jistotou AI již nehraje žádnou trvalou roli v pracovním úkolu.

Člověk třetí strany nahrazuje stávající AI, věci pokračují znovu (nyní z člověka na člověka)

Na základě odborné nesouhlasu je umělá inteligence nahrazena člověkem třetí strany, pro kterého se tato osoba nyní stává považovánou stranou ve společném týmu, která bude použita pro daný pracovní úkol. Umělá inteligence, která byla pro úkol původně používána, již není považována za součást daného úkolu. Je to otevřený aspekt toho, co se jinak děje s nyní nahrazenou umělou inteligencí, ale říkáme, že s jistotou AI již nehraje žádnou trvalou roli v pracovním úkolu. Stručně řečeno, nyní se z toho stává úkol prováděný dvěma stranami mezi lidmi.

Umělá inteligence třetích stran nahrazuje stávajícího člověka, věci pokračují znovu (nyní AI-to-AI)

Na základě odborné nesouhlasu je člověk ve smyčce nahrazen umělou inteligencí třetí strany a tato umělá inteligence se od nynějška stává doplňkem předchozího člověka ve smyčce. Člověk, který byl původním člověkem ve smyčce pro daný úkol, již není považován za součást daného úkolu. Je to otevřený aspekt toho, co se jinak děje s nyní nahrazenými lidmi ve smyčce, ale říkáme, že s jistotou již nemají žádnou trvalou roli v pracovním úkolu. Stručně řečeno, toto se nyní stává dvoustrannou AI-to-AI, která bude plnit tento úkol.

Ostatní

Lze vymyslet i jiné varianty, aby se vyrovnaly s profesionálními neshodami, ale my jsme zde popsali některé základní kameny.

Jak se máme rozhodnout, který z těchto přístupů bude pro danou situaci ten správný?

Do takové volby vstupuje celá řada problémů. Existují technologické úvahy. Existují obchodní úvahy. Existují právní a etické úvahy.

To je do určité míry důvod, proč je etika a etická umělá inteligence tak zásadním tématem. Předpisy etiky AI nás nutí zůstat ostražití. Technologové umělé inteligence mohou být občas zaneprázdněni technologií, zejména optimalizací špičkových technologií. Nezbytně nezvažují větší společenské důsledky. Mít etiku AI a dělat to nedílně pro vývoj a nasazení AI je životně důležité pro vytváření vhodné AI, včetně (možná překvapivě nebo ironicky) posouzení toho, jak firmy přijímají etiku AI.

Kromě toho, že obecně používáme etické zásady AI, existuje odpovídající otázka, zda bychom měli mít zákony, které by řídily různá použití AI. Na federální, státní a místní úrovni se šíří nové zákony, které se týkají rozsahu a povahy toho, jak by měla být umělá inteligence navržena. Snaha navrhnout a přijmout takové zákony je postupná. Etika umělé inteligence slouží přinejmenším jako zvažovaná překážka a téměř jistě bude do určité míry přímo začleněna do těchto nových zákonů.

Uvědomte si, že někteří neústupně tvrdí, že nepotřebujeme nové zákony, které pokrývají AI, a že naše stávající zákony jsou dostatečné. Ve skutečnosti varují, že pokud uzákoníme některé z těchto zákonů AI, zabijeme zlatou husu tím, že potlačíme pokroky v AI, které nabízejí obrovské společenské výhody.

Vsadil bych se, že v tomto okamžiku této závažné diskuse si přejete nějaké ilustrativní příklady, které by toto téma mohly předvést. Existuje speciální a jistě oblíbený soubor příkladů, které jsou mému srdci blízké. Víte, jako odborník na AI včetně etických a právních důsledků jsem často žádán, abych určil realistické příklady, které předvádějí dilemata etiky AI, aby bylo možné snáze pochopit poněkud teoretickou povahu tématu. Jednou z nejvíce sugestivních oblastí, která živě prezentuje tento etický problém umělé inteligence, je příchod skutečně samořídících vozů založených na umělé inteligenci. To poslouží jako praktický příklad použití nebo příklad pro rozsáhlou diskusi na dané téma.

Zde je pak pozoruhodná otázka, která stojí za zamyšlení: Osvětluje příchod skutečně samořídících aut založených na umělé inteligenci něco o řešení neshod mezi umělou inteligencí a lidmi, a pokud ano, co to ukazuje?

Dovolte mi chvíli rozbalit otázku.

Za prvé, všimněte si, že ve skutečném samořídícím autě není žádný lidský řidič. Mějte na paměti, že skutečně samořídící auta jsou řízena systémem AI. Není potřeba, aby za volantem byl lidský řidič, ani neexistuje ustanovení, aby vozidlo řídil člověk. Pro mé rozsáhlé a průběžné pokrytí Autonomních vozidel (AV) a zejména samořiditelných vozů viz odkaz zde.

Rád bych dále objasnil, co je míněno, když mluvím o skutečných samořídících autech.

Porozumění úrovním samořídících automobilů

Pro upřesnění, skutečná samořídící auta jsou ta, kde AI řídí auto zcela samo a při řízení není žádná lidská pomoc.

Tato vozidla bez řidiče jsou považována za úroveň 4 a úroveň 5 (viz mé vysvětlení na adrese odkaz zde), zatímco vůz, který vyžaduje, aby se na řízení společně podílel lidský řidič, se obvykle považuje za úroveň 2 nebo úroveň 3. Vozy, které spolu sdílejí úkol řízení, jsou popsány jako semi-autonomní a obvykle obsahují různé automatizované doplňky, které se označují jako ADAS (Advanced Driver-Assistance Systems).

Na úrovni 5 ještě není skutečné auto s vlastním řízením a ještě ani nevíme, zda toho bude možné dosáhnout, ani jak dlouho bude trvat, než se tam dostaneme.

Mezitím se úsilí úrovně 4 postupně snaží získat určitou trakci tím, že podstupují velmi úzké a selektivní testy na veřejných komunikacích, ačkoli existuje spor o to, zda by toto testování mělo být povoleno jako takové (všichni jsme pokusnými pokusnými králíky na život a na smrt odehrávající se na našich dálnicích a vedlejších cestách, někteří tvrdí, viz moje zpravodajství na odkaz zde).

Protože poloautonomní auta vyžadují řidiče, přijetí těchto typů automobilů se nebude výrazně lišit od řízení konvenčních vozidel, takže o tomto tématu není samo o sobě nic nového (jak vidíte, uvidíte) za okamžik jsou obecně použitelné následující body).

U poloautonomních automobilů je důležité, aby veřejnost musela být upozorněna na znepokojující aspekt, který se objevuje v poslední době, a to navzdory těm lidským řidičům, kteří neustále vysílají videa, která usínají za volantem auta úrovně 2 nebo 3 , všichni se musíme vyhnout tomu, aby byli uvedeni v omyl v přesvědčení, že řidič může odvrátit jejich pozornost od úkolu řízení při řízení poloautonomního automobilu.

Jste odpovědnou stranou za řízení vozidla, bez ohledu na to, kolik automatizace může být hodeno do úrovně 2 nebo úrovně 3.

Samořídící auta A AI-Versus-Lidský nesouhlas

U vozidel s vlastním řízením úrovně 4 a 5 nebude do řízení zapojen lidský řidič.

Všichni cestující budou cestující.

AI řídí.

Jedním z aspektů, které je třeba okamžitě projednat, je skutečnost, že umělá inteligence zapojená do dnešních řídicích systémů umělé inteligence není vnímavá. Jinými slovy, AI je celkově kolektiv počítačového programování a algoritmů a nejspíše není schopen uvažovat stejným způsobem jako lidé.

Proč je tento dodatečný důraz na to, aby AI nebyla vnímavá?

Protože chci zdůraznit, že při diskusi o roli řídícího systému AI nepřičítám AI lidské vlastnosti. Uvědomte si, že v dnešní době existuje trvalá a nebezpečná tendence k antropomorfizaci AI. V zásadě lidé dnešní AI připisují lidskou vnímavost, a to navzdory nepopiratelné a nepopiratelné skutečnosti, že taková AI dosud neexistuje.

S tímto vysvětlením si můžete představit, že systém řízení AI nebude nativně nějak „vědět“ o aspektech řízení. Řízení a vše, co to obnáší, bude muset být naprogramováno jako součást hardwaru a softwaru samořízeného automobilu.

Pojďme se ponořit do nesčetných aspektů, které na toto téma hrají.

Zaprvé je důležité si uvědomit, že ne všechna samořídící auta s umělou inteligencí jsou stejná. Každá automobilka a technologická firma s vlastním řízením přistupuje k navrhování samořídících vozů. Jako takové je obtížné činit rozsáhlá prohlášení o tom, co budou či nebudou dělat řídicí systémy AI.

Kromě toho, kdykoli uvedou, že řídící systém AI nedělá nějakou konkrétní věc, může to později předběhnout vývojáři, kteří ve skutečnosti naprogramují počítač, aby udělal právě tuto věc. Krok za krokem se postupně zdokonalují a rozšiřují systémy řízení AI. Stávající omezení dnes již nemusí existovat v budoucí iteraci nebo verzi systému.

Doufám, že to poskytuje dostatečnou litanii upozornění, která podpoří to, co se chystám vylíčit.

U plně autonomních vozidel nemusí existovat žádná šance na profesionální neshodu mezi člověkem a AI kvůli možnosti, že pro začátek neexistuje žádný člověk ve smyčce. Snahou mnoha dnešních výrobců aut s vlastním řízením je zcela odstranit lidského řidiče z úkolu řízení. Vozidlo nebude obsahovat ani člověku dostupné ovládací prvky řízení. V takovém případě se lidský řidič, pokud je přítomen, nebude moci zúčastnit řízení, protože nemá přístup k žádným ovládacím prvkům řízení.

U některých plně autonomních vozidel některé konstrukce stále umožňují, aby byl člověk ve smyčce, ačkoli člověk nemusí být k dispozici nebo se vůbec nemusí účastnit řízení. Člověk se tedy může zúčastnit řízení, pokud si to přeje. Umělá inteligence však v žádném okamžiku nespoléhá na člověka, aby vykonával jakýkoli z úkolů řízení.

V případě semi-autonomních vozidel existuje vzájemný vztah mezi lidským řidičem a AI. Lidský řidič může zcela převzít řízení řízení a v podstatě zabránit AI v účasti na řízení. Pokud si lidský řidič přeje vrátit AI do role řidiče, může to udělat, i když to pak někdy donutí člověka vzdát se řízení.

Jiná forma semi-autonomního provozu by vyžadovala, aby lidský řidič a AI spolupracovali týmovým způsobem. AI řídí a člověk řídí. Jedou spolu. AI se může podřídit člověku. Člověk by se mohl podřídit AI.

V určitém okamžiku mohou řídicí systém AI a lidský řidič ve smyčce dosáhnout bodu „odborné neshody“, pokud jde o daný úkol řízení.

Chcete-li ilustrovat, jak může být náročné implementovat některá z výše uvedených pravidel pro řešení profesních neshod, zvažte případ, kdy se do věci vloží osoba třetí strany a nabídne rozhodnutí k vyřešení nevyřešeného problému.

Předpokládejme, že automobilka nebo technologická firma s vlastním řízením zařídila, aby vzdálení lidští operátoři měli přístup k ovládacím prvkům vozidel v rámci jejich vozového parku. Lidský operátor sedí v nějaké vzdálené kanceláři nebo podobném prostředí. Prostřednictvím počítačového systému mohou sledovat scénu řízení prostřednictvím přístupu ke kamerám a dalším senzorovým zařízením naloženým na samořídícím voze. Pro ně je to skoro jako hraní online videohry, i když okolnosti skutečného života mají samozřejmě potenciálně strašlivé následky.

Systém umělé inteligence a lidský řidič v autě řídí semi-autonomní vozidlo po dlouhé dálnici. Najednou chce AI zamířit do příkopu. Lidský řidič to nechce udělat. Ti dva se přetahují o ovládání řízení.

Jak se to vyřeší?

Možná jsme mohli předem zavést, že člověk vždy vítězí. Předpokládejme však, že jsme se rozhodli to neudělat.

Mohli jsme předem zavést, že AI vždy vyhraje. Předpokládejme, že jsme se rozhodli to neudělat. Celkově vzato jsme žádné z těchto pravidel nepřijali, kromě toho, že jsme se rozhodli umožnit třetí osobě zasáhnout a vyřešit profesionální neshody jakékoli věcné povahy.

V tomto případě bojují AI a lidský řidič za volantem o ovládání řízení. To je řekněme předáno vzdálenému lidskému operátorovi (našemu člověku třetí strany). Vzdálený lidský operátor prozkoumá, co se děje, a rozhodne se odklonit od příkopu, čímž zdánlivě odvrátit to, o co se AI snažila. Ve stejnou dobu předpokládejme, že vzdálený lidský operátor řídí protijedoucí provoz, což možná ani AI, ani lidský řidič v autě nechtěli udělat.

Jde o to, že způsob, jakým bylo toto pravidlo implementováno, spočívá v tom, že lidský operátor třetí strany je schopen zcela potlačit AI i člověka ve smyčce. Zda to povede k dobrému výsledku, jistě není jisté.

Použiji tento příklad ke zvýraznění některých přidaných poznatků o těchto záležitostech.

Nemůžete vyslovit drzý předpoklad, že jen proto, že se zavede jedno z těchto pravidel, je výsledek vyřešené neshody nutně zaručeně dobrým výsledkem. Možná ne. Neexistuje žádné pevné pravidlo, které by bylo vždy správné.

Dále, některá z těchto pravidel nemusí být realizovatelná.

Vezměme si příklad vzdáleného lidského operátora zasahujícího, když se AI a lidský řidič rvou o ovládací prvky. Vzdálenému lidskému operátorovi může trvat mnoho sekund, než zjistí, co se děje. V té době už mohlo vozidlo skončit v příkopu nebo mělo jiný nepříznivý výsledek. Předpokládejme také, že poloha vozidla znemožňuje vzdálený přístup, například umístění na nějakém místě, kde není žádné síťové elektronické připojení. Nebo možná, že síťové funkce vozidla v danou chvíli nefungují.

Jak vidíte, na papíře může pravidlo vypadat šmrncovně, i když uvedení pravidla do skutečného použití může být velmi obtížný nebo vysoce náhodný přístup. Podívejte se na můj kritický pohled na vzdáleném operátorovi autonomních vozidel a samořídících vozů na odkaz zde.

Rád bych stručně pokryl další související téma, kterému se budu podrobněji věnovat v nadcházející analýze.

Jednou z rostoucích obav o autonomní vozidla a samořídící auta, která jsou poloautonomní, je tzv. Syndrom horkých brambor.

Tady je dohoda.

Systém řízení AI a člověk spolu řídí. Nastává hrozná situace. Umělá inteligence byla naprogramována tak, aby opustila úkol řízení a předala věci člověku, když nastane hrozný okamžik. Zdá se to možná „rozumné“, protože se zdá, že se v jakékoli potenciální profesní neshodě dovoláváme pravidla o lidské bytosti jako výchozího „vítěze“.

Ale vyřazení umělé inteligence může být pro hanebnější nebo považováno za zákeřné účely. Může se stát, že automobilka nebo technologická firma s vlastním řízením nechce, aby jejich umělá inteligence byla považována za „vinu strany“, když dojde k autonehodě. Aby se zdánlivě vyhnula takovému uvěznění, AI náhle předá ovládání člověku. Voila, člověk je nyní pravděpodobně zcela zodpovědný za vozidlo.

Hlavní je, že předpokládejme, že AI provede toto předání s dejme tomu jednou sekundou do konce, než dojde k havárii.

Měl by člověk skutečně nějaký dostupný čas na odvrácení havárie?

Pravděpodobně ne.

Předpokládejme, že AI provede předání s několika milisekundami nebo nanosekundami do konce. Troufám si tvrdit, že člověk má v podstatě nulovou šanci udělat cokoli, aby havárii odvrátil.

Z pohledu automobilky nebo automobilky s vlastním řízením se mohou při takové autonehodě snažit chovat, jako by měli čisté ruce. Auto řídil člověk. AI auto neřídila. Zdá se, že jediným „logickým“ závěrem je, že na vině musí být člověk a AI musí být zcela bez viny.

Je to pecka.

Podrobněji se tomu budu věnovat v nadcházejícím sloupku.

Proč investovat do čističky vzduchu?

Dojde k odborným neshodám.

Je těžké si představit jakýkoli složitý úkol, na kterém by se podílely dvě strany a u kterého by nikdy nevznikly žádné profesní neshody. Vypadá to jako fantasy země nebo přinejmenším velká rarita.

Dnes máme spousty a spousty případů profesionálních neshod mezi lidmi, pro které se každý den pokojně a rozumně řeší tak či onak. Ve skutečnosti často nastavujeme situace záměrně, abychom podpořili a odhalili profesionální neshody. Možná namítnete, že to ukazuje slavnou moudrost, že někdy jsou dvě hlavy lepší než jedna.

S tím, jak bude umělá inteligence převládat, budeme mít spoustu dvoustranných pracovníků provádějících úkoly AI pro člověka nebo člověka s AI a bude profesní neshody k tomu dojde. Líným přístupem je vždy se podřídit člověku. Tento přístup nemusí být nejvhodnější. AI by mohla být lepší volba. Nebo jedno z dalších výše uvedených pravidel může být rozumnějším přístupem.

Často se opakuje věta mudrců, že bychom měli být obecně schopni souhlasit s nesouhlasem, i když když dojde na drát, někdy musí být nesouhlas jednoznačně vyřešen, jinak daná záležitost povede k nevýslovné pohromě. Nemůžeme nechat nesouhlas jen tak uvadnout na révě. Čas může být důležitý a životy mohou být v sázce.

Existuje jasný požadavek na určité obezřetné prostředky k vyřešení neshod, i když ne nutně uspokojivě, včetně případů, kdy AI a člověk ve smyčce nevidí z očí do očí ani bajt do bajtu.

Věřím, že s tímto celkem příjemným tvrzením nebudete nesouhlasit.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- pilot-a-kopilot-nesouhlasili-před-vzletem-a-nenáhle-zvolili-taxi-zpět-na-terminál-a-jeli-jimi-oddělenými-cestami/