Etika umělé inteligence se rozčiluje nad syndromem rostoucích horkých brambor, který používají tvůrci umělé inteligence, kteří se zdánlivě snaží vyhnout odpovědnosti za své autonomní systémy, které rozhodují o životě

Všichni víme, že se máte postarat o to, abyste neskončili s pověstnou horkou bramborou.

Zdá se, že gambit s horkými bramborami má své kořeny přinejmenším na konci 1800. století, kdy se do hry dostaly společenské hry se zapálenými svíčkami. Lidé by obvykle seděli v řadě dřevěných židlí, které byly relativně vedle sebe, a hráli v té době naprosto vzrušující hru. Hráči si předávali zapálenou svíčku od člověka k člověku a představovala to, co jsme se později rozhodli označit jako předání horká brambora.

Bylo zvykem, že každý musel promluvit nahlas lidovou říkanku, než mohl projít kolem postupně hořící svíčky. Rým zněl zřejmě takto:

„Jack je naživu a pravděpodobně bude žít;

Jestli ti zemře v ruce, máš co dát."

Tento rýmovaný recitál by pravděpodobně umožnil svíčce trochu času, aby pokračovala v dohořívání směrem ke konečnému závěru. Kdo uvízl se svíčkou ve svém držení při přirozeném zhasnutí na konci, byl ten, kdo prohrál zápas (slovní hříčka!).

Podle slov naznačených v rýmu musel poražený zaplatit „propadnutí“, a tak musel obvykle opustit všechna další kola hry. To by pak mohlo být kombinováno s tím, co dnes považujeme za každodenní hudební židle, takže osoba, která prohrála kolo, by se již neúčastnila následujících kol (jako by se hudba zastavila a oni nebyli schopni získat volné místo). Nakonec by zůstali jen dva lidé, kteří by prošli kolem zapálené svíčky a řekli říkanku, dokud nebyl v konečném uhašení určen konečný vítěz.

Možná se divíte, proč už tuto hru nehrajeme se zapálenou svíčkou a proč to místo toho obvykle označujeme jako horký brambor, spíše než jako schéma „zapálené svíčky“. Vědci přišli se spoustou teorií o tom, jak se to postupně stalo. Historie se zdá zatažená a nerozhodná o tom, jak se věci v této věci vyvíjely. Předpokládám, že se nám může ulevit, že zapálené svíčky se takto běžně nepoužívají, protože šance, že se něco hmatatelně pokazí, by se zdála být velmi znepokojivá (někomu svíčku upustí a zapálí, nebo se někdo o svíčku popálí, když ji dostane do ruky od jiného hráče atd.).

Pokud jde o horký brambor jako potenciální náhradu za zapálenou svíčku, můžete obecně namítnout, že brambory budou celkově o něco bezpečnější. Žádný otevřený plamen. Žádný tavící vosk. Potenciální základ pro použití brambor v této souvislosti spočívá v tom, že je známo, že po ohřátí snadno udrží teplo. Brambory můžete projít kolem a zůstanou ještě chvíli horké. Jeden předpokládá, že rozhodování, kdy horký brambor již není horký a místo toho je hodnocen jako studený, by bylo velmi diskutabilní.

Samozřejmě, že pojem pověstný horký brambor je v dnešní době spíše samostatnou úvahou. Cokoli, co je hodnoceno nebo hodnoceno jako horký brambor, má obvykle kvalitu, která se vážně zbaví. Nechcete držet horký brambor. Chcete se ujistit, že to půjde někde jinde. Do určité míry vás možná příliš netrápí, kam to jde, prostě to, že už to není ve vašem držení.

Připadalo by vám dost bezcitné, kdybyste potenciálně podal horký brambor drahému příteli nebo podobnému známému. To by se zdálo úplně mimo. Možná najděte někoho jiného nebo někde jinde, kde byste dali ten horký brambor, pokud to můžete udělat. Zoufalým krokem by mohlo být vnutit horký brambor vlídnému kolegovi, ale to se, doufejme, dělá jen jako poslední možnost.

Druhou stranou této mince je, že byste mohli mít radost z podání horkého bramboru někomu, koho nemáte rádi nebo komu se chcete pomstít. Jistě, horký brambor může být téměř skvěle užitečný, pokud se snažíte podříznout osobu, která se k vám chovala špatně. Nechte je přijít na to, co dělat s horkým bramborem. Zbavte se brambory a neštěstí pro toho, s kým jste ji označili.

Ve scénáři horkého bramboru, který zahrnuje pouze dva lidi, existuje možnost rychlého sporu tam a zpět o to, která osoba drží nechutný a nevítaný předmět. Například já vám předám horký brambor a vy mi ho spěšně vrátíte. Za předpokladu, že mezi každým předáním nemusíme oznamovat dětskou říkanku, můžeme v podstatě jen projít kolem brambor tak rychle, jak nám to naše paže dovolí.

Možná vás zajímá, proč jsem se rozhodl hlouběji ponořit do uctívaného a často zmiňovaného horkého bramboru.

Zde je důvod.

Ukázalo se, že maska ​​horkých brambor se stále více používá v oblasti umělé inteligence (AI).

Většina lidí o tom nic neví. Nikdy o tom neslyšeli. Vůbec si neuvědomují, co to je. Dokonce ani mnoho vývojářů umělé inteligence si toho není vědomo. Nicméně existuje a zdá se, že se používá ve skutečně sporných situacích, zejména v případech zahrnujících okolnosti života nebo smrti.

Nazývám to jako AI Syndrom horkých brambor.

Základem tohoto syndromu je mnoho vážných dopadů a my se musíme ujistit, že jsme si nasadili etiku AI a zvážili, co bychom měli udělat. Existují střízlivé etické úvahy. Určitě to budou mít také významné právní důsledky (které ještě nedosáhly společenské viditelnosti, i když předpokládám, že brzy budou). Pro mé průběžné a rozsáhlé pokrytí etiky AI, etické AI a právních problémů AI viz odkaz zde a odkaz zde, Abychom jmenovali jen několik.

Pojďme rozbalit AI syndrom horkých brambor.

Představte si systém umělé inteligence, který pracuje společně s člověkem. Umělá inteligence a člověk předávají kontrolu nad nějakou probíhající aktivitou, takže někdy je ovládá člověk, zatímco jindy má kontrolu AI. To by mohlo být nejprve provedeno řekněme dobře vychovaným nebo rozumným způsobem. Z různých důvodů, kterým se za chvíli dostaneme, může AI výpočetně zjistit, že řízení musí být urychleně předáno člověku.

To je horká brambora která spíše ohrožuje život v reálném světě, než aby sloužila pouze jako poučná dětská hra.

Problém s uspěchaným předáváním kontroly z AI na člověka je v tom, že to může být provedeno rozumným způsobem nebo může být dosaženo poněkud nerozumným způsobem. Pokud člověk předání nijak zvlášť neočekává, je to pravděpodobně problém. Pokud je člověk obecně v pořádku s předáním kontroly, okolnosti, které jsou základem předání, mohou být skličující, když člověk nemá dostatek času nebo si neuvědomuje, proč je kontrola nuceně vkládána do jeho lidských rukou.

Prozkoumáme příklady toho, jak to může způsobit nebezpečí života nebo smrti pro člověka a možná i další blízké lidi. Je to vážná věc. Tečka, tečka.

Než se dostaneme k dalším masitým aspektům divočiny a vlněným úvahám, které jsou základem AI syndrom horkých brambor, pojďme položit některé další základy na hluboce zásadní témata. Musíme se krátce ponořit do etiky umělé inteligence a zejména do příchodu strojového učení (ML) a hlubokého učení (DL).

Možná si matně uvědomujete, že jeden z nejhlasitějších hlasů dnešní doby v oblasti umělé inteligence a dokonce i mimo ni spočívá v dožadování se většího zdání etické umělé inteligence. Pojďme se podívat na to, co znamená odkazovat se na etiku AI a etické AI. Kromě toho prozkoumáme, co mám na mysli, když mluvím o strojovém učení a hlubokém učení.

Jeden konkrétní segment nebo část etiky umělé inteligence, kterému se dostává velké pozornosti médií, se skládá z umělé inteligence, která vykazuje nepatřičné předsudky a nespravedlnosti. Možná si uvědomujete, že když začala nejnovější éra umělé inteligence, došlo k obrovskému výbuchu nadšení z toho, co někteří dnes nazývají AI pro dobro. Bohužel v patách toho tryskajícího vzrušení jsme začali být svědky AI pro špatné. Například bylo odhaleno, že různé systémy rozpoznávání obličeje založené na umělé inteligenci obsahují rasové a genderové předsudky, o kterých jsem mluvil na odkaz zde.

Snahy bránit se AI pro špatné aktivně probíhají. Kromě hlučného právní ve snaze omezit provinění na uzdě existuje také podstatný tlak na přijetí etiky umělé inteligence, aby se napravila odpornost umělé inteligence. Myšlenka je taková, že bychom měli přijmout a schválit klíčové etické principy umělé inteligence pro rozvoj a nasazení umělé inteligence, abychom podkopali AI pro špatné a současně ohlašovat a propagovat preferované AI pro dobro.

Pokud jde o související představu, jsem zastáncem pokusu o použití umělé inteligence jako součásti řešení problémů s umělou inteligencí a bojování ohně ohněm tímto způsobem myšlení. Mohli bychom například začlenit komponenty Etické umělé inteligence do systému umělé inteligence, který bude monitorovat, jak zbytek umělé inteligence dělá věci, a tak potenciálně v reálném čase zachytit jakékoli diskriminační snahy, viz moje diskuze na odkaz zde. Mohli bychom mít také samostatný systém AI, který funguje jako typ monitoru etiky AI. Systém umělé inteligence slouží jako dozorce, který sleduje a zjišťuje, kdy se jiná umělá inteligence dostává do neetické propasti (viz moje analýza takových schopností na odkaz zde).

Za chvíli se s vámi podělím o některé zastřešující principy, které jsou základem etiky umělé inteligence. Takových seznamů se tu a tam pohybuje spousta. Dalo by se říci, že zatím neexistuje jediný seznam univerzální přitažlivosti a souběžnosti. To je ta nešťastná zpráva. Dobrou zprávou je, že alespoň existují snadno dostupné seznamy etiky AI a bývají velmi podobné. Celkově to naznačuje, že formou odůvodněné konvergence svého druhu nacházíme cestu k obecné shodě toho, z čeho se skládá etika umělé inteligence.

Nejprve si stručně proberme některé z celkových etických zásad umělé inteligence, abychom ilustrovali, co by mělo být životně důležitým faktorem pro každého, kdo umělou inteligenci tvoří, využívá nebo používá.

Například, jak uvádí Vatikán v Řím vyzývá k etice umělé inteligence a jak jsem se podrobně věnoval odkaz zdeToto je jejich identifikovaných šest primárních etických principů AI:

  • Transparentnost: V zásadě musí být systémy umělé inteligence vysvětlitelné
  • zařazení: Potřeby všech lidských bytostí musí být brány v úvahu, aby každý mohl mít prospěch a všem jednotlivcům mohly být nabídnuty nejlepší možné podmínky k vyjádření a rozvoji.
  • Odpovědnost: Ti, kdo navrhují a nasazují použití AI, musí postupovat zodpovědně a transparentně
  • Nestrannost: Nevytvářejte ani nejednajte podle zaujatosti, a tím si zajistěte spravedlnost a lidskou důstojnost
  • Spolehlivost: Systémy umělé inteligence musí být schopny spolehlivě fungovat
  • Zabezpečení a soukromí: Systémy umělé inteligence musí fungovat bezpečně a respektovat soukromí uživatelů.

Jak uvedlo americké ministerstvo obrany (DoD) ve svém Etické zásady pro používání umělé inteligence a jak jsem se podrobně věnoval odkaz zde, toto je jejich šest primárních etických principů AI:

  • Odpovědný: Personál ministerstva obrany bude uplatňovat přiměřenou úroveň úsudku a péče, přičemž zůstane odpovědný za vývoj, nasazení a používání schopností AI.
  • Spravedlivý: Ministerstvo podnikne promyšlené kroky k minimalizaci nezamýšleného zkreslení schopností AI.
  • sledovatelné: Schopnosti AI ministerstva budou vyvinuty a rozmístěny tak, aby příslušní pracovníci měli odpovídající znalosti o technologii, vývojových procesech a provozních metodách použitelných pro schopnosti AI, včetně transparentních a auditovatelných metodologií, zdrojů dat a návrhových postupů a dokumentace.
  • Spolehlivý: Schopnosti umělé inteligence ministerstva budou mít explicitní, dobře definovaná použití a bezpečnost, zabezpečení a účinnost těchto schopností bude předmětem testování a zajištění v rámci těchto definovaných použití během celého životního cyklu.
  • ovladatelný: Ministerstvo navrhne a zkonstruuje schopnosti umělé inteligence tak, aby plnily zamýšlené funkce, přičemž bude mít schopnost detekovat a vyhnout se nezamýšleným následkům a schopnost odpojit nebo deaktivovat nasazené systémy, které vykazují nezamýšlené chování.

Diskutoval jsem také o různých kolektivních analýzách etických principů umělé inteligence, včetně toho, že jsem se zabýval souborem navrženým výzkumníky, kteří zkoumali a zhušťovali podstatu mnoha národních a mezinárodních zásad etiky umělé inteligence v dokumentu nazvaném „The Global Landscape Of AI Ethics Guidelines“ (publikováno v Příroda), a které mé pokrytí zkoumá na odkaz zde, což vedlo k tomuto klíčovému seznamu:

  • Průhlednost
  • Spravedlnost a férovost
  • Neškodlivost
  • Odpovědnost
  • Ochrana osobních údajů
  • Dobročinnost
  • Svoboda a autonomie
  • Věřte
  • udržitelnost
  • Důstojnost
  • Solidarita

Jak můžete přímo hádat, pokusit se určit specifika, která jsou základem těchto principů, může být extrémně obtížné. Snaha přeměnit tyto široké principy v něco zcela hmatatelného a dostatečně podrobného, ​​aby to bylo možné použít při vytváření systémů umělé inteligence, je navíc tvrdým oříškem. Celkově je snadné mávnout rukou nad tím, co jsou etická pravidla AI a jak by se měly obecně dodržovat, zatímco v kódování AI je mnohem složitější situace, kdy musí být opravdová guma, která splňuje silnici.

Principy AI etiky mají využívat vývojáři AI spolu s těmi, kteří řídí úsilí o vývoj AI, a dokonce i ti, kteří nakonec nasazují a provádějí údržbu systémů AI. Všechny zúčastněné strany během celého životního cyklu vývoje a používání AI jsou posuzovány v rámci dodržování zavedených norem etické AI. To je důležité upozornit, protože obvyklý předpoklad je, že „pouze kodéři“ nebo ti, kteří programují AI, podléhají dodržování etických pojmů AI. Jak již bylo řečeno, k vymýšlení a nasazení AI je zapotřebí vesnice a celá vesnice musí být zběhlá a dodržovat etická pravidla AI.

Pojďme se také ujistit, že jsme na stejné stránce ohledně povahy dnešní umělé inteligence.

Dnes neexistuje žádná AI, která by byla vnímavá. Tohle my nemáme. Nevíme, zda bude vnímající AI možná. Nikdo nemůže výstižně předpovědět, zda dosáhneme vnímající AI, ani zda se vnímající AI nějakým zázrakem spontánně objeví ve formě výpočetní kognitivní supernovy (obvykle označované jako singularita, viz moje pokrytí na odkaz zde).

Typ AI, na který se zaměřuji, se skládá z necítivé AI, kterou máme dnes. Pokud bychom chtěli divoce spekulovat o cítící AI, tato diskuse by se mohla ubírat radikálně jiným směrem. Vnímavá AI by měla mít lidské kvality. Měli byste vzít v úvahu, že vnímající AI je kognitivní ekvivalent člověka. Navíc, protože někteří spekulují, že bychom mohli mít superinteligentní AI, je možné, že taková AI by mohla být chytřejší než lidé (pro můj průzkum superinteligentní AI jako možnosti viz. pokrytí zde).

Nechme věci více při zemi a uvažujme o dnešní výpočetní necítivé umělé inteligenci.

Uvědomte si, že dnešní umělá inteligence není schopna „myslet“ žádným způsobem na stejné úrovni jako lidské myšlení. Když komunikujete s Alexou nebo Siri, konverzační schopnosti se mohou zdát podobné lidským schopnostem, ale skutečnost je taková, že jsou výpočetní a postrádají lidské poznání. Nejnovější éra umělé inteligence široce využívá strojové učení (ML) a hluboké učení (DL), které využívají porovnávání výpočetních vzorů. To vedlo k systémům umělé inteligence, které vypadají jako lidské sklony. Mezitím dnes neexistuje žádná umělá inteligence, která by měla zdání zdravého rozumu, ani žádný z kognitivních zázraků robustního lidského myšlení.

ML/DL je forma porovnávání výpočetních vzorů. Obvyklý přístup je takový, že shromažďujete data o úloze rozhodování. Data vkládáte do počítačových modelů ML/DL. Tyto modely se snaží najít matematické vzorce. Po nalezení takových vzorů, pokud jsou nalezeny, systém umělé inteligence tyto vzory použije, když narazí na nová data. Po předložení nových dat se pro vykreslení aktuálního rozhodnutí použijí vzory založené na „starých“ nebo historických datech.

Myslím, že můžete hádat, kam to směřuje. Pokud lidé, kteří se rozhodovali podle vzoru, začlenili nežádoucí předsudky, je pravděpodobné, že data to odrážejí jemnými, ale významnými způsoby. Počítačové porovnávání vzorů Machine Learning nebo Deep Learning se jednoduše pokusí odpovídajícím způsobem matematicky napodobit data. Neexistuje žádné zdání zdravého rozumu nebo jiných vnímavých aspektů modelování vytvořeného umělou inteligencí jako takového.

Kromě toho si vývojáři AI nemusí uvědomit, co se děje. Tajemná matematika v ML/DL může ztížit odhalení nyní skrytých předsudků. Oprávněně byste doufali a očekávali, že vývojáři umělé inteligence budou testovat potenciálně pohřbené předsudky, i když je to složitější, než by se mohlo zdát. Existuje solidní šance, že i přes poměrně rozsáhlé testování, že v modelech porovnávání vzorů ML/DL budou stále zakomponovány zkreslení.

Dalo by se tak trochu použít slavné nebo nechvalně známé pořekadlo o smetí-do odpadu-ven. Jde o to, že je to spíše podobné předsudkům – in, které se zákeřně prolínají, když se předsudky ponoří do AI. Algoritmus rozhodování (ADM) umělé inteligence je axiomaticky zatížen nerovnostmi.

Špatný.

Vraťme se k našemu zaměření na horký brambor a jeho potenciálně katastrofální využití v AI. Existuje také ďábelství, které se může skrývat i v triku s horkým bramborem.

Jako rychlá rekapitulace o projevu umělé inteligence v gambitu horkých brambor:

  • AI a člověk ve smyčce pracují společně na daném úkolu
  • AI má určitou dobu kontrolu
  • Člověk-in-the-loop má určitou dobu kontrolu
  • Mezi AI a člověkem existuje určitá forma předávacího protokolu
  • Předání může být velmi viditelné, nebo může být jemné a téměř skryté
  • To vše je obvykle v kontextu reálného času (něco aktivně probíhá)

Primárním cílem je, když je předání v podstatě horký brambor a AI se rozhodne náhle předat řízení člověku. Uvědomte si prosím, že se zde později budu věnovat také druhé stránce, totiž lidskému předání kontroly AI jako horký brambor.

Nejprve zvažte, co se může stát, když AI předá horké brambory člověku ve smyčce.

Budu hovořit o člověku jako o člověku ve smyčce, protože říkám, že člověk je již nedílnou součástí probíhající pracovní činnosti. Mohli bychom mít jiné scénáře, kdy člověk, který se do této činnosti nijak zvlášť nezapojuje, možná cizinec v celé záležitosti, dostane horký brambor od AI, takže mějte na paměti, že existují i ​​jiné příchutě tohoto prostředí.

Kdybych vám podával horký brambor a chtěl to udělat rozumným způsobem, možná bych vás upozornil, že vám věci předám. Kromě toho bych se o to pokusil, kdybych skutečně věřil, že vy s horkými bramborami je celkově lepší, než když je mám já. V duchu bych si spočítala, jestli to máš mít nebo v tom mám pokračovat.

Představte si basketbalový zápas. Ty a já jsme ve stejném týmu. Doufáme, že pracujeme společně, abychom se pokusili vyhrát zápas. Do konce času zbývá jen pár sekund a my zoufale potřebujeme skórovat, jinak zápas prohrajeme. Dostávám se do pozice, abych udělal poslední ránu. Mám to udělat, nebo vám mám přihrát míč a nechat vás vystřelit?

Pokud jsem lepší basketbalista a mám větší šanci potopit střelu, pravděpodobně bych si měl míč nechat a pokusit se o střelu. Pokud jste lepší basketbalista než já, pravděpodobně bych vám měl přihrát míč a nechat vás střílet. Do popředí se dostávají další úvahy, například kdo z nás je v lepší pozici na hřišti, aby mohl střílet, plus zda je jeden z nás vyčerpaný, protože hra je téměř u konce a může být opotřebovaná a není na stejné úrovni. jejich střelba. Atd.

Se všemi těmi faktory uprostřed sužované chvíle se musím rozhodnout, zda si míč nechám, nebo ho předám vám.

Uvědomte si, že v tomto scénáři jsou hodiny rozhodující. Vy i já jsme oba konfrontováni s mimořádně včasnou odpovědí. Celá hra je nyní na řadě. Jakmile hodiny vyprší, buď jsme vyhráli, protože jeden z nás vystřelil, nebo jsme prohráli, protože jsme je nepotopili. Možná bych mohl být hrdina, kdybych potopil koš. Nebo můžeš být hrdinou, když ti předám míč a ty ho potopíš.

Je tu také kozí stránka nebo stinné stránky. Když udržím míč a netrefím, každý by mě mohl obvinit, že jsem koza nebo že zklamu celý tým. Na druhou stranu, když vám přihraju míč a vy minete střelu, stanete se kozou. Mohlo by to být vůči tobě zcela nespravedlivé, protože jsem tě donutil, abys byl posledním střelcem a dal poslední ránu.

Určitě bys věděl, že jsem tě dostal do té odpudivé pozice. A i když mě každý mohl vidět, jak to dělám, musí se soustředit jen na toho posledního, kdo měl míč. Možná bych bruslil zdarma. Nikdo by si nepamatoval, že jsem ti přihrál míč na poslední chvíli. Pamatovali by si jen to, že jste měli míč a prohráli jste hru, protože jste neprovedli ránu.

Dobře, tak vám předám míč.

proč jsem to udělal?

Neexistuje jednoduchý způsob, jak to určit.

Mým skutečným záměrem může být, že jsem nechtěl uvíznout jako koza, a tak jsem se rozhodl vyvinout veškerý tlak na tebe. Na otázku, proč jsem přihrál, jsem mohl tvrdit, že jsem tak učinil, protože jsem si myslel, že jste lepší střelec než já (ale předstírejme, že tomu vůbec nevěřím). Nebo jsem si myslel, že jsi v lepší pozici než já (předstírejme, že jsem si to také nemyslel). Nikdo by se nikdy nedozvěděl, že jsem se vlastně jen snažil vyhnout se zaseknutí s horkým bramborem.

Z vnějšího pohledu na věc nikdo nedokázal snadno rozpoznat můj skutečný důvod, proč jsem vám přihrál míč. Možná jsem to udělal nevinně, protože jsem věřil, že jsi lepší hráč. To je jeden úhel. Možná jsem to udělal proto, že jsem nechtěl, aby mě všichni označovali za poraženého za to, že jsem možná netrefil střelu, a tak jsem dostal míč k tobě a usoudil jsem, že to pro mě byla obrovská úleva. Zda mi na tobě opravdu záleželo, je úplně jiná věc.

Nyní jsme schopni přidat některé další podrobnosti k horkému bramboru souvisejícímu s AI:

  • Umělá inteligence se na poslední chvíli rozhodne přenechat kontrolu člověku ve smyčce
  • Poslední okamžik už může být daleko za jakoukoli lidsky životaschopnou akcí
  • Člověk-in-the-loop má kontrolu, ale poněkud falešně kvůli načasování předání

Přemýšlejte o tom chvíli.

Předpokládejme, že systém AI a člověk ve smyčce spolupracují na úkolu v reálném čase, který zahrnuje provoz velkého stroje v továrně. Umělá inteligence detekuje, že se stroje hroutí. Místo aby si umělá inteligence nadále udržovala kontrolu, předává náhle kontrolu člověku. Stroje v této továrně se rychle řítí do čistého chaosu a člověku nezbývá čas na nápravu.

Umělá inteligence předala horké brambory člověku ve smyčce a nacpala člověka skutečným horkým bramborem tak, že okolnosti již není v lidských silách zvládnout. Tag, ty jsi to, jde o starou linii při hraní her s tagy jako dítě. Člověk je řekněme poznamenaný nepořádkem.

Stejně jako můj příklad o basketbalové hře.

Proč AI provedla předání?

No, na rozdíl od toho, když člověk náhle předá basketbalový míč a pak divoce mávne rukou, proč to udělal, obvykle můžeme prozkoumat programování AI a zjistit, co vedlo k tomu, že AI provedla tento druh předání horkého bramboru.

Vývojář umělé inteligence se mohl předem rozhodnout, že když se umělá inteligence dostane do opravdu špatné situace, měla by převzít kontrolu nad člověkem ve smyčce. To se zdá být naprosto rozumné a rozumné. Člověk může být „lepším hráčem“ na hřišti. Lidé mohou využít své kognitivní schopnosti k potenciálnímu řešení jakéhokoli problému, který je po ruce. Umělá inteligence možná dosáhla limitů svého programování a není nic jiného konstruktivního, co by v dané situaci mohla udělat.

Pokud AI provedla předání s minutou, která zbývala, než se stroje dostaly ke kablamu, možná je minuta heads-up dostatečně dlouhá na to, aby člověk ve smyčce mohl věci napravit. Předpokládejme však, že AI provedla předání tři sekundy do konce. Myslíte si, že by člověk mohl zareagovat v tomto časovém rámci? Nepravděpodobné. V každém případě, aby to bylo ještě méně pochybné, předpokládejme, že k předání člověku ve smyčce zbývalo několik nanosekund (nanosekunda je jedna miliardtina sekundy, což ve srovnání s rychlým bliknutím oko je dlouhé 300 milisekund).

Mohl by člověk ve smyčce dostatečně zareagovat, když mu AI podala horký brambor s pouhými malinkými zlomky sekund, které zbývají k nějaké zjevné akci?

Ne.

Předání je více falešné, než by se jinak mohlo zdát.

Ve skutečnosti předání nepřinese nic dobrého, pokud jde o zoufalou situaci. AI přiměla člověka, aby se stal kozou.

Někteří vývojáři AI na to nemyslí, když vymýšlejí svou AI. Oni (nesprávně) blaženě neberou v úvahu, že čas je zásadní faktor. Jediné, co dělají, je naprogramovat předání, když jde do tuhého. Když už AI nemá nic, co by mohla konstruktivně udělat, hoďte míček lidskému hráči.

Vývojáři umělé inteligence na to v době kódování umělé inteligence nemusí věnovat žádnou oddanou myšlenku a pak často selžou tím, že neprovedou testování, které to odhalí. Jejich testování ukazuje pouze to, že AI „poslušně“ provedla předání, když byly dosaženy limity AI. Voila, předpokládá se, že AI je dobrá a připravená jít. Testování nezahrnovalo skutečného člověka, který byl umístěn do té nezáviděníhodné a nemožné pozice. Neexistoval žádný řádný testovací proces člověka ve smyčce, který by mohl protestovat proti tomu, že jim toto mrknutí oka předání na poslední chvíli, nebo dokonce po poslední chvíli, nepřineslo nic dobrého nebo vůbec nic.

Samozřejmě, že někteří vývojáři umělé inteligence tento typ nesnází chytře zvážili, moudře.

Po přemýšlení nad hlavolamem budou pokračovat v programování AI, aby se chovala tímto způsobem.

Proč?

Protože není nic jiného na práci, alespoň v jejich mysli. Když vše ostatní selže, přenechejte ovládání člověku. Možná se stane zázrak. Podstatou však je, že to vývojáře AI nezajímá a dávají člověku poslední šanci, aby se vyrovnal s nepořádkem, který je po ruce. Vývojář AI si myje ruce nad tím, co se stane poté.

Chci objasnit, že vývojáři AI nejsou jedinými tvůrci těchto návrhů horkých brambor. Za tímto účelem přichází ke stolu spousta dalších zúčastněných stran. Možná systémový analytik, který provedl analýzu specifikací a požadavků, uvedl, že to je to, co má dělat AI. Zapojení vývojáři AI podle toho vytvořili AI. Možná to vymyslel projektový manažer AI. Vedení a vedení dohlížející na vývoj AI to možná vymysleli.

Každý v průběhu celého životního cyklu vývoje AI mohl pokračovat ve stejném designu horkého bramboru. Zda si toho někdo všiml, nemůžeme s jistotou říci. Kdyby si toho všimli, mohli být označeni za odpůrce a odsunuti stranou. Jiní mohli na tuto záležitost upozornit, ale nechápali důsledky. Cítili, že jde o technickou drobnost, která nespadá do jejich působnosti.

K tomuto neformálnímu seznamu „důvodů“ přidám mnohem hanebnější možnost.

Syndrom AI horkých brambor se někdy používá záměrně, protože ti, kdo AI vytvořili, chtěli mít své vášnivé tvrzení o věrohodném popření.

Připravte se na tuto část příběhu.

V případě továrních strojů, které se zhroutí, se nutně musí hodně osočovat, kdo je zodpovědný za to, co se stalo. Pokud jde o obsluhu strojů, měli jsme systém umělé inteligence, který to dělal, a člověka ve smyčce. To jsou naši dva basketbalisté, přeneseně.

Hodiny dobíhaly a strojní zařízení bylo na pokraji kaboomu. Řekněme, že vy a já víme, že AI provedla předání osobě ve smyčce, aniž by člověku zbyl dostatek času na to, aby podnikl dostatečné kroky k nápravě nebo vyhnutí se katastrofě. Nikdo jiný si neuvědomuje, co se stalo.

Firma, která AI vyrábí, může v každém případě okamžitě prohlásit, že není na vině, protože to měl člověk pod kontrolou. Podle jejich bezvadných záznamů neměla AI v době kaboomu kontrolu. Člověk byl. Je tedy jasně zřejmé, že na vině je člověk.

Lže společnost s umělou inteligencí v zásadě, když činí toto otevřené tvrzení?

Ne, zdá se, že mluví pravdu.

Na otázku, zda si jsou jisti, že AI nebyla pod kontrolou, by společnost hlasitě a hrdě prohlásila, že AI nebyla vůbec pod kontrolou. Mají zdokumentovaný důkaz tohoto tvrzení (za předpokladu, že AI vedla záznam o incidentu). Ve skutečnosti by manažeři společnosti AI mohli znechuceně pozvednout obočí, že by v tomto bodě někdo zpochybnil jejich integritu. Byli by ochotni přísahat na svou posvátnou přísahu, že AI byla ne pod kontrolou. Člověk ve smyčce měl kontrolu.

Věřím, že vidíte, jak to může být zavádějící.

Ano, člověku bylo předáno řízení. Teoreticky to měl člověk pod kontrolou. AI už nebyla pod kontrolou. Ale nedostatek dostupného načasování a notifikace z toho dělá extrémně prázdné tvrzení.

Z pohledu tvůrce AI by na tom bylo krásné to, že jen málokdo by mohl zpochybnit nabízená tvrzení. Tvůrce AI nemusí zveřejnit protokoly incidentu. Mohlo by to prozradit zmanipulovanou situaci. Protokoly jsou tvrzeny jako duševní vlastnictví (IP) nebo jiné, které mají vlastnickou a důvěrnou povahu. Firma by pravděpodobně tvrdila, že pokud by se záznamy ukázaly, ukázalo by to tajnou omáčku jejich AI a vyčerpalo by jejich ceněné IP.

Představte si neutěšenou situaci chudáka ve smyčce. Jsou zmateni, že jim všichni vyčítají, že se jim věci vymkly z rukou. AI „udělala správnou věc“ a předala řízení člověku. To by mohlo být to, co specifikace říkaly dělat (i když specifikace byly nedbalé, protože nezohlednily načasování a faktory proveditelnosti). Záznamy, které nebyly zveřejněny, ale tvrdí, že jsou opláštěné výrobcem AI, potvrzují absolutní fakt, že člověk dostal kontrolu od AI.

Dalo by se to prohlásit za politováníhodné poražení toho zmateného člověka, který téměř jistě spadne.

Je pravděpodobné, že pouze pokud se to dostane k soudu, bude realita toho, co se stalo, odhalena. Pokud by chytří legální bíglové věděli o tomto typu koncertu, pokusili by se získat záznamy legálně. Potřebovali by získat znalce (něco, co jsem čas od času udělal), aby rozluštil protokoly. Samotné protokoly nemusí stačit. Záznamy mohly být upraveny nebo pozměněny nebo záměrně navrženy tak, aby jasně neukazovaly podrobnosti. Jako takový bude možná potřeba ponořit se i do kódu AI.

Mezitím, po celý tento mučivý a zdlouhavý proces právního objevování, by člověk ve smyčce vypadal opravdu špatně. Média by toho člověka vykreslila jako nezodpovědného, ​​ztratil hlavu, nebyl pilný a měl by nést plnou odpovědnost. Možná po měsíce nebo roky během tohoto procesu bude tato osoba stále ta, na kterou všichni ukazovali obviňujícím prstem. Ten smrad možná nikdy nebude odstraněn.

Mějte také na paměti, že stejná okolnost se může snadno opakovat. A znovu. Za předpokladu, že tvůrce umělé inteligence nezměnil AI, kdykoli nastane podobná situace na poslední chvíli, AI provede předání beze změny. Člověk by doufal, že se tyto situace nestávají často. Ve vzácných případech, kdy se to stane, je člověk ve smyčce stále tím pohodlným mužem na podzim.

Je to ďábelský trik.

Možná budete chtít trvat na tom, že tvůrce AI neudělal nic špatného. Říkají pravdu. AI se vzdala kontroly. Člověk byl pak považován za člověka, který má kontrolu. To jsou fakta. Nemá smysl to zpochybňovat.

Ať už někdo zmoudří a položí těžké otázky, plus zda tvůrce umělé inteligence na tyto otázky odpoví nějakým přímočarým způsobem, zdá se, že se to stává jen zřídka.

Otázky zahrnují:

  • Kdy provedla AI předání člověku ve smyčce?
  • Na jakém naprogramovaném základě provedla AI předání?
  • Dostal člověk ve smyčce dostatek času na převzetí kontroly?
  • Jak byla AI navržena a navržena pro tyto problémy?
  • A tak dále.

To je do určité míry důvod, proč je etika a etická umělá inteligence tak zásadním tématem. Předpisy etiky AI nás nutí zůstat ostražití. Technologové umělé inteligence mohou být občas zaneprázdněni technologií, zejména optimalizací špičkových technologií. Nezbytně nezvažují větší společenské důsledky. Mít etiku AI a dělat to nedílně pro vývoj a nasazení AI je životně důležité pro vytváření vhodné AI, včetně (možná překvapivě nebo ironicky) posouzení toho, jak firmy přijímají etiku AI.

Kromě toho, že obecně používáme etické zásady AI, existuje odpovídající otázka, zda bychom měli mít zákony, které by řídily různá použití AI. Na federální, státní a místní úrovni se šíří nové zákony, které se týkají rozsahu a povahy toho, jak by měla být umělá inteligence navržena. Snaha navrhnout a přijmout takové zákony je postupná. Etika umělé inteligence slouží přinejmenším jako zvažovaná překážka a téměř jistě bude do určité míry přímo začleněna do těchto nových zákonů.

Uvědomte si, že někteří neústupně tvrdí, že nepotřebujeme nové zákony, které pokrývají AI, a že naše stávající zákony jsou dostatečné. Ve skutečnosti varují, že pokud uzákoníme některé z těchto zákonů AI, zabijeme zlatou husu tím, že potlačíme pokroky v AI, které nabízejí obrovské společenské výhody.

Vsadil bych se, že v tomto okamžiku této závažné diskuse si přejete nějaké další ilustrativní příklady, které by mohly toto téma předvést. Existuje speciální a jistě oblíbený soubor příkladů, které jsou mému srdci blízké. Víte, jako odborník na AI včetně etických a právních důsledků jsem často žádán, abych určil realistické příklady, které předvádějí dilemata etiky AI, aby bylo možné snáze pochopit poněkud teoretickou povahu tématu. Jednou z nejvíce sugestivních oblastí, která živě představuje tento etický problém umělé inteligence, je příchod skutečně samořídících aut založených na umělé inteligenci. To poslouží jako praktický příklad použití nebo příklad pro rozsáhlou diskusi na dané téma.

Zde je pak pozoruhodná otázka, která stojí za zamyšlení: Osvětluje příchod skutečně samořídících aut na bázi umělé inteligence něco o syndromu horkých brambor AI, a pokud ano, co to ukazuje?

Dovolte mi chvíli rozbalit otázku.

Za prvé, všimněte si, že ve skutečném samořídícím autě není žádný lidský řidič. Mějte na paměti, že skutečně samořídící auta jsou řízena systémem AI. Není potřeba, aby za volantem byl lidský řidič, ani neexistuje ustanovení, aby vozidlo řídil člověk. Pro mé rozsáhlé a průběžné pokrytí Autonomních vozidel (AV) a zejména samořiditelných vozů viz odkaz zde.

Rád bych dále objasnil, co je míněno, když mluvím o skutečných samořídících autech.

Porozumění úrovním samořídících automobilů

Pro upřesnění, skutečná samořídící auta jsou ta, kde AI řídí auto zcela samo a při řízení není žádná lidská pomoc.

Tato vozidla bez řidiče jsou považována za úroveň 4 a úroveň 5 (viz mé vysvětlení na adrese odkaz zde), zatímco vůz, který vyžaduje, aby se na řízení společně podílel lidský řidič, se obvykle považuje za úroveň 2 nebo úroveň 3. Vozy, které spolu sdílejí úkol řízení, jsou popsány jako semi-autonomní a obvykle obsahují různé automatizované doplňky, které se označují jako ADAS (Advanced Driver-Assistance Systems).

Na úrovni 5 ještě není skutečné auto s vlastním řízením a ještě ani nevíme, zda toho bude možné dosáhnout, ani jak dlouho bude trvat, než se tam dostaneme.

Mezitím se úsilí úrovně 4 postupně snaží získat určitou trakci tím, že podstupují velmi úzké a selektivní testy na veřejných komunikacích, ačkoli existuje spor o to, zda by toto testování mělo být povoleno jako takové (všichni jsme pokusnými pokusnými králíky na život a na smrt odehrávající se na našich dálnicích a vedlejších cestách, někteří tvrdí, viz moje zpravodajství na odkaz zde).

Protože poloautonomní auta vyžadují řidiče, přijetí těchto typů automobilů se nebude výrazně lišit od řízení konvenčních vozidel, takže o tomto tématu není samo o sobě nic nového (jak vidíte, uvidíte) za okamžik jsou obecně použitelné následující body).

U poloautonomních automobilů je důležité, aby veřejnost musela být upozorněna na znepokojující aspekt, který se objevuje v poslední době, a to navzdory těm lidským řidičům, kteří neustále vysílají videa, která usínají za volantem auta úrovně 2 nebo 3 , všichni se musíme vyhnout tomu, aby byli uvedeni v omyl v přesvědčení, že řidič může odvrátit jejich pozornost od úkolu řízení při řízení poloautonomního automobilu.

Jste odpovědnou stranou za řízení vozidla, bez ohledu na to, kolik automatizace může být hodeno do úrovně 2 nebo úrovně 3.

Samořídící auta a AI syndrom horkých brambor

U vozidel s vlastním řízením úrovně 4 a 5 nebude do řízení zapojen lidský řidič.

Všichni cestující budou cestující.

AI řídí.

Jedním z aspektů, které je třeba okamžitě projednat, je skutečnost, že umělá inteligence zapojená do dnešních řídicích systémů umělé inteligence není vnímavá. Jinými slovy, AI je celkově kolektiv počítačového programování a algoritmů a nejspíše není schopen uvažovat stejným způsobem jako lidé.

Proč je tento dodatečný důraz na to, aby AI nebyla vnímavá?

Protože chci zdůraznit, že při diskusi o roli řídícího systému AI nepřičítám AI lidské vlastnosti. Uvědomte si, že v dnešní době existuje trvalá a nebezpečná tendence k antropomorfizaci AI. V zásadě lidé dnešní AI připisují lidskou vnímavost, a to navzdory nepopiratelné a nepopiratelné skutečnosti, že taková AI dosud neexistuje.

S tímto vysvětlením si můžete představit, že systém řízení AI nebude nativně nějak „vědět“ o aspektech řízení. Řízení a vše, co to obnáší, bude muset být naprogramováno jako součást hardwaru a softwaru samořízeného automobilu.

Pojďme se ponořit do nesčetných aspektů, které na toto téma hrají.

Zaprvé je důležité si uvědomit, že ne všechna samořídící auta s umělou inteligencí jsou stejná. Každá automobilka a technologická firma s vlastním řízením přistupuje k navrhování samořídících vozů. Jako takové je obtížné činit rozsáhlá prohlášení o tom, co budou či nebudou dělat řídicí systémy AI.

Kromě toho, kdykoli uvedou, že řídící systém AI nedělá nějakou konkrétní věc, může to později předběhnout vývojáři, kteří ve skutečnosti naprogramují počítač, aby udělal právě tuto věc. Krok za krokem se postupně zdokonalují a rozšiřují systémy řízení AI. Stávající omezení dnes již nemusí existovat v budoucí iteraci nebo verzi systému.

Doufám, že to poskytuje dostatečnou litanii upozornění, která podpoří to, co se chystám vylíčit.

U plně autonomních vozidel nemusí existovat žádná šance, že dojde k předání mezi AI a člověkem, kvůli možnosti, že pro začátek neexistuje žádný člověk ve smyčce. Snahou mnoha dnešních výrobců aut s vlastním řízením je zcela odstranit lidského řidiče z úkolu řízení. Vozidlo nebude obsahovat ani člověku dostupné ovládací prvky řízení. V takovém případě se lidský řidič, pokud je přítomen, nebude moci zúčastnit řízení, protože nemá přístup k žádným ovládacím prvkům řízení.

U některých plně autonomních vozidel některé konstrukce stále umožňují, aby byl člověk ve smyčce, ačkoli člověk nemusí být k dispozici nebo se vůbec nemusí účastnit řízení. Člověk se tedy může zúčastnit řízení, pokud si to přeje. Umělá inteligence však v žádném okamžiku nespoléhá na člověka, aby vykonával jakýkoli z úkolů řízení.

V případě semi-autonomních vozidel existuje vzájemný vztah mezi lidským řidičem a AI. U některých návrhů může lidský řidič zcela převzít řízení řízení a v podstatě zabránit AI v účasti na řízení. Pokud si lidský řidič přeje vrátit AI do role řidiče, může to udělat, i když to někdy donutí člověka vzdát se řízení.

Jiná forma semi-autonomního provozu by vyžadovala, aby lidský řidič a AI spolupracovali týmovým způsobem. AI řídí a člověk řídí. Jedou spolu. AI se může podřídit člověku. Člověk by se mohl podřídit AI.

V určitém okamžiku může řídicí systém AI výpočetně zjistit, že samořídící auto míří do neudržitelné situace a že autonomní vozidlo bude havarovat.

Mimochodem, někteří učenci chodí a tvrdí, že samořídící auta budou nehavarovatelná, což je čirý nesmysl a pobuřující a nesprávná věc, viz moje zpravodajství na odkaz zde.

V pokračování scénáře samořídícího auta mířícího ke kolizi nebo autonehodě může být systém řízení AI naprogramován tak, aby souhrnně předal řízení jízdy lidskému řidiči. Pokud je dostatek času na to, aby lidský řidič podnikl úhybnou akci, mohlo by to být pro AI skutečně rozumné a správné.

Ale předpokládejme, že AI provede předání se zlomkem zlomku sekundy do konce. Reakční doba lidského řidiče není dostatečně rychlá, aby adekvátně reagovala. Navíc, pokud byl člověk zázračně dostatečně rychlý, je pravděpodobné, že neexistují žádné životaschopné úhybné akce, které by bylo možné provést s omezeným časem zbývajícím do havárie. Jedná se o dvojí: (1) nedostatečný čas na to, aby lidský řidič provedl akci, (2) nedostatečný čas na to, aby v případě, že by zásah lidského řidiče byl možný, mohl být zásah proveden v nedostatečném poskytnutém čase.

Celkově vzato je to podobné mé dřívější diskusi o situaci basketbalového buzerace a továrních strojích, které se staly šíleným scénářem.

K tomu přidáme tu hanebnou přísadu.

Automobilka nebo technologická firma s vlastním řízením nechce být označována za různé autonehody, ke kterým dochází v jejich vozovém parku. Řídicí systém AI je naprogramován tak, aby vždy předal řízení lidskému řidiči, bez ohledu na to, zda má řidič dostatek času na to, aby s danou situací něco udělal. Kdykoli dojde k autonehodě tohoto druhu, automobilka nebo technologická firma s vlastním řízením je schopna hlasitě trvat na tom, že u řízení byl lidský řidič, zatímco AI nikoli.

Zdá se, že jejich výsledky v oblasti systémů řízení AI jsou hvězdné.

Ani jednou není za tyto autonehody „vinen“ řídicí systém AI. Zdá se, že vždy jsou to ti zatracení lidští řidiči, kteří nespouštějí oči ze silnice. Mohli bychom mít tendenci spolknout tuto blbost a věřit, že zcela přesná AI se pravděpodobně nikdy nemýlí. Můžeme mít sklon věřit (protože to víme ze zkušenosti), že lidští řidiči jsou nedbalí a dělají spoustu řidičských chyb. Logickým závěrem je, že viníkem musí být lidští řidiči a systém řízení AI je zcela nevinný.

Než se někteří zastánci autonomního řízení rozčilují nad touto charakteristikou, přiznejme si, že na vině může být lidský řidič a že měli přijmout opatření dříve, například převzít řízení řízení od AI. Existuje také šance, že lidský řidič mohl udělat něco podstatného, ​​když AI předala řízení. Atd.

Zaměřili jsme se zde na okolnosti, za nichž byla AI považována za řidiče vozidla, a pak náhle as malou pozorností k tomu, co by lidský řidič mohl udělat, předhodila horký brambor lidskému řidiči. To je také důvod, proč se tolik lidí obává dvojí role poloautonomních vozidel při řízení. Možná si řeknete, že za volantem sedí příliš mnoho řidičů. Zdá se, že cílem by bylo vyřešit záležitost tím, že budeme mít plně autonomní vozidla, která nepotřebují člověka za volantem a vozidlo vždy řídí AI.

To přináší spojeneckou otázku, co nebo kdo je zodpovědný, když řídí AI, které jsem se ve svých sloupcích mnohokrát zabýval, jako např. odkaz zde a odkaz zde.

Proč investovat do čističky vzduchu?

Musíme být opatrní, když slyšíme nebo čteme o autonehodách zahrnujících poloautonomní vozidla. Dávejte si pozor na ty, kteří se nás snaží oklamat tím, že prohlašují, že jejich řídicí systém AI má bezchybné výsledky. Zákeřný trik AI syndrom horkých brambor může být ve směsi.

Pro společnosti, které se snaží být v těchto záležitostech záludné, si možná můžeme ponechat na srdci slavnou větu Abrahama Lincolna: „Někdy můžete oklamat všechny lidi a některé lidi pořád, ale nemůžete oklamat. všichni lidé po celou dobu."

Snažil jsem se zde odhalit magii umělé inteligence skrytou za obrazovkou a občas umístěnou pod kapotou, kterou jsem objasnil, aby více lidí nebude nechat se zmást častěji.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/08/01/ai-ethics-fuming-about-the-rising-hot-potato-syndrome-being-owned-by-ai-makers- zdánlivě-snaží se vyhnout-odpovědnosti-za-jejich-život-rozhodující-autonomní-systémy/