Etika umělé inteligence se obává zhoršování asymetrie umělé inteligence mezi lidmi, kteří dostávají krátký konec

Někdy jste na špatné straně hole.

Tento hovorový výraz lze aplikovat na pojem asymetrie.

Ano, budu mluvit o asymetrii. Jak jste se pravděpodobně setkali v tomto zkrouceném světě, ve kterém žijeme, existují případy, kdy můžete zjistit, že máte méně znalostí o záležitosti, která je pro vás relativně důležitá. Toto je formálně označováno jako Informační asymetrie.

Klíčem je, že máte méně znalostí nebo informací, než byste si možná přáli, a navíc jich máte rozhodně méně než druhá strana, která se na věci podílí. Ve srovnání s druhou stranou jste ve výrazné nevýhodě. Vědí něco, co vy nevíte. Mohou využít to, co znají, zejména pokud jde o to, co vy nevíte, a získat převahu v případných drsných úvahách nebo jednáních s vámi.

No, ve městě je nový kluk, známý jako Asymetrie AI.

Tato nejnovější fráze odkazuje na možnost, že půjdete proti někomu, kdo je vyzbrojen AI, zatímco vy tak ozbrojení nejste.

Mají na své straně AI, zatímco vy máte, no, jen vás. Věci jsou nahnuté. Jste v domnělé nevýhodě. Druhá strana bude moci kolem vás provozovat kruhy díky AI. To by mohlo být součástí slavného rčení, že v lásce a válce je vše spravedlivé (dlouholeté přísloví, které se v něm objevilo Euphues od Johna Lylyho, 1578), i když dynamika a nebezpečí asymetrie umělé inteligence vyvolávají náročné otázky etické umělé inteligence. Mé průběžné a rozsáhlé pokrytí etiky AI a etické AI viz odkaz zde a odkaz zde, Abychom jmenovali jen několik.

Než se vrhneme do oblasti umělé inteligence a její bohaté složitosti týkající se asymetrie umělé inteligence, pojďme nejprve prozkoumat každodenní běžnou verzi obyčejné staré informační asymetrie. To připraví půdu pro přechod do příslovečné umělé inteligence nového kluka na bloku.

Krátký a účelně poučný příběh by vám mohl povzbudit chuť k jídlu.

Onehdy jsem měl na silnici defekt pneumatiky a rychle jsem hledal vhodnou náhradu, která by mohla být okamžitě namontována. Pomocí svého smartphonu jsem se podíval online na nejbližší obchody s pneumatikami, abych zjistil, jakou vzdálenost musím ujet na pneumatikách run-flat a zda jsou nějaké obchody otevřené. Kromě toho jsem rychle zhodnotil jejich online zákaznické recenze a pokusil se shromáždit něco užitečného o tom, jak dlouho byli v podnikání a dalších faktorech, které by mohly ukázat jejich způsobilost.

Po zavolání do jedné z prodejen pneumatik mi úředník poskytl rychlou cenovou nabídku na cenu pneumatiky a její montáž. Pneumatika nebyla přesně taková, jakou jsem měl na mysli, ale úředník mě ujistil, že to bude jediný obchod v okolí, který to dokáže rovnou udělat. Podle úřednice by žádný z okolních pneuservisů neměl žádné takové pneumatiky na skladě a trvalo by minimálně den, než by tito konkurenti získali vhodnou pneumatiku z nějakého polovzdáleného skladu.

Byl jsem uprostřed informační asymetrie.

Úředník tvrdil, že ví více o místním stavu pneumatik a zejména o typu pneumatik, které jsem potřeboval. Byl jsem v oblasti, kterou jsem pouze projížděl, a neměl jsem žádné bezprostřední znalosti o prodejnách pneumatik v této konkrétní zeměpisné oblasti. Co jsem věděl, úředník byl na místě a dával mi nepřikrášlenou pravdu.

Ale dělal to úředník?

Možná ano možná ne.

Je možné, že úředník upřímně věřil všemu, co mi bylo sdělováno. Pro úředníka to byla pravda. Nebo možná úředník poněkud natahoval pravdu. Bylo možné, že to, co bylo řečeno, mohla být pravda, ačkoli způsob, jakým to bylo zobrazeno, naznačoval, že to byla naprostá a nevyvratitelná pravda. Samozřejmě to mohl být také úplný balderdash a prodavač pouze šilinkoval, aby obchod s pneumatikami získal můj obchod. Mohla být na řadě šťavnatá provize?

Troufám si tvrdit, že v takové pozici smolařů se nikomu nelíbí.

V sázce situace je zásadní faktor v tom, jak moc na informační asymetrii záleží. Pokud se jedná o otázku typu život nebo smrt, být v psí boudě a spoléhat se na druhou stranu, pokud jde o to, co vědí nebo tvrdí, že vědí, je povrchní a vysoce nežádoucí postoj. Když je v sázce málo , jako když si objednáte večeři v restauraci a server vám řekne, že rybí pokrm je nebeský, ale vy jste tam ještě nikdy nejedli a jste nedostatečně informováni, můžete s touto troškou informační asymetrie souhlasit bez velké úzkosti (já předpokládejme také, že také sázíte na to, že server nebude riskovat, že poskytne kyselé rady a nepřijde o slušné spropitné).

Když se vrátím k příběhu o opotřebených pneumatikách (slovní hříčka!), neměl bych žádný okamžitý způsob, jak zjistit, zda mi úředník poskytuje spolehlivé a informativní poznatky. Možná se ptáte, co se stalo. Rozhodl jsem se zavolat do několika dalších blízkých obchodů s pneumatikami.

Jste připraveni na to, co jsem objevil?

Všechny ostatní obchody s pneumatikami měly moji požadovanou pneumatiku na skladě a nehodlaly se mě pokoušet mrknutí-mrkat přesvědčit, abych si vzal jinou pneumatiku (jak se o to pokusil první prodavač). Mohli také provést práci ve stejném časovém rámci jako první pneuservis, který jsem snad zavolal. Za zhruba stejnou cenu.

Ujišťuji vás, že z mé strany nastal vítaný povzdech úlevy.

Je ironií, že v Murphyho zákonu smůly bylo první místo, které jsem kontaktoval, jediné, které vypadalo, jako by bylo na obědě. Jsem rád, že jsem se snažil získat více informací. Tím se zmenšila mezera informační asymetrie. Tleskal jsem si za to, že jsem se držel svých zbraní a nepřistoupil jsem na první místo, které jsem zavolal.

Jak již bylo řečeno, získávání dalších informací si vyžádalo určité náklady. Uskutečnil jsem přibližně čtyři hovory, z nichž každé trvalo asi patnáct až dvacet minut, než jsem se plně chopil. V tomto smyslu jsem strávil asi hodinu a půl, když jsem jen zjišťoval, kam vzít auto. Kdybych byl okamžitě vzal své auto na první místo, nová pneumatika by v té době byla téměř na mém voze. Na druhou stranu bych téměř jistě později litoval toho rychlého rozhodnutí, které jsem učinil, když jsem byl v zákeřné informační asymetrii.

Někdy musíte zatnout zuby a brát obávanou informační asymetrii tak, jak přichází. Jen doufáš, že ať už uděláš jakékoli rozhodnutí, bude dost dobré. Nemusí to být „dokonalé“ rozhodnutí a později byste mohli svého rozhodnutí litovat. Dalším úhlem pohledu je, že byste se mohli pokusit posílit svou stranu informační rovnice, i když to nemusí být nutně bezplatné a může to také žvýkat drahocenný čas, v závislosti na tom, zda je drahocenný čas podstatný.

Nyní, když vás nepochybně uklidňuje, že moje auto jede dobře se svou zbrusu novou a správnou pneumatikou, mohu přejít ke vzniku asymetrie umělé inteligence.

Vezměme si příběh strasti s umělou inteligencí.

Hledáte půjčku na bydlení. Existuje online analyzátor žádostí o hypotéku, který konkrétní banka používá. Online systém využívá dnešní pokročilé schopnosti umělé inteligence. Není třeba mluvit s agentem pro poskytování lidských půjček. AI dělá všechno.

Systém AI vás provede řadou výzev. Poslušně vyplňujete formuláře a odpovídáte systému AI. Tato AI je velmi upovídaná. Zatímco jste v minulosti mohli používat konvenční počítačový formulářový systém, tato varianta umělé inteligence je spíše podobná interakci s lidským agentem. Ne tak docela, ale dost na to, abyste skoro začali věřit, že na druhé straně této činnosti byl člověk.

Poté, co uděláte vše pro to, abyste „prodiskutovali“ vaši žádost s touto AI, nakonec vás informuje, že žádost o půjčku bohužel není schválena. Trochu to dostane vaši kozu, že se zdá, že AI nabízí omluvu, jako by AI chtěla schválit půjčku, ale ti podlí lidé, kteří dohlížejí na banku, to AI nedovolí. Pro mé pokrytí toho, jak zavádějící jsou tyto druhy údajných omluv AI, viz odkaz zde.

Nemáte ponětí, proč vás odmítli. AI nenabízí žádné vysvětlení. Možná, že AI udělala chybu nebo zpackala své výpočty. Ještě horší je, že předpokládejme, že umělá inteligence použila při rozhodování o půjčce některé velmi sporné úvahy, jako je vaše rasa nebo pohlaví. Jediné, co víte, je, že jste zřejmě promarnili čas a také mezitím předali AI a bance tuny soukromých dat. Jejich AI vás porazila.

To by bylo označeno jako příklad asymetrie umělé inteligence.

Byl jsi to ty proti bance. Banka byla vyzbrojena AI. Nebyl jsi stejně ozbrojený. Měli jste svůj důvtip a svou školu moudrosti tvrdých úderů, ale v zadní kapse jste neměli žádnou AI. Mysl proti stroji. V tomto případě bohužel vyhrál stroj.

co máš dělat?

Nejprve si musíme na společenském základě uvědomit, že tato asymetrie umělé inteligence roste a stává se téměř všudypřítomnou. Lidé se s umělou inteligencí setkávají ve všech systémech, se kterými denně komunikujeme. Někdy je AI jediným prvkem, se kterým komunikujeme, jako například v tomto příkladu žádosti o půjčku. V jiných případech může být člověk ve smyčce, která se spoléhá na AI, aby jim pomohla při provádění dané služby. U půjčky se může stát, že vás banka místo interakce s umělou inteligencí požádá o rozhovor s lidským agentem, u kterého však lidský agent používá počítačový systém pro přístup k umělé inteligenci, která řídí lidského agenta během procesu žádosti o úvěr. (a téměř vždy máte jistotu, že lidský agent se bude chovat, jako by byl uvězněn, protože musí přísně dělat vše, co jim AI „řekne, aby dělali“).

Ať tak či onak, AI je stále v mixu.

Za druhé, musíme se pokusit zajistit, aby asymetrie umělé inteligence byla prováděna alespoň na etickém základě umělé inteligence.

Dovolte mi vysvětlit tuto zdánlivě podivnou poznámku. Víte, pokud si můžeme být trochu jisti, že AI jedná eticky správným způsobem, mohli bychom mít nějakou útěchu ohledně asymetrie, která je ve hře. Na poněkud analogickém, ale také volném základě byste mohli říci, že kdyby moje interakce s prvním prodavačem pneumatik měla zavedena a prosazována nějaká přísná etická pravidla, možná by mi nebyl vyprávěn příběh, který mi byl vyprávěn, nebo alespoň já možná jsem nemusel hned hledat, jestli mi někdo nevypráví příběh.

Za chvíli vysvětlím více o etice umělé inteligence.

Za třetí, měli bychom hledat způsoby, jak snížit asymetrii umělé inteligence. Pokud jste měli AI, která byla na vaší straně a snažila se být vaším trenérem nebo ochráncem, mohli byste být schopni tuto AI použít k nějakému úderu do jiné AI, se kterou jdete po hlavě. Jak se říká, někdy má smysl bojovat s ohněm ohněm.

Než se pustíme do dalšího masa a brambor o divokých a vlněných úvahách, které jsou základem asymetrie umělé inteligence, pojďme si stanovit několik dalších základů na hluboce zásadní témata. Musíme se krátce ponořit do etiky umělé inteligence a zejména do příchodu strojového učení (ML) a hlubokého učení (DL).

Možná si matně uvědomujete, že jeden z nejhlasitějších hlasů dnešní doby v oblasti umělé inteligence a dokonce i mimo ni spočívá v dožadování se většího zdání etické umělé inteligence. Pojďme se podívat na to, co znamená odkazovat se na etiku AI a etické AI. Kromě toho prozkoumáme, co mám na mysli, když mluvím o strojovém učení a hlubokém učení.

Jeden konkrétní segment nebo část etiky umělé inteligence, kterému se dostává velké pozornosti médií, se skládá z umělé inteligence, která vykazuje nepatřičné předsudky a nespravedlnosti. Možná si uvědomujete, že když začala nejnovější éra umělé inteligence, došlo k obrovskému výbuchu nadšení z toho, co někteří dnes nazývají AI pro dobro. Bohužel v patách toho tryskajícího vzrušení jsme začali být svědky AI pro špatné. Například bylo odhaleno, že různé systémy rozpoznávání obličeje založené na umělé inteligenci obsahují rasové a genderové předsudky, o kterých jsem mluvil na odkaz zde.

Snahy bránit se AI pro špatné aktivně probíhají. Kromě hlučného právní ve snaze omezit provinění na uzdě existuje také podstatný tlak na přijetí etiky umělé inteligence, aby se napravila odpornost umělé inteligence. Myšlenka je taková, že bychom měli přijmout a schválit klíčové etické principy umělé inteligence pro rozvoj a nasazení umělé inteligence, abychom podkopali AI pro špatné a současně ohlašovat a propagovat preferované AI pro dobro.

Pokud jde o související představu, jsem zastáncem pokusu o použití umělé inteligence jako součásti řešení problémů s umělou inteligencí a bojování ohně ohněm tímto způsobem myšlení. Mohli bychom například začlenit komponenty Etické umělé inteligence do systému umělé inteligence, který bude monitorovat, jak zbytek umělé inteligence dělá věci, a tak potenciálně v reálném čase zachytit jakékoli diskriminační snahy, viz moje diskuze na odkaz zde. Mohli bychom mít také samostatný systém AI, který funguje jako typ monitoru etiky AI. Systém umělé inteligence slouží jako dozorce, který sleduje a zjišťuje, kdy se jiná umělá inteligence dostává do neetické propasti (viz moje analýza takových schopností na odkaz zde).

Za chvíli se s vámi podělím o některé zastřešující principy, které jsou základem etiky umělé inteligence. Takových seznamů se tu a tam pohybuje spousta. Dalo by se říci, že zatím neexistuje jediný seznam univerzální přitažlivosti a souběžnosti. To je ta nešťastná zpráva. Dobrou zprávou je, že alespoň existují snadno dostupné seznamy etiky AI a bývají velmi podobné. Celkově to naznačuje, že formou odůvodněné konvergence svého druhu nacházíme cestu k obecné shodě toho, z čeho se skládá etika umělé inteligence.

Nejprve si stručně proberme některé z celkových etických zásad umělé inteligence, abychom ilustrovali, co by mělo být životně důležitým faktorem pro každého, kdo umělou inteligenci tvoří, využívá nebo používá.

Například, jak uvádí Vatikán v Řím vyzývá k etice umělé inteligence a jak jsem se podrobně věnoval odkaz zdeToto je jejich identifikovaných šest primárních etických principů AI:

  • Transparentnost: V zásadě musí být systémy umělé inteligence vysvětlitelné
  • zařazení: Potřeby všech lidských bytostí musí být brány v úvahu, aby každý mohl mít prospěch a všem jednotlivcům mohly být nabídnuty nejlepší možné podmínky k vyjádření a rozvoji.
  • Odpovědnost: Ti, kdo navrhují a nasazují použití AI, musí postupovat zodpovědně a transparentně
  • Nestrannost: Nevytvářejte ani nejednajte podle zaujatosti, a tím si zajistěte spravedlnost a lidskou důstojnost
  • Spolehlivost: Systémy umělé inteligence musí být schopny spolehlivě fungovat
  • Zabezpečení a soukromí: Systémy umělé inteligence musí fungovat bezpečně a respektovat soukromí uživatelů.

Jak uvedlo americké ministerstvo obrany (DoD) ve svém Etické zásady pro používání umělé inteligence a jak jsem se podrobně věnoval odkaz zde, toto je jejich šest primárních etických principů AI:

  • Odpovědný: Personál ministerstva obrany bude uplatňovat přiměřenou úroveň úsudku a péče, přičemž zůstane odpovědný za vývoj, nasazení a používání schopností AI.
  • Spravedlivý: Ministerstvo podnikne promyšlené kroky k minimalizaci nezamýšleného zkreslení schopností AI.
  • sledovatelné: Schopnosti AI ministerstva budou vyvinuty a rozmístěny tak, aby příslušní pracovníci měli odpovídající znalosti o technologii, vývojových procesech a provozních metodách použitelných pro schopnosti AI, včetně transparentních a auditovatelných metodologií, zdrojů dat a návrhových postupů a dokumentace.
  • Spolehlivý: Schopnosti umělé inteligence ministerstva budou mít explicitní, dobře definovaná použití a bezpečnost, zabezpečení a účinnost těchto schopností bude předmětem testování a zajištění v rámci těchto definovaných použití během celého životního cyklu.
  • ovladatelný: Ministerstvo navrhne a zkonstruuje schopnosti umělé inteligence tak, aby plnily zamýšlené funkce, přičemž bude mít schopnost detekovat a vyhnout se nezamýšleným následkům a schopnost odpojit nebo deaktivovat nasazené systémy, které vykazují nezamýšlené chování.

Diskutoval jsem také o různých kolektivních analýzách etických principů umělé inteligence, včetně toho, že jsem se zabýval souborem navrženým výzkumníky, kteří zkoumali a zhušťovali podstatu mnoha národních a mezinárodních zásad etiky umělé inteligence v dokumentu nazvaném „The Global Landscape Of AI Ethics Guidelines“ (publikováno v Příroda), a které mé pokrytí zkoumá na odkaz zde, což vedlo k tomuto klíčovému seznamu:

  • Průhlednost
  • Spravedlnost a férovost
  • Neškodlivost
  • Odpovědnost
  • Ochrana osobních údajů
  • Dobročinnost
  • Svoboda a autonomie
  • Věřte
  • udržitelnost
  • Důstojnost
  • Solidarita

Jak můžete přímo hádat, pokusit se určit specifika, která jsou základem těchto principů, může být extrémně obtížné. Snaha přeměnit tyto široké principy v něco zcela hmatatelného a dostatečně podrobného, ​​aby to bylo možné použít při vytváření systémů umělé inteligence, je navíc tvrdým oříškem. Celkově je snadné mávnout rukou nad tím, co jsou etická pravidla AI a jak by se měly obecně dodržovat, zatímco v kódování AI je mnohem složitější situace, kdy musí být opravdová guma, která splňuje silnici.

Principy AI etiky mají využívat vývojáři AI spolu s těmi, kteří řídí úsilí o vývoj AI, a dokonce i ti, kteří nakonec nasazují a provádějí údržbu systémů AI. Všechny zúčastněné strany během celého životního cyklu vývoje a používání AI jsou posuzovány v rámci dodržování zavedených norem etické AI. To je důležitý bod, protože obvyklý předpoklad je, že „pouze kodéři“ nebo ti, kteří programují AI, podléhají etickému pojetí AI. Jak již bylo řečeno, k vymýšlení a nasazení AI je zapotřebí vesnice a celá vesnice musí být zběhlá a dodržovat etická pravidla AI.

Pojďme se také ujistit, že jsme na stejné stránce ohledně povahy dnešní umělé inteligence.

Dnes neexistuje žádná AI, která by byla vnímavá. Tohle my nemáme. Nevíme, zda bude vnímající AI možná. Nikdo nemůže výstižně předpovědět, zda dosáhneme vnímající AI, ani zda se vnímající AI nějakým zázrakem spontánně objeví ve formě výpočetní kognitivní supernovy (obvykle označované jako singularita, viz moje pokrytí na odkaz zde).

Typ AI, na který se zaměřuji, se skládá z necítivé AI, kterou máme dnes. Pokud bychom chtěli divoce spekulovat o cítící AI, tato diskuse by se mohla ubírat radikálně jiným směrem. Vnímavá AI by měla mít lidské kvality. Měli byste vzít v úvahu, že vnímající AI je kognitivní ekvivalent člověka. Navíc, protože někteří spekulují, že bychom mohli mít superinteligentní AI, je možné, že taková AI by mohla být chytřejší než lidé (pro můj průzkum superinteligentní AI jako možnosti viz. pokrytí zde).

Nechme věci více při zemi a uvažujme o dnešní výpočetní necítivé umělé inteligenci.

Uvědomte si, že dnešní umělá inteligence není schopna „myslet“ žádným způsobem na stejné úrovni jako lidské myšlení. Když komunikujete s Alexou nebo Siri, konverzační schopnosti se mohou zdát podobné lidským schopnostem, ale skutečnost je taková, že jsou výpočetní a postrádají lidské poznání. Nejnovější éra umělé inteligence široce využívá strojové učení (ML) a hluboké učení (DL), které využívají porovnávání výpočetních vzorů. To vedlo k systémům umělé inteligence, které vypadají jako lidské sklony. Mezitím dnes neexistuje žádná umělá inteligence, která by měla zdání zdravého rozumu, ani žádný z kognitivních zázraků robustního lidského myšlení.

ML/DL je forma porovnávání výpočetních vzorů. Obvyklý přístup je takový, že shromažďujete data o úloze rozhodování. Data vkládáte do počítačových modelů ML/DL. Tyto modely se snaží najít matematické vzorce. Po nalezení takových vzorů, pokud jsou nalezeny, systém umělé inteligence tyto vzory použije, když narazí na nová data. Po předložení nových dat se pro vykreslení aktuálního rozhodnutí použijí vzory založené na „starých“ nebo historických datech.

Myslím, že můžete hádat, kam to směřuje. Pokud lidé, kteří se rozhodovali podle vzoru, začlenili nežádoucí předsudky, je pravděpodobné, že data to odrážejí jemnými, ale významnými způsoby. Počítačové porovnávání vzorů Machine Learning nebo Deep Learning se jednoduše pokusí odpovídajícím způsobem matematicky napodobit data. Neexistuje žádné zdání zdravého rozumu nebo jiných vnímavých aspektů modelování vytvořeného umělou inteligencí jako takového.

Kromě toho si vývojáři AI nemusí uvědomit, co se děje. Tajemná matematika v ML/DL může ztížit odhalení nyní skrytých předsudků. Oprávněně byste doufali a očekávali, že vývojáři umělé inteligence budou testovat potenciálně pohřbené předsudky, i když je to složitější, než by se mohlo zdát. Existuje solidní šance, že i přes poměrně rozsáhlé testování, že v modelech porovnávání vzorů ML/DL budou stále zakomponovány zkreslení.

Dalo by se tak trochu použít slavné nebo nechvalně známé pořekadlo o smetí-do odpadu-ven. Jde o to, že je to spíše podobné předsudkům – in, které se zákeřně prolínají, když se předsudky ponoří do AI. Algoritmus rozhodování (ADM) umělé inteligence je axiomaticky zatížen nerovnostmi.

Špatný.

Vraťme se k našemu zaměření na asymetrii umělé inteligence.

Rychlá rekapitulace mých výše uvedených tří doporučení je toto:

1) Uvědomte si, že asymetrie umělé inteligence existuje a roste

2) Snažte se zajistit, aby asymetrie AI byla omezena etikou AI

3) Pokuste se bojovat s asymetrií AI tím, že se vyzbrojíte AI

Blíže se podíváme na druhý bod hašení ohně ohněm.

Představte si, že když jste se snažili získat půjčku, měli jste AI, která pracovala na vaší straně. Může to být aplikace založená na umělé inteligenci na vašem smartphonu, která byla navržena pro získávání půjček. Není to aplikace jedné z bank a místo toho je nezávisle navržena tak, aby jednala vaším jménem. Tyto druhy aplikací jsem podrobně popsal ve své knize o robotech strážných andělů založených na umělé inteligenci, viz odkaz zde.

Při žádosti o půjčku se můžete na tuto aplikaci obrátit, když vás druhá AI projde procesem žádosti. Tyto dva systémy umělé inteligence jsou odlišné a zcela oddělené od sebe. Umělá inteligence ve vašem smartphonu byla „vycvičena“, aby znala všechny triky, které používá jiná AI. Odpovědi, které zadáte do AI banky, budou tedy vycházet z toho, co vám vaše AI radí.

Další varianta spočívá v tom, že vaše umělá inteligence odpovídá na otázky, které klade druhá umělá inteligence. Pokud se ostatní AI mohou přesvědčit, jste to vy, kdo zadává odpovědi. Místo toho můžete pouze sledovat, jak probíhá interakce mezi dvěma bojujícími systémy umělé inteligence. To vám umožní vidět, co vaše AI nabízí. Kromě toho můžete potenciálně upravit svou AI v závislosti na tom, zda jste spokojeni s tím, co vaše AI dělá vaším jménem.

Předpověděl jsem, že se všichni postupně vyzbrojíme AI, která bude v těchto situacích asymetrie AI na naší straně.

Zvažme, jak to dopadne.

Toto jsou základní kamenné dopady na podmínku asymetrie AI, které jsem stanovil:

  • Zploštění asymetrie AI ve váš prospěch (posouvá vás nahoru v naději, že dosáhnete stejných úrovní)
  • Podněcování asymetrie umělé inteligence ve svůj prospěch (zvyšuje vás ve výhodu, když už jste si rovni)
  • Posílení asymetrie umělé inteligence k vaší mimořádné přízni (získání širší výhody, když už ve výhodě)
  • Neúmyslné podříznutí asymetrie umělé inteligence k vaší nepřízni (když jste měli již existující výhodu a AI vás neúmyslně stáhla dolů)

Je čas se hluboce ponořit do těchto zajímavých možností.

Zploštění asymetrie AI ve váš prospěch

Zploštění asymetrie umělé inteligence je nejzřejmější a nejčastěji diskutovanou úvahou, totiž že byste se vyzbrojili umělou inteligencí, abyste se pokusili jít od špičky k patě s umělou inteligencí, kterou v dané věci používá druhá strana. Nastavení asymetrie umělé inteligence začalo s vámi v rozhodné nevýhodě. Neměl jsi ve svém rohu žádnou AI. Byl jsi na nízké straně věci. Druhá strana měla AI a byli na vyšší úrovni.

Proto jste se moudře vyzbrojili umělou inteligencí, která měla za cíl postavit vás a ostatní umělou inteligenci za stejných podmínek.

Jednou z důležitých a možná překvapivých nuancí, které je třeba mít na paměti, je, že ne vždy bude platit, že používané systémy umělé inteligence budou proti sobě vyvažovat rovnoměrně. Můžete se vyzbrojit AI, která je řekněme méně výkonná než AI, kterou používá druhá strana. V takovém případě jste naštěstí zvýšili svou zápornou pozici, i když si nyní nejste úplně rovni s druhou stranou a její AI.

To je důvod, proč to nazývám zploštěním asymetrie AI. Můžete být schopni zúžit mezeru, i když ne úplně uzavřít mezeru. Konečným cílem by bylo použití umělé inteligence na vaší straně, která vás přivede do zcela rovné pozice. Jde o to, že to může nebo nemusí být proveditelné. Druhá strana by mohla mít nějakou opravdu drahou AI a vy se snažíte konkurovat spořivé verzi AI pro mámu a pop.

Ne všechna AI je stejná.

Podněcování asymetrie umělé inteligence ve váš prospěch

Tato okolnost není dnes příliš diskutovaná, částečně proto, že je v současnosti vzácná. Jednou to bude běžné. Předpokládejme, že jste bez umělé inteligence, a přesto jste na stejné úrovni jako strana, která umělou inteligenci má.

Dobré pro tebe.

Lidé o nich mají svůj rozum.

Ale možná budete chtít získat výhodu nad druhou stranou. Když se vyzbrojíte AI, dostanete se na vyšší úroveň. Nyní máte svůj důvtip a svou důvěryhodnou AI v ruce. Získali jste výhodu, která pravděpodobně zvítězí nad AI druhé strany.

Posílení asymetrie umělé inteligence k vaší mimořádné přízni

Pokud použijete podobnou logiku jako aspekt podněcování asymetrie AI vaším jménem, ​​předpokládejme, že jste již nad schopnostmi druhé strany, která používá AI. Ergo, nezačínáte ve stejné pozici. Naštěstí jste již na horní straně.

Možná si budete chtít zajistit ještě větší výhodu. Proto se vyzbrojíte AI. Tím přenesete hlavu a ramena nad druhou stranu.

Neúmyslné podříznutí asymetrie AI k vaší nepřízni

Pochybuji, že o této možnosti chcete slyšet. Uvědomte si prosím, že jednání s umělou inteligencí není jen růže a zmrzlinové dorty.

Může se stát, že když se vyzbrojíte AI, ve skutečnosti se podřežete. Pokud jste již byli méně než AI na druhé straně, jste nyní dole v hlubší díře. Pokud jste byli za rovných podmínek, jste nyní v nevýhodě. Pokud jste byli nad druhou stranou, jste nyní rovni nebo pod ní.

Jak se to mohlo stát?

Možná budete šokováni, když si pomyslíte, že AI, kterou přijmete, vás svede z cesty. K tomu může snadno dojít. To, že máte ve svém rohu AI, neznamená, že je užitečná. Možná používáte AI a poskytuje rady, o kterých si nutně nemyslíte, že jsou vhodné, ale přesto se rozhodnete je použít. Vaše logika v té době byla taková, že když jste si dali tu práci, abyste získali AI, mohli byste se na ni také spolehnout.

AI, kterou používáte, může být vadná. Nebo to může být špatně vymyšlené. Existuje spousta důvodů, proč vám AI může dávat nejisté rady. Ti, kteří slepě přijímají cokoli, co jim AI říká, se musí ocitnout ve světě ublížení. Ve svém sloupku jsem pokryl takové nesnáze, jako např odkaz zde.

Pointa je, že neexistuje absolutně žádná záruka, že jen proto, že se vyzbrojíte AI, vyhrajete ve hře AI Asymmetry.

Můžete se dostat na rovné podmínky. Můžete získat výhodu. A bohužel musíte být opatrní, protože se může stát, že když jste vyzbrojeni umělou inteligencí, klesnete na nižší úrovně.

To je do určité míry důvod, proč je etika a etická umělá inteligence tak zásadním tématem. Předpisy etiky AI nás nutí zůstat ostražití. Technologové umělé inteligence mohou být občas zaneprázdněni technologií, zejména optimalizací špičkových technologií. Nezbytně nezvažují větší společenské důsledky. Mít etické myšlení v oblasti AI a dělat to nedílně pro vývoj a nasazení AI je zásadní pro vytváření vhodné AI.

Kromě používání etiky umělé inteligence existuje odpovídající otázka, zda bychom měli mít zákony, které by řídily různá použití umělé inteligence. Na federální, státní a místní úrovni se šíří nové zákony, které se týkají rozsahu a povahy toho, jak by měla být umělá inteligence navržena. Snaha navrhnout a přijmout takové zákony je postupná. Etika umělé inteligence slouží přinejmenším jako zvažovaná překážka a téměř jistě bude do určité míry přímo začleněna do těchto nových zákonů.

Uvědomte si, že někteří neústupně tvrdí, že nepotřebujeme nové zákony, které pokrývají AI, a že naše stávající zákony jsou dostatečné. Ve skutečnosti varují, že pokud uzákoníme některé z těchto zákonů AI, zabijeme zlatou husu tím, že potlačíme pokroky v AI, které nabízejí obrovské společenské výhody. Viz například moje pokrytí na odkaz zde a odkaz zde.

Vsadil bych se, že v tomto okamžiku této závažné diskuse si přejete nějaké ilustrativní příklady, které by toto téma mohly předvést. Existuje speciální a jistě oblíbený soubor příkladů, které jsou mému srdci blízké. Víte, jako odborník na AI včetně etických a právních důsledků jsem často žádán, abych určil realistické příklady, které předvádějí dilemata etiky AI, aby bylo možné snáze pochopit poněkud teoretickou povahu tématu. Jednou z nejvíce sugestivních oblastí, která živě prezentuje tento etický problém umělé inteligence, je příchod skutečně samořídících vozů založených na umělé inteligenci. To poslouží jako praktický příklad použití nebo příklad pro rozsáhlou diskusi na dané téma.

Zde je pak pozoruhodná otázka, která stojí za zamyšlení: Osvětluje příchod skutečně samořídících aut založených na umělé inteligenci něco o asymetrii umělé inteligence, a pokud ano, co to ukazuje?

Dovolte mi chvíli rozbalit otázku.

Za prvé, všimněte si, že ve skutečném samořídícím autě není žádný lidský řidič. Mějte na paměti, že skutečně samořídící auta jsou řízena systémem AI. Není potřeba, aby za volantem byl lidský řidič, ani neexistuje ustanovení, aby vozidlo řídil člověk. Pro mé rozsáhlé a průběžné pokrytí Autonomních vozidel (AV) a zejména samořiditelných vozů viz odkaz zde.

Rád bych dále objasnil, co je míněno, když mluvím o skutečných samořídících autech.

Porozumění úrovním samořídících automobilů

Pro upřesnění, skutečná samořídící auta jsou ta, kde AI řídí auto zcela samo a při řízení není žádná lidská pomoc.

Tato vozidla bez řidiče jsou považována za úroveň 4 a úroveň 5 (viz mé vysvětlení na adrese odkaz zde), zatímco vůz, který vyžaduje, aby se na řízení společně podílel lidský řidič, se obvykle považuje za úroveň 2 nebo úroveň 3. Vozy, které spolu sdílejí úkol řízení, jsou popsány jako semi-autonomní a obvykle obsahují různé automatizované doplňky, které se označují jako ADAS (Advanced Driver-Assistance Systems).

Na úrovni 5 ještě není skutečné auto s vlastním řízením a ještě ani nevíme, zda toho bude možné dosáhnout, ani jak dlouho bude trvat, než se tam dostaneme.

Mezitím se úsilí úrovně 4 postupně snaží získat určitou trakci tím, že podstupují velmi úzké a selektivní testy na veřejných komunikacích, ačkoli existuje spor o to, zda by toto testování mělo být povoleno jako takové (všichni jsme pokusnými pokusnými králíky na život a na smrt odehrávající se na našich dálnicích a vedlejších cestách, někteří tvrdí, viz moje zpravodajství na odkaz zde).

Protože poloautonomní auta vyžadují řidiče, přijetí těchto typů automobilů se nebude výrazně lišit od řízení konvenčních vozidel, takže o tomto tématu není samo o sobě nic nového (jak vidíte, uvidíte) za okamžik jsou obecně použitelné následující body).

U poloautonomních automobilů je důležité, aby veřejnost musela být upozorněna na znepokojující aspekt, který se objevuje v poslední době, a to navzdory těm lidským řidičům, kteří neustále vysílají videa, která usínají za volantem auta úrovně 2 nebo 3 , všichni se musíme vyhnout tomu, aby byli uvedeni v omyl v přesvědčení, že řidič může odvrátit jejich pozornost od úkolu řízení při řízení poloautonomního automobilu.

Jste odpovědnou stranou za řízení vozidla, bez ohledu na to, kolik automatizace může být hodeno do úrovně 2 nebo úrovně 3.

Samořídící Auta A Asymetrie AI

U vozidel s vlastním řízením úrovně 4 a 5 nebude do řízení zapojen lidský řidič.

Všichni cestující budou cestující.

AI řídí.

Jedním z aspektů, které je třeba okamžitě projednat, je skutečnost, že umělá inteligence zapojená do dnešních řídicích systémů umělé inteligence není vnímavá. Jinými slovy, AI je celkově kolektiv počítačového programování a algoritmů a nejspíše není schopen uvažovat stejným způsobem jako lidé.

Proč je tento dodatečný důraz na to, aby AI nebyla vnímavá?

Protože chci zdůraznit, že při diskusi o roli řídícího systému AI nepřičítám AI lidské vlastnosti. Uvědomte si, že v dnešní době existuje trvalá a nebezpečná tendence k antropomorfizaci AI. V zásadě lidé dnešní AI připisují lidskou vnímavost, a to navzdory nepopiratelné a nepopiratelné skutečnosti, že taková AI dosud neexistuje.

S tímto vysvětlením si můžete představit, že systém řízení AI nebude nativně nějak „vědět“ o aspektech řízení. Řízení a vše, co to obnáší, bude muset být naprogramováno jako součást hardwaru a softwaru samořízeného automobilu.

Pojďme se ponořit do nesčetných aspektů, které na toto téma hrají.

Zaprvé je důležité si uvědomit, že ne všechna samořídící auta s umělou inteligencí jsou stejná. Každá automobilka a technologická firma s vlastním řízením přistupuje k navrhování samořídících vozů. Jako takové je obtížné činit rozsáhlá prohlášení o tom, co budou či nebudou dělat řídicí systémy AI.

Kromě toho, kdykoli uvedou, že řídící systém AI nedělá nějakou konkrétní věc, může to později předběhnout vývojáři, kteří ve skutečnosti naprogramují počítač, aby udělal právě tuto věc. Krok za krokem se postupně zdokonalují a rozšiřují systémy řízení AI. Stávající omezení dnes již nemusí existovat v budoucí iteraci nebo verzi systému.

Doufám, že to poskytuje dostatečnou litanii upozornění, která podpoří to, co se chystám vylíčit.

Pojďme si načrtnout scénář, který ukazuje asymetrii umělé inteligence.

Zamyslete se nad zdánlivě bezvýznamnou záležitostí, kde se budou samořídící auta toulat a nabírat cestující. Zdá se mi to jako celkem neškodné téma.

Nejprve předpokládejme, že samořídící auta s umělou inteligencí budou jezdit po celých městech. Každý, kdo chce požádat o svezení samořiditelným vozem, má v podstatě stejnou šanci, že ho zavolá. Umělá inteligence postupně začíná primárně držet samořídící auta toulající se jen v jedné části města. Tato sekce je větší výdělek a AI byla naprogramována tak, aby se snažila a maximalizovat výnosy jako součást využití v komunitě obecně (to podtrhuje myšlení, které je základem optimalizace, konkrétně zaměření pouze na jednu konkrétní metriku a zanedbávání dalších klíčových faktorů v procesu).

U členů komunity v chudých částech města je méně pravděpodobné, že se budou moci svézt samořídícím autem. Je to proto, že samořídící auta byla dále a pohybovala se v části města s vyššími příjmy. Když přijde požadavek ze vzdálené části města, bude mít jakýkoli jiný požadavek z bližšího místa vyšší prioritu. Nakonec je dostupnost samořídícího auta kdekoli jinde než v bohatší části města téměř nemožná, což je k popukání pro ty, kteří žili v oblastech, kde nyní chybí zdroje.

Vychvalované sny o mobilitě pro všechny, které mají samořídící auta přivést k životu, vyplouvají na povrch.

Dalo by se tvrdit, že AI zcela přistála na formě statistického a výpočetního zkreslení, podobné formě zástupné diskriminace (také často označované jako nepřímá diskriminace). Uvědomte si, že AI nebyla naprogramována tak, aby se vyhnula těm chudším čtvrtím. V tomto případě si to ujasněme. Ne, místo toho byl navržen tak, aby pouze optimalizoval příjmy, což je zdánlivě přijatelný cíl, ale bylo to provedeno, aniž by vývojáři AI uvažovali o dalších potenciálních důsledcích. Tato optimalizace zase nevědomky a nevyhnutelně vedla k nežádoucímu výsledku.

Kdyby do svého optimalizačního myšlení zahrnuli úvahy o etice umělé inteligence, mohli by si předem uvědomit, že pokud nevytvoří AI tak, aby se vyrovnala s tímto druhem předimenzování pouze na jedné metrice, mohli by odvrátit takové kruté výsledky. Další informace o těchto typech problémů, které pravděpodobně způsobí rozšířené přijetí autonomních vozidel a aut s vlastním řízením, naleznete v mém pokrytí na odkaz zde, popisující studii vedenou Harvardem, kterou jsem o těchto tématech napsal jako spoluautor.

V každém případě předpokládejte, že kůň je již venku ze stáje a situace není okamžitě přístupná zastřešujícím řešením.

Co mohou dělat ti, kteří chtějí používat tato samořídící auta?

Nejviditelnějším přístupem by byla spolupráce s lídry komunity na tom, aby automobilka nebo technologická firma s vlastním pohonem přehodnotila, jak nastavili AI. Možná vyvinout tlak na jakékoli licence nebo povolení, která byla udělena pro nasazení těchto samořídících vozů v daném městě nebo obci. To jsou pravděpodobně životaschopné prostředky k dosažení pozitivních změn, i když to může chvíli trvat, než toto úsilí přinese ovoce.

Dalším úhlem pohledu by bylo vyzbrojit se AI.

Představte si, že někdo chytře vymyslel aplikaci založenou na umělé inteligenci, která funguje na vašem smartphonu a zabývá se umělou inteligencí automobilky nebo provozovatele vozového parku, který přijímá požadavky na jízdy. Může se stát, že AI, kterou používáte, využívá klíčové prvky jiné AI, takže váš požadavek na auto s vlastním řízením má zvýšenou prioritu. Všimněte si, že nenaznačuji, že se děje něco nezákonného, ​​ale místo toho byla AI na vaší straně vyvinuta na základě objevených „vlastností“ nebo dokonce mezer v jiné AI.

Proč investovat do čističky vzduchu?

Příběh o drzém boji proti umělé inteligenci provozovatele vozového parku samořídících vozů tím, že se vyzbrojí umělou inteligencí, přináší další kontroverze a úvahy o etice umělé inteligence.

Například:

  • Pokud může jeden člověk využít AI k tomu, aby mu poskytl výhodu nad AI nějakého jiného systému, jak daleko to může zajít z hlediska možného překročení hranic etiky AI (přesvědčuji samořídící auta, aby přijeli ke mně a mým přátelům, s vyloučením všech ostatních)?
  • Existuje také zdání etiky umělé inteligence, že pokud někdo ví o umělé inteligenci nebo je jí vyzbrojen, aby mohl bojovat s jinou umělou inteligencí, měli by ti zbývající lidé, kteří tuto vyvažující umělou inteligenci nemají, být na umělou inteligenci nějak upozorněni a byli by schopni se vyzbrojit? podle toho taky?

To vše nás nakonec zavede do budoucnosti, která se zdá být děsivá, spočívající v závodech ve zbrojení AI. Kdo bude mít AI, kterou potřebuje, aby se obešel a přežil, a kdo ne? Bude vždy existovat další AI, která se objeví a podnítí potřebu vyvažující AI?

Carl Sagan, uctívaný vědec, poskytl tuto moudrou moudrost o zvláště kataklyzmatických závodech ve zbrojení: „Závody v jaderném zbrojení jsou jako dva zapřisáhlí nepřátelé stojící po pás v benzínu, jeden má tři zápalky a druhý pět.

Musíme se rozhodně zaměřit na to, abychom udrželi nohy v suchu a čistou hlavu, když dojde na stále se blížící závody ve zbrojení s umělou inteligencí.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/08/19/ai-ethics-wary-about-worsening-of-ai-asymmetry-amid-humans-getting-the-short-end- of-the-stick/