Etika umělé inteligence a právo umělé inteligence Pokládání tvrdých otázek ohledně tohoto nového slibu od tanečních výrobců robotů, kteří říkají, že odvrátí zbraňování umělé inteligence

Možná jste minulý týden viděli ve zprávách nebo si všimli na sociálních sítích oznámený slib některých výrobců robotů o jejich proklamovaných cílech vyhnout se AI zbraním univerzálních robotů. Za chvíli vás provedu podrobnostmi, takže se nebojte, pokud jste věc nezachytili.

Reakce na toto prohlášení byla rychlá a, možná jako obvykle v naší polarizované společnosti, byla pochvalná a někdy i posměšně kritická nebo přímo ošklivě skeptická.

Je to příběh dvou světů.

V jednom světě někteří říkají, že to je přesně to, co potřebujeme odpovědný Vývojáři robotů AI prohlásit.

Díky bohu, že jste na správné straně problému, který bude postupně stále viditelnější a znepokojivější. Tito roztomilí tančící roboti jsou znepokojující, protože je docela snadné je přenastavit, aby mohli nosit zbraně a být používáni tím nejhorším způsobem (můžete se o tom sami přesvědčit na sociálních sítích a existuje spousta videí, která ukazují tančící roboty vyzbrojené kulomety a jiná výzbroj).

Druhá strana této mince říká, že takzvaná zástava není nic jiného než marketingový nebo public relations trik (poznámka na okraj, zná někdo rozdíl mezi zástavou a darem?). Pochybovači každopádně nabádají, že jde o bezuzdnou signalizaci ctnosti v kontextu tančících robotů. Víte, naříkat nad tím, že univerzální roboti mohou být vybaveni zbraněmi, je jistě cenná a vážně vyhledávaná úvaha, i když pouhé tvrzení, že to výrobce neudělá, je pravděpodobně planý slib, někteří trvají na tom.

Celkově vzato, celá záležitost přináší poměrně obsáhlý soubor etiky a zákona o umělé inteligenci. Pečlivě rozbalíme téma a uvidíme, jak se jedná o dvojitou ránu etického a legálního bahna AI. Pro mé průběžné a rozsáhlé pokrytí etiky AI a práva AI viz odkaz zde a odkaz zde, Abychom jmenovali jen několik.

Během této diskuse budu také odkazovat na své předchozí analýzy nebezpečí AI zbraní, jako je moje hloubkové posouzení na odkaz zde. Možná se budete chtít podívat na tento diskurz, kde najdete další podrobnosti ze zákulisí.

Otevřený dopis, který otevírá plechovku červů

Začněme tuto analýzu podrobným prozkoumáním otevřeného dopisu, který nedávno zveřejnilo šest relativně známých pokročilých výrobců robotů, jmenovitě Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics a Unitree. Celkově se domnívám, že jste viděli hlavně roboty Boston Dynamics, jako jsou ti, kteří poskakují po čtyřech. Vypadají, jako by byli psí, a my si užíváme, když je vidíme pobíhat kolem.

Jak jsem již dříve a opakovaně varoval, použití takových „tančících“ robotů jako prostředku k přesvědčování široké veřejnosti, že tito roboti jsou roztomilí a rozkošní, je bohužel zavádějící a obrací se do hojných úskalí jejich antropomorfizace. Začneme přemýšlet o těchto tvrzených kusech kovu a plastu, jako by byly ekvivalentem mazlivého věrného psa. Naše ochota přijmout tyto roboty je založena na falešném pocitu bezpečí a jistoty. Jistě, musíte vydělat peníze a šance, že to uděláte, jsou zvýšeny pochodováním kolem tančících robotů, ale to bohužel opomíjí nebo zdánlivě zakrývá skutečnou skutečnost, že tito roboti jsou roboti a že umělá inteligence, která je ovládá, může být vymyšlena nesprávně. nebo jít stranou.

Zvažte tyto důsledky AI (výňatek z mého článku o AI zbraních, který najdete na odkaz zde):

  • AI může narazit na chybu, která způsobí, že se ztratí
  • Umělá inteligence může být zahlcena a zablokování nebude reagovat
  • AI může obsahovat vývojářské chyby, které způsobují nevyzpytatelné chování
  • Umělá inteligence může být poškozena implantovaným virem zla
  • Umělá inteligence může být převzata kyberhackery v reálném čase
  • AI může být považována za nepředvídatelnou kvůli složitosti
  • AI může výpočetně učinit „špatné“ rozhodnutí (relativně)
  • Atd.

To jsou body týkající se umělé inteligence, která je skutečně navržena hned na začátku, aby udělala správnou věc.

Kromě těchto úvah musíte zahrnout systémy umělé inteligence vytvořené od počátku, aby dělaly špatné věci. Můžete mít AI, která je vytvořena pro prospěšné účely, často označovaná jako AI pro dobro. Můžete také mít AI, která je záměrně vytvořena pro špatné účely, tzv AI pro špatné. Kromě toho můžete mít AI pro dobro která je poškozena nebo přestavěna do podoby AI pro špatné.

Mimochodem, nic z toho nemá nic společného s tím, že se AI stává vnímavou, což zmiňuji, protože někteří neustále vykřikují, že dnešní umělá inteligence je buď vnímavá, nebo je na pokraji být vnímavá. Není tak. Rozebírám tyto mýty ve své analýze na odkaz zde.

Ujistíme se tedy, že jsme na stejné vlně ohledně povahy dnešní umělé inteligence.

Dnes neexistuje žádná AI, která by byla vnímavá. Tohle my nemáme. Nevíme, zda bude vnímající AI možná. Nikdo nemůže výstižně předpovědět, zda dosáhneme vnímající AI, ani zda se vnímající AI nějakým zázrakem spontánně objeví ve formě výpočetní kognitivní supernovy (obvykle označované jako singularita, viz moje pokrytí na odkaz zde).

Typ AI, na který se zaměřuji, se skládá z necítivé AI, kterou máme dnes. Pokud bychom chtěli divoce spekulovat o vnímavé AI, mohla by se tato diskuse ubírat radikálně jiným směrem. Vnímavá AI by měla mít lidské kvality. Měli byste vzít v úvahu, že vnímající AI je kognitivní ekvivalent člověka. Navíc, protože někteří spekulují, že bychom mohli mít superinteligentní AI, je možné si představit, že taková AI by mohla být chytřejší než lidé (pro můj průzkum superinteligentní AI jako možnosti viz. pokrytí zde).

Důrazně bych navrhoval, abychom věci drželi při zemi a zvážili dnešní výpočetní necitlivou AI.

Uvědomte si, že dnešní umělá inteligence není schopna „myslet“ žádným způsobem na stejné úrovni jako lidské myšlení. Když komunikujete s Alexou nebo Siri, konverzační schopnosti se mohou zdát podobné lidským schopnostem, ale skutečnost je taková, že jsou výpočetní a postrádají lidské poznání. Nejnovější éra umělé inteligence široce využívá strojové učení (ML) a hluboké učení (DL), které využívají porovnávání výpočetních vzorů. To vedlo k systémům umělé inteligence, které vypadají jako lidské sklony. Mezitím dnes neexistuje žádná umělá inteligence, která by měla zdání zdravého rozumu, ani žádný z kognitivních zázraků robustního lidského myšlení.

Buďte velmi opatrní při antropomorfizaci dnešní AI.

ML/DL je forma porovnávání výpočetních vzorů. Obvyklý přístup je takový, že shromažďujete data o úloze rozhodování. Data vkládáte do počítačových modelů ML/DL. Tyto modely se snaží najít matematické vzorce. Po nalezení takových vzorů, pokud jsou nalezeny, systém umělé inteligence tyto vzory použije, když narazí na nová data. Po předložení nových dat se pro vykreslení aktuálního rozhodnutí použijí vzory založené na „starých“ nebo historických datech.

Myslím, že můžete hádat, kam to směřuje. Pokud lidé, kteří se rozhodovali podle vzoru, začlenili nežádoucí předsudky, je pravděpodobné, že data to odrážejí jemnými, ale významnými způsoby. Počítačové porovnávání vzorů Machine Learning nebo Deep Learning se jednoduše pokusí odpovídajícím způsobem matematicky napodobit data. Neexistuje žádné zdání zdravého rozumu nebo jiných vnímavých aspektů modelování vytvořeného umělou inteligencí jako takového.

Kromě toho si vývojáři AI nemusí uvědomit, co se děje. Tajemná matematika v ML/DL může ztížit odhalení nyní skrytých předsudků. Oprávněně byste doufali a očekávali, že vývojáři umělé inteligence budou testovat potenciálně pohřbené předsudky, i když je to složitější, než by se mohlo zdát. Existuje solidní šance, že i přes poměrně rozsáhlé testování, že v modelech porovnávání vzorů ML/DL budou stále zakomponovány zkreslení.

Dalo by se tak trochu použít slavné nebo nechvalně známé pořekadlo o smetí-do odpadu-ven. Jde o to, že je to spíše podobné předsudkům – in, které se zákeřně prolínají, když se předsudky ponoří do AI. Algoritmus rozhodování (ADM) umělé inteligence je axiomaticky zatížen nerovnostmi.

Špatný.

To vše má pozoruhodně významné důsledky pro etiku umělé inteligence a nabízí praktické okno do získaných lekcí (dokonce ještě předtím, než k nim dojde), pokud jde o pokusy o uzákonění umělé inteligence.

Kromě toho, že obecně používáme etické zásady AI, existuje odpovídající otázka, zda bychom měli mít zákony, které by řídily různá použití AI. Na federální, státní a místní úrovni se šíří nové zákony, které se týkají rozsahu a povahy toho, jak by měla být umělá inteligence navržena. Snaha navrhnout a přijmout takové zákony je postupná. Etika umělé inteligence slouží přinejmenším jako zvažovaná překážka a téměř jistě bude do určité míry přímo začleněna do těchto nových zákonů.

Uvědomte si, že někteří neústupně tvrdí, že nepotřebujeme nové zákony, které pokrývají AI, a že naše stávající zákony jsou dostatečné. Varují, že pokud uzákoníme některé z těchto zákonů AI, zabijeme zlatou husu tím, že potlačíme pokroky v AI, které nabízejí obrovské společenské výhody.

V předchozích sloupcích jsem pokryl různé národní a mezinárodní snahy o vytvoření a uzákonění zákonů regulujících umělou inteligenci, viz odkaz zde, například. Zabýval jsem se také různými principy a směrnicemi etiky AI, které různé národy identifikovaly a přijaly, včetně například úsilí OSN, jako je soubor etiky AI UNESCO, který přijalo téměř 200 zemí, viz. odkaz zde.

Zde je užitečný základní seznam etických kritérií nebo charakteristik AI systémů AI, které jsem dříve podrobně prozkoumal:

  • Průhlednost
  • Spravedlnost a férovost
  • Neškodlivost
  • Odpovědnost
  • Ochrana osobních údajů
  • Dobročinnost
  • Svoboda a autonomie
  • Věřte
  • udržitelnost
  • Důstojnost
  • Solidarita

Předpokládá se, že tyto zásady etiky AI budou vážně využívat vývojáři AI spolu s těmi, kteří řídí úsilí o vývoj AI, a dokonce i ti, kteří nakonec používají a provádějí údržbu systémů AI.

Všechny zúčastněné strany během celého životního cyklu vývoje a používání AI jsou posuzovány v rámci dodržování zavedených norem etické AI. To je důležité upozornit, protože obvyklý předpoklad je, že „pouze kodéři“ nebo ti, kteří programují AI, podléhají dodržování etických pojmů AI. Jak bylo zdůrazněno výše, k vymýšlení a nasazení umělé inteligence je zapotřebí vesnice, přičemž celá vesnice musí být zběhlá a dodržovat etické předpisy AI.

Nyní, když jsem položil užitečný základ pro vstup do Otevřeného dopisu, jsme připraveni se do toho ponořit.

Oficiální název otevřeného dopisu je tento:

  • "Otevřený dopis robotickému průmyslu a našim komunitám, roboti pro všeobecné použití by neměli být zbrojeni“ (jak je zveřejněno online).

Tak daleko, tak dobrý.

Název skoro vypadá jako zmrzlina a jablečný koláč. Jak by to někdo mohl zpochybnit jako dřívější výzvu, aby se vyhnul AI robotům?

Čtěte dále a uvidíte.

Nejprve jako krmivo ke zvážení zde je oficiální úvodní odstavec otevřeného dopisu:

  • „Jsme některé z předních světových společností, které se věnují zavádění nových generací pokročilé mobilní robotiky do společnosti. Tyto nové generace robotů jsou dostupnější, snadněji ovladatelné, autonomnější, cenově dostupnější a přizpůsobivější než předchozí generace a jsou schopné navigace do míst, která byla dříve nepřístupná pro automatizované nebo dálkově ovládané technologie. Věříme, že pokročilí mobilní roboti přinesou velké výhody společnosti jako spolupracovníkům v průmyslu a společníkům v našich domovech“ (podle zveřejnění online).

Sluneční stránkou nástupu těchto typů robotů je, že můžeme očekávat, že se objeví spousta skvělých výhod. O tom není pochyb. Možná máte doma robota, který může dělat činnosti podobné Jetsonovi, jako je úklid vašeho domu, mytí nádobí a další domácí práce. Budeme mít pokročilé roboty pro použití v továrnách a výrobních zařízeních. Roboti se mohou potenciálně plazit nebo manévrovat do stísněných prostorů, například když se zřítí budova a jsou v sázce lidské životy, aby byly zachráněny. A tak dále.

Kromě toho by vás mohlo zajímat mé nedávné kritické zpravodajství o Tesla AI Day, na kterém Elon Musk vylíčil některé druhy chodících robotů jako budoucnost Tesly a společnosti, viz. odkaz zde.

Zpět k projednávané věci. Když vážně diskutujeme o tančících robotech nebo chodících robotech, musíme pečlivě vzít v úvahu kompromisy nebo celkovou ROI (návratnost investic) tohoto použití AI. Neměli bychom dovolit, abychom se přehnaně zamilovali do výhod, když je třeba zvážit i náklady.

Nová lesklá hračka může mít ostré hrany.

To vše podněcuje důležitý, ale poněkud tichý bod, že část důvodu, proč nyní vyvstává problém AI zbraní, je způsobena pokrokem AI směrem k autonomní činnosti. Obvykle jsme očekávali, že zbraně jsou obecně ovládány lidmi. Člověk se rozhoduje, zda vystřelit nebo použít zbraň. Pravděpodobně můžeme volat toho člověka k odpovědnosti za své činy.

Umělá inteligence, která je navržena tak, aby fungovala autonomně nebo kterou lze oklamat, aby to udělala, by zdánlivě vyřadila člověka ze smyčky. Umělá inteligence pak algoritmicky provádí výpočetní rozhodnutí, která mohou skončit zabitím nebo poškozením lidí. Kromě zřejmých obav z nedostatku kontroly nad AI máte také výčitky, že bychom mohli mít složitý čas připínat odpovědnost za činy AI. Nemáme člověka, který by byl naším zjevným podněcovatelem.

Uvědomuji si, že někteří věří, že bychom měli jednoduše a přímo činit AI zodpovědnou za její činy, jako by AI dosáhla uvědomění nebo jí byla jinak udělena právnická osoba (viz moje zpravodajství o debatách o AI získávání právnické osoby na odkaz zde). To zatím nepůjde. Budeme muset vysledovat AI k lidem, kteří ji vymysleli nebo ji postavili. Nepochybně se pokusí legálně vyhnout odpovědnosti tím, že se pokusí tvrdit, že AI šla nad rámec toho, co si představovali. Toto je narůstající spor, se kterým se musíme vypořádat (viz moje spisy o zákonu AI, kde jsou informace o sporných otázkách).

Organizace spojených národů (OSN) prostřednictvím Úmluvy o určitých konvenčních zbraních (CCW) v Ženevě stanovila jedenáct nezávazných hlavních zásad pro smrtící autonomní zbraně, jak uvádí oficiální zpráva zveřejněná online (zahrnující odkazy na příslušné mezinárodní humanitární právo nebo ustanovení o mezinárodní humanitární pomoci) , počítaje v to:

a) mezinárodní humanitární právo se nadále plně vztahuje na všechny zbraňové systémy, včetně potenciálního vývoje a použití smrtících autonomních zbraňových systémů;

(b) Lidská odpovědnost za rozhodnutí o použití zbraňových systémů musí být zachována, protože odpovědnost nelze přenést na stroje. To by mělo být zváženo v průběhu celého životního cyklu zbraňového systému;

c) Interakce mezi člověkem a strojem, která může mít různé formy a může být prováděna v různých fázích životního cyklu zbraně, by měla zajistit, že potenciální použití zbraňových systémů založených na nových technologiích v oblasti smrtících autonomních zbraňových systémů dodržování platného mezinárodního práva, zejména mezinárodního humanitárního práva. Při určování kvality a rozsahu interakce člověk-stroj by měla být zvážena řada faktorů včetně operačního kontextu a charakteristik a schopností zbraňového systému jako celku;

d) Odpovědnost za vývoj, rozmístění a používání jakéhokoli nově vznikajícího zbraňového systému v rámci CCW musí být zajištěna v souladu s platným mezinárodním právem, a to i prostřednictvím provozu takových systémů v rámci odpovědného řetězce lidského velení a kontroly;

(e) V souladu se závazky států podle mezinárodního práva musí být při studiu, vývoji, získávání nebo přijímání nové zbraně, prostředku nebo způsobu vedení války stanoveno, zda by její použití za určitých nebo všech okolností bylo zakázáno mezinárodním právem;

f) při vývoji nebo získávání nových zbraňových systémů založených na nových technologiích v oblasti smrtících autonomních zbraňových systémů, fyzické bezpečnosti, vhodných nefyzických zárukách (včetně kybernetické bezpečnosti proti hackerům nebo falšování dat), riziko získání teroristickými skupinami a je třeba zvážit riziko šíření;

g) Posouzení rizik a opatření ke zmírnění by měla být součástí cyklu navrhování, vývoje, testování a zavádění nově vznikajících technologií v jakýchkoli zbraňových systémech;

h) mělo by být zváženo použití nově vznikajících technologií v oblasti smrtících autonomních zbraňových systémů při prosazování souladu s mezinárodním humanitárním právem a dalšími platnými mezinárodními právními závazky;

(i) Při vytváření potenciálních politických opatření by nové technologie v oblasti smrtících autonomních zbraňových systémů neměly být antropomorfizovány;

j) Diskuse a jakákoli případná politická opatření přijatá v rámci CCW by neměla bránit pokroku v mírovém využití inteligentních autonomních technologií nebo přístupu k němu;

k) CCW nabízí vhodný rámec pro řešení otázky vznikajících technologií v oblasti smrtících autonomních zbraňových systémů v kontextu cílů a účelů úmluvy, která se snaží nalézt rovnováhu mezi vojenskou nezbytností a humanitárními ohledy.

Tyto a další různé válečné zákony a zákony o ozbrojených konfliktech neboli IHL (Mezinárodní humanitární zákony) slouží jako zásadní a vždy slibný průvodce k úvahám o tom, co bychom se mohli pokusit udělat s příchodem autonomních systémů, které jsou vybaveny zbraněmi, ať už základním kamenem. designem nebo následnými metodami.

Někteří říkají, že bychom měli přímo zakázat ty autonomní systémy AI, které lze použít jako zbraně. Je to tak, svět by měl sešlápnout nohu a důrazně požadovat, aby autonomní systémy AI nebyly nikdy ozbrojeny. Má být uložen úplný zákaz. Konec příběhu. Tečka, tečka.

Můžeme si upřímně přát, aby byl přísně a poslušně dodržován zákaz smrtících zbraňových autonomních systémů. Problém je v tom, že v kterémkoli z nejupřímnějších zákazů se nutně najde spousta prostoru pro pohyb. Jak se říká, pravidla jsou od toho, aby se porušovala. Můžete se vsadit, že tam, kde jsou věci rozvláčné, bude riff vypátrat mezery a pokusit se obejít pravidla.

Zde jsou některé potenciální mezery, které stojí za zvážení:

  • Nároky na nesmrtící. Vytvářejte nesmrtící autonomní zbraňové systémy (zdánlivě v pořádku, protože je mimo hranice zákazu), které pak můžete s nepatrným posunem stát se smrtícími (za zákazem se dostanete až na poslední chvíli).
  • Pouze nároky na autonomní systém. Dodržujte zákaz tím, že nevytváříte autonomní systémy zaměřené na smrt, mezitím udělejte co největší pokrok ve vymýšlení každodenních autonomních systémů, které (zatím) nejsou ozbrojeny, ale které můžete za desetník předělat na zbraně.
  • Tvrzení, že není integrován jako jeden. Vytvářejte autonomní systémy, které nejsou vůbec ozbrojené, a až přijde čas, přibalte zbraně, takže se můžete pokusit vehementně tvrdit, že jde o dva samostatné prvky, a proto tvrdit, že nespadají do kategorie vše v jednom. autonomní zbraňový systém nebo jeho bratranec.
  • Tvrdí, že není autonomní. Vytvořte zbraňový systém, který se nezdá být autonomní. Nechte v tomto pravděpodobně neautonomním systému prostor pro zapojení autonomie založené na umělé inteligenci. V případě potřeby zapojte autonomii a jste připraveni házet (do té doby jste zdánlivě zákaz neporušovali).
  • Ostatní

Existuje mnoho dalších vyjádřených potíží se snahou o úplný zákaz smrtících autonomních zbraňových systémů. Uvedu několik dalších z nich.

Někteří učenci tvrdí, že zákaz není zvláště užitečný a místo toho by měla existovat regulační ustanovení. Myšlenka je taková, že tyto výmysly budou povoleny, ale budou přísně hlídány. Je stanovena litanie zákonných použití spolu se zákonnými způsoby cílení, zákonnými typy schopností, zákonnou proporcionalitou a podobně.

Podle jejich názoru je přímý zákaz jako strčit hlavu do písku a předstírat, že slon v místnosti neexistuje. Toto tvrzení však přivádí krev do varu těm, kteří odporují argumentu, že zavedením zákazu jste schopni dramaticky snížit jinak pokušení prosazovat tyto druhy systémů. Jistě, někteří se budou ohánět zákazem, ale alespoň doufejme, že většina ne. Pak můžete zaměřit svou pozornost na chvástání a nemusíte štěpit svou pozornost na všechny.

Tyto debaty se točí kolem dokola.

Další často zmiňovanou obavou je, že i když dobří zákaz dodrží, špatní ne. To staví dobro do mizerného držení těla. Zlí budou mít tyto druhy zbraňových autonomních systémů a dobří ne. Jakmile se ukáže, že je mají ti zlí, bude příliš pozdě na to, aby je dohnali dobří. Stručně řečeno, jediná chytrá věc, kterou musíte udělat, je připravit se na boj s ohněm.

Existuje také klasický odstrašující spor. Pokud se dobří rozhodnou vytvořit zbraňové autonomní systémy, může to být použito k tomu, aby odradilo zlé od snahy dostat se do rvačky. Buď budou dobří lépe vyzbrojeni, a tím odradit zlé, nebo budou dobří připraveni, až zlí možná odhalí, že tyto systémy celou dobu tajně vymýšleli.

Protikladem k těmto počítadlům je, že vytvářením zbraňových autonomních systémů vedete závody ve zbrojení. Druhá strana bude usilovat o totéž. I když nejsou technologicky schopni vytvořit takové systémy znovu, budou nyní schopni ukrást plány těch „dobrých“, zpětně analyzovat vnitřnosti high-tech nebo napodobit vše, co považují za osvědčené a osvědčené. způsob, jak dokončit práci.

Aha, nějaká replika, to vše by mohlo vést k omezení konfliktů zdáním vzájemného. Pokud strana A ví, že strana B má tyto smrtící autonomní systémy zbraní, a strana B ví, že strana A je má, mohou sedět pevně a nedostanou se do rány. To má zvláštní auru vzájemně zaručené destrukce (MAD) vibrací.

A tak dále.

Při pohledu zblízka na druhý odstavec

Zde jsme již probrali spoustu věcí a zatím jsme se zabývali pouze prvním nebo úvodním odstavcem Otevřeného dopisu (celkem jsou čtyři odstavce).

Je čas podívat se na druhý odstavec, tady to je:

  • „Stejně jako u každé nové technologie nabízející nové schopnosti nabízí vznik pokročilých mobilních robotů možnost zneužití. Nedůvěryhodní lidé by je mohli použít k narušení občanských práv nebo k vyhrožování, poškození nebo zastrašování ostatních. Jednou z oblastí zvláštního zájmu je zbrojení. Domníváme se, že přidávání zbraní k robotům, kteří jsou dálkově nebo autonomně řízeni, jsou široce dostupné veřejnosti a jsou schopni navigovat do dříve nepřístupných míst, kde lidé žijí a pracují, přináší nová rizika poškození a vážné etické problémy. Ozbrojené aplikace těchto nově schopných robotů také poškodí důvěru veřejnosti v technologii způsobem, který poškodí obrovské výhody, které přinesou společnosti. Z těchto důvodů nepodporujeme zbrojení našich univerzálních robotů s pokročilou mobilitou. Pro ty z nás, kteří jsme o této otázce hovořili v minulosti, a pro ty, kdo se zapojili poprvé, nyní cítíme obnovenou naléhavost ve světle rostoucího znepokojení veřejnosti v posledních měsících způsobeného malým počtem lidí, kteří viditelně zveřejnili své provizorní úsilí o vyzbrojení komerčně dostupných robotů“ (podle zveřejnění online).

Po přečtení druhého odstavce doufám, že můžete vidět, jak se můj dřívější projev o AI zbraních dostává do popředí.

Podívejme se na několik dalších bodů.

Jedním z pochybností ohledně konkrétního aspektu formulace, který některým vyvolal rozpaky, je, že se zdá, že vyprávění zdůrazňuje, že „nedůvěryhodní lidé“ by mohli tyto roboty umělé inteligence zneužít. Ano, skutečně to mohou být špatní lidé nebo zločinci, kteří způsobí podlé činy, které „zneužijí“ AI roboty.

Zároveň, jak bylo zdůrazněno na začátku této diskuse, musíme také objasnit, že samotná AI by se mohla pokazit, možná kvůli vloženým chybám nebo chybám a dalším podobným komplikacím. Vyjádřená obava je pouze zdůrazňování šancí nedůvěryhodní lidé je, že se zdá, že ignoruje další nepříznivé možnosti. Ačkoli to většina společností a prodejců s umělou inteligencí nerada přiznává, existuje velké množství problémů se systémy umělé inteligence, které mohou snížit bezpečnost a spolehlivost autonomních systémů. Mé pokrytí bezpečnosti umělé inteligence a potřeby přísných a prokazatelných záruk viz odkaz zde, například.

Další pozoruhodný bod, který se objevil mezi těmi, kteří zkoumali otevřený dopis, zahrnuje zahrnuté tvrzení, že by mohlo skončit podkopání důvěry veřejnosti spojené s roboty AI.

Na jednu stranu je to platné tvrzení. Pokud jsou AI roboti zvyklí dělat zlé nabídky, můžete se vsadit, že veřejnost bude docela paf. Když se veřejnost dostane do varu, můžete se vsadit, že zákonodárci skočí do nájezdu a budou se snažit uzákonit zákony, které zadrží roboty AI a výrobce robotů AI. To by zase mohlo ochromit průmysl robotiky s umělou inteligencí, pokud budou zákony všezahrnující, a zastavit úsilí zahrnující výhody robotů s umělou inteligencí. V jistém smyslu by dítě mohlo být vyhozeno spolu s vodou ve vaně (starý výraz, který si pravděpodobně zaslouží být v důchodu).

Zřejmá otázka také zní, zda je toto tvrzení o odvrácení snížení důvěry veřejnosti v roboty s umělou inteligencí do jisté míry samoúčelným krédem, nebo je to pro dobro nás všech (může být obojí?).

Vy rozhodujete.

Nyní se dostáváme k obzvláště masité části Otevřeného dopisu:

  • „Zavazujeme se, že nebudeme vyzbrojovat naše univerzální roboty s pokročilou mobilitou ani software, který vyvíjíme a který umožňuje pokročilou robotiku, a nebudeme v tom podporovat ostatní. Když to bude možné, pečlivě zkontrolujeme zamýšlené aplikace našich zákazníků, abychom se vyhnuli potenciálnímu použití zbraní. Zavazujeme se také prozkoumat vývoj technologických funkcí, které by mohly tato rizika zmírnit nebo snížit. Aby bylo jasno, nestavíme se proti stávajícím technologiím, které státy a jejich vládní agentury používají k obraně a dodržování svých zákonů“ (podle zveřejnění online).

Můžeme to rozbalit.

Posaďte se a připravte se podle toho.

Jste připraveni na ohnivou polarizaci?

Pozitivní je, že někteří hlasitě ohlašují, že tito tvůrci AI robotů by takový slib dali. Zdá se, že tito výrobci robotů budou naštěstí usilovat o to, aby nevyzbrojili své roboty pro „univerzální použití s ​​pokročilou mobilitou“. Otevřený dopis navíc říká, že nebudou podporovat ostatní, kteří tak učiní.

Kritici se ptají, zda se neděje nějaká chytrá slovíčkaření.

Kde například začíná a kde končí „pokročilá mobilita“? Pokud výrobce robota vymýšlí a jednoduchý-mobilita AI robot spíše než pokročilý (což je nedefinovaný kus technického žargonu), je vyloučen z rozsahu toho, co bude ne být ozbrojen? Zjevně je tedy v pořádku vyzbrojovat roboty s jednoduchou mobilitou AI, pokud nejsou tzv. pokročilý.

Totéž platí pro formulaci univerzálních robotů. Pokud je robot s umělou inteligencí navržen speciálně pro zbraně, a proto není, řekněme a obecného účelu robote, stane se to životaschopným vyloučením z působnosti?

Můžete se s těmito dohady dohadovat a vroucně namítat, že se jedná pouze o otevřený dopis a ne o padesátistránkový právní dokument, který objasňuje každý zákoutí.

To nás přivádí ke zdánlivě více makroúrovni pochybností, které někteří vyjádřili. Co v podstatě znamená „závazek“?

Někteří se ptají, kde je hovězí maso?

Společnost, která se zavazuje, jako je tato, to zdánlivě činí bez jakéhokoli skutečného podílu ve hře. Pokud se nejvyšší představitel jakékoli firmy, která se přihlásí k tomuto slibu, rozhodne závazek nadále nedodržovat, co se stane s touto firmou? Dostanou manažeři souhrnně konzervy? Uzavře se společnost a hluboce se omluví za porušení slibu? A tak dále.

Pokud lze vyvodit, neexistuje žádný zvláštní trest nebo penalizace za porušení slibu.

Můžete namítnout, že existuje možnost poškození pověsti. Firma, která dává zástavu, může být na trhu poražena za to, že dala slib, který již nedodržuje. Samozřejmě to také předpokládá, že si lidé budou pamatovat, že zástava byla složena. Rovněž předpokládá, že porušení zástavy bude nějakým způsobem odhaleno (zjevně se zdá nepravděpodobné, že by firma všem řekla, pokud tak učiní). Porušovatel slibu by musel být odvolán, a přesto by se takový problém mohl stát pouhým hlukem v probíhající tsunami zpráv o tvůrcích robotiky AI.

Zvažte další úhel, který se objevil.

Zástavní firmu koupí nějaká větší firma. Větší firma se rozhodla začít přeměňovat univerzální roboty s pokročilou mobilitou na verze s umělou inteligencí.

Je to porušení slibu?

Větší firma může trvat na tom, že se nejedná o porušení, protože (větší firma) závazek nikdy nesložila. Mezitím neškodní roboti s umělou inteligencí, které tato menší firma dala dohromady a vymyslela, přičemž se zdánlivě nejaltruističtějšími záměry byly, se téměř přes noc přemění na zbraně.

Trochu to podkopává slib, i když byste mohli říct, že menší firma nevěděla, že se to jednou stane. Ve své touze byli opravdoví. Bylo mimo jejich kontrolu, co se větší nákupní firma rozhodla udělat.

Někteří se také ptají, zda v tom existuje nějaká právní odpovědnost.

Zastavující firma se za několik měsíců rozhodne, že slib nedodrží. Došlo u nich ke změně srdce. Může být firma žalována za to, že se vzdala slibu, který dala? Kdo by žaloval? Co by bylo základem pro žalobu? Vzniká spousta právních problémů. Jak se říká, můžete žalovat prakticky kohokoli, ale zda zvítězíte, je úplně jiná věc.

Přemýšlejte o tom jinak. Zástavní firma dostane příležitost udělat opravdu velký obchod a prodat celou řadu svých univerzálních robotů s pokročilou mobilitou masivní společnosti, která je ochotna zaplatit přes nos za získání robotů. Je to jedna z těch, které se jednou za život podaří koupit za miliony dolarů.

Co by měla robotická společnost AI dělat?

Pokud je firma zaručující AI robotiku veřejně obchodována, téměř jistě by se zaměřovala na uskutečnění prodeje (totéž by se dalo říci o soukromě vlastněné firmě, i když ne tak docela). Představte si, že zástavní firma se obává, že by se kupující mohl pokusit vyzbrojit roboty, i když řekněme, že žádná taková diskuse na stole není. Jen se proslýchá, že by tak mohl učinit kupující.

V souladu s tím dává zástavní firma do svých licencí, že roboti nemají být zbrojeni. Kupující odmítne tento jazyk a odstoupí od nákupu.

Jak velký zisk se ručící firmě zabývající se roboty AI právě vzdálila?

Existuje nějaký bod, ve kterém vlastní zisk převáží zahrnutí požadavku na omezení licencí (nebo možná právně formulované omezení tak, aby umožnilo vrtění a přesto se obchod uskutečnil)? Myslím, že je vidět, jaká dilema je s tím spojena. Takových scénářů lze snadno vykouzlit tuny. Otázkou je, zda tato zástava bude mít zuby. Pokud ano, jaké zuby?

Stručně řečeno, jak bylo zmíněno na začátku této diskuse, někteří jsou přesvědčeni, že se tento typ slibu dělá, zatímco jiní mají slabší pohled na to, zda slib zadrží vodu.

Jedeme dál.

Splnění závazku

Čtvrtý a poslední odstavec Otevřeného dopisu říká toto:

  • „Chápeme, že náš závazek sám o sobě nestačí k úplnému vyřešení těchto rizik, a proto vyzýváme tvůrce politik, aby s námi spolupracovali na podpoře bezpečného používání těchto robotů a zakázali jejich zneužití. Vyzýváme také všechny organizace, vývojáře, výzkumníky a uživatele v robotické komunitě, aby učinili podobné závazky, že nebudou stavět, schvalovat, podporovat nebo umožňovat připojení zbraní k takovým robotům. Jsme přesvědčeni, že přínosy těchto technologií pro lidstvo silně převažují nad rizikem jejich zneužití, a jsme nadšeni ze světlé budoucnosti, ve které budou lidé a roboti pracovat bok po boku, aby se vypořádali s některými světovými výzvami“ (podle zveřejnění online).

Tato poslední část Otevřeného dopisu má několik dalších prvků, které vyvolaly hněv.

Někteří tvrdí, že oslovování tvůrců politik může být dobře nebo špatně. Můžete získat tvůrce politik, kteří se v těchto záležitostech nevyznají, kteří pak provedou klasické spěchání k úsudku a vymýšlejí zákony a předpisy, které si uzurpují pokrok na robotech s umělou inteligencí. Jak již bylo zmíněno, inovace, která tlačí kupředu v oblasti robotických pokroků AI, bude možná narušena nebo pošlapána.

Raději si buďte jisti, že víte, co požadujete, říkají kritici.

Protiargumentem je samozřejmě to, že příběh jasně říká, že tvůrci politik by měli spolupracovat s firmami zabývajícími se robotickou umělou inteligencí, aby zjistili, jak pravděpodobně rozumně vytvořit takové zákony a předpisy. Protiargumentem je, že tvůrci politik by mohli být považováni za ty, kteří se dívají na tvůrce robotiky AI, pokud uspokojí jejich rozmary. Protiargumentem proti argumentu je, že je přirozeně nutné spolupracovat s těmi, kteří o technologii vědí, jinak bude výsledek potenciálně zmatek. Atd.

Možná na základě dohadování některé pálila žáha přes čáru, která všechny vyzývá, aby učinili podobné sliby, že nebudou připevnění zbraně až po univerzální roboty s pokročilou mobilitou. Klíčovým slovem je slovo připevnění. Pokud někdo vyrábí robota s umělou inteligencí, který obsahuje nebo hladce vkládá zbraně, zdá se, že to obchází znění připevnění něco. Nyní to můžete vidět, někdo vehementně argumentuje, že zbraň není připevněna, je zcela nedílnou součástí robota AI. Překonejte to, křičí, nejsme v rámci toho slibu, a dokonce by mohli jinak říct, že ano.

To přináší další stížnost na nedostatečnou lepivost zástavy.

Může firma nebo kdokoli vůbec, kdo se rozhodne tento slib složit, kdykoli prohlásit, že je nezavázaný, že si to přeje udělat a z jakéhokoli důvodu si to přejí?

Zdá se, že ano.

Kolem skládání slibů a toho, jakou přilnavost propůjčují, se hodně mluví.

Proč investovat do čističky vzduchu?

Fuj, dalo by se říct, že tyto společnosti, které se snaží dělat správnou věc, dostávají bubnování za to, že se snaží dělat správnou věc.

Co vzešlo z našeho světa?

Každý, kdo dává takový slib, by měl mít výhodu pochybností, můžete vášnivě tvrdit. Vystupují do veřejné sféry, aby odvážně a zásadním způsobem přispěli. Pokud je za to začneme hanit, určitě to situaci zhorší. Nikdo nebude chtít dát takový slib. Firmy a ostatní se o to ani nepokusí. Budou se schovávat a nevarovat společnost před tím, v co se tito milovaní tančící roboti mohou nebezpečně proměnit.

Skeptici prohlašují, že způsob, jak přimět společnost, aby se zmoudřela, zahrnuje i jiné akce, jako je upuštění od fantazijního předvádění dovádějících tančících robotů AI. Nebo z toho alespoň udělat vyváženější akt. Například, spíše než pouze napodobování milovaných psů věrných domácím mazlíčkům, ilustrujte, jak se tančící roboti mohou více podobat divokým rozzuřeným vlkům, kteří dokážou roztrhat lidi na kusy bez jediného zaváhání.

To si získá více pozornosti než sliby, prosí.

Závazky mohou být nepochybně velkým rébusem.

Jak výmluvně prohlásil Mahátma Gándhí: „Bez ohledu na to, jak explicitní je tento slib, lidé budou text obracet a překrucovat tak, aby vyhovoval jejich vlastnímu účelu.

Snad na závěr povznášející poznámky Thomas Jefferson řekl o příslibech toto: „Vzájemně si slibujeme své životy, své bohatství a svou posvátnou čest.“

Pokud jde o roboty s umělou inteligencí, jejich autonomii, zbrojení a podobně, nakonec v tom budeme všichni společně. Naším vzájemným závazkem musí být přinejmenším to, že tyto záležitosti udržíme v popředí, budeme se snažit najít způsoby, jak se s těmito pokroky vyrovnat, a nějakým způsobem najít cestu k zajištění naší cti, našeho bohatství a našich životů.

Můžeme se k tomu zavázat?

Doufám.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- tvůrci robotů, kteří říkají, že-odvrátí-ai-zbraň/