Etika umělé inteligence se potýká s ohnivým útokem obou systémů autonomních zbraní založených na umělé inteligenci a využíváním autonomních systémů řízených umělou inteligencí, které jsou ďábelsky vyzbrojené

Ti úžasní tančící čtyřnozí roboti.

Jsem si jistý, že jste viděli ta virální videa čtyřnohých robotických systémů, které tančí a poskakují zdánlivě rozkošnými a psími milovanými způsoby. Zdá se, že rádi vidíme roboty řízené umělou inteligencí, když šplhají přes překážky a zdá se, že získávají křehkou oporu, když sedí na krabicích nebo když jsou nejistě umístěni na opilé desky skříní. Jejich lidští manipulátoři budou občas šťouchat nebo tlačit do skotačících čtyřnohých robotů, což se zdá být nesmírně nespravedlivé a může to snadno vzbudit váš hněv na spratkové zacházení ze strany těch hlavních humanoidů.

Zajímalo by mě, jestli jste viděli nepříliš virální videa úplně jiného kalibru.

Připrav se.

Jsou široce zveřejňována videa ukazující stejný druh čtyřnohých robotů, kteří byli vybaveni výraznými zbraněmi toho či onoho druhu.

Například kulomet nebo podobná střelná zbraň je namontována na jinak známém tančícím a vzpínajícím se robotovi. Mezi čtyřnohým robotem a odpalovacím mechanismem zbraně existuje elektronické propojení. Nyní ozbrojený počítač-chůze zařízení je zobrazeno, jak kráčí k místu, kde byl umístěn terč, a kulomet je zuřivě vystřelen na cíl. Po přibití následně částečně zničeného cíle čtyřnohý robot tančí a poskakuje kolem blízkých překážek a seřadí se, aby opakoval stejnou akci znovu a znovu na dalších nových cílech.

Ne úplně to, co byste čekali, že uvidíte. To jistě bere lehkovážnost a relativní radost z upřímného sledování těchto mazlivých čtyřnohých robotů, jak dělají svou věc. Vítejte v kruté realitě zdánlivě neškodný autonomní systémy jsou přeměněny nebo přeměněny na ostré zbraně. S vynaložením velkého úsilí můžete přes noc nechat autonomní systém zvažovaný „nevyzbrojený“ dodatečně vybavit tak, aby obsahoval kompletní výzbroj.

Za určitých okolností je to téměř snadné.

Budu diskutovat o tomto vášnivě kontroverzním tématu a budu se zabývat poměrně závažnými výčitkami etiky AI, které se objevují. Vydáme se na cestu do autonomních systémů, AI, autonomních vozidel, zbrojení a spousty souvisejících bojových problémů s etickou AI. Mé průběžné a rozsáhlé pokrytí etiky AI a etické AI viz odkaz zde a odkaz zde, Abychom jmenovali jen několik.

Začněme s některými základními základními kameny.

V zájmu diskuse přijměte, že existují dva hlavní způsoby, jak kategorizovat autonomní systémy, které byly vyzbrojeny zbraněmi:

1) Autonomní zbraňové systémy (podle návrhu)

2) Autonomní systémy, které jsou vyzbrojeny (následně)

Mezi těmito dvěma kategoriemi je důležitý rozdíl.

V prvním případě definujeme an autonomní zbraňový systém být od začátku základem počítačového výtvoru, který je záměrně zamýšlen jako zbraň. Vývojáři měli na mysli, že chtějí vymyslet zbraň. Jejich jasným úkolem je vyrobit zbraň. Věděli, že mohou integrálně kombinovat zbraně s nejnovějšími technologiemi autonomních systémů. Toto je zbraň, která se veze na vlně špičkových technologií, které dosahují autonomního pohybu a autonomních akcí (podrobněji to rozvedu brzy).

Naproti tomu ve druhém případě se budeme zabývat otázkou autonomních systémů, které nemají žádný zvláštní sklon ke zbraním. Jedná se o autonomní systémy vyvíjené pro jiné účely. Představte si autonomní vozidlo, jako je auto s vlastním pohonem, které bude použito k zajištění mobility pro všechny a ke snížení tisíců ročních smrtelných úrazů způsobených lidmi řízenými a lidmi ovládanými automobily (viz moje podrobné informace v odkaz zde). Zdá se, že žádná zbraň nepřipadá v úvahu pro ty optimistické společensky posilující snahy dostat lidi zpoza volantu a místo toho posadit AI na sedadlo řidiče.

Ale tyto neškodné autonomní systémy lze použít jako zbraně, pokud to lidé chtějí.

Tuto druhou kategorii pak označuji jako autonomní systémy, které jsou ozbrojené. Autonomní systém byl původně a oddaně vytvořen pro pravděpodobně nezbrojní účely. Navzdory tomu zasněnou altruistickou naději vzkřísí někdo, kdo dostane lstivou myšlenku, že by tento úskok mohl být použit jako zbraň. Autonomní systém, který se zdál být mazlivý, se najednou stal smrtící zbraní tím, že označil nějakou formu zbraní (jako jsou výše zmínění čtyřnozí psí roboti, kteří mají ke svým vlastnostem přidaný kulomet nebo podobnou střelnou zbraň) .

Je smutné, že tyto dvě kategorie končí poněkud na stejném místě, konkrétně poskytují kapacitu pro využití autonomních systémů pro zbraně na potenciálně smrtícím základě.

Proces dosažení tohoto koncového bodu bude pravděpodobně odlišný.

Pro přímo ozbrojené autonomní systémy, které byly vázány jako zbraně, jsou zbraňové aspekty typicky vepředu a uprostřed. Dalo by se říci, že aspekty autonomního systému jsou zabaleny kolem základního kamene jakékoli zbraně, o které se uvažuje. Proces myšlení vývojářů je poněkud v souladu s tím, jak může zbraň využít příchod autonomních systémů.

Druhá perspektiva se obvykle vůbec netýká tohoto smýšlení. Vývojáři chtějí odvodit nejmodernější autonomní systém, možná pro zlepšení lidstva. Tito vývojáři vložili své nejupřímnější srdce a duši do vytvoření autonomního systému. To je jádro jejich vynálezu. Možná si nepředstavují, že by si někdo uzurpoval nebo rozvracel jejich zázračně prospěšné zařízení. Jsou blaženě zamilovaní do společenských výhod spojených s utvářením a produkováním autonomního systému.

V určitém okamžiku si řekněme, že si třetí strany uvědomí, že autonomní systém lze přezbrojit tak, aby byl vyzbrojen. Možná oklamou vývojáře, aby jim umožnili mít autonomní systém pro to, co je považováno za vznešené účely. Za zavřenými dveřmi se tito zločinci rozhodli tajně přidat do autonomního systému zbraňovou kapacitu. Voila, nevinnost se změnila v přímou zbraň.

Věci se nemusí vyvíjet tímto způsobem.

Možná bylo vývojářům řečeno, že vyvíjejí nevinný autonomní systém, ale ti, kdo financují nebo řídí úsilí, měli na mysli jiné účely. Možná, že úsilí o autonomní systém skutečně začalo nevinně, ale když bylo nutné zaplatit účty, vedení uzavřelo dohodu se zdrojem financování, který autonomní systémy z hanebných důvodů chce. Další možností je, že vývojáři věděli, že pozdější použití by mohlo být pro zbraňování, ale že si mysleli, že ten trýznivý most přejdou, až se někdy objeví. Atd.

Existuje mnoho a mnoho různých cest, jak se to všechno odehrává.

Mohlo by vás zajímat to, co jsem popsal v předchozích sloupcích, že existuje rostoucí povědomí o etice umělé inteligence dvojí použití prvky současné AI, viz odkaz zde. Dovolte mi, abych vás krátce uvedl do rychlosti.

Systém umělé inteligence, který je koncipován pro dobro, může být někdy na pokraji špatného, ​​možná prostřednictvím některých poměrně jednoduchých změn, a odpovídajícím způsobem je považován za systém dvojího použití. Nedávno byl ve zprávách systém umělé inteligence, který byl vytvořen za účelem objevování chemikálií, které by mohly být vrahy, u kterých se vývojáři chtěli ujistit, že se můžeme vyhnout takovýmto nedomyšleným chemikáliím nebo si na ně dát pozor. Ukázalo se, že umělá inteligence by mohla být poněkud snadno vyladěna tak, aby oddaně odhalovala tyto zabijácké chemikálie, a tak potenciálně umožnila padouchům vědět, jaké druhy chemikálií si potenciálně uvařit pro své propastné ďábelské plány.

Autonomní systémy mohou prokazatelně zapadnout do této obálky dvojího použití.

To je do určité míry důvod, proč je etika a etická umělá inteligence tak zásadním tématem. Předpisy etiky AI nás nutí zůstat ostražití. Technologové umělé inteligence mohou být občas zaneprázdněni technologií, zejména optimalizací špičkových technologií. Nezbytně nezvažují větší společenské důsledky. Mít etiku AI a dělat to nedílně pro vývoj a nasazení AI je životně důležité pro vytváření vhodné AI, včetně (možná překvapivě nebo ironicky) posouzení toho, jak firmy přijímají etiku AI.

Kromě toho, že obecně používáme etické zásady AI, existuje odpovídající otázka, zda bychom měli mít zákony, které by řídily různá použití AI. Na federální, státní a místní úrovni se šíří nové zákony, které se týkají rozsahu a povahy toho, jak by měla být umělá inteligence navržena. Snaha navrhnout a přijmout takové zákony je postupná. Etika umělé inteligence slouží přinejmenším jako zvažovaná překážka a téměř jistě bude do určité míry přímo začleněna do těchto nových zákonů.

Uvědomte si, že někteří neústupně tvrdí, že nepotřebujeme nové zákony, které pokrývají AI, a že naše stávající zákony jsou dostatečné. Ve skutečnosti varují, že pokud některé z těchto zákonů o umělé inteligenci uzákoníme, podkopneme zlatou husu tím, že potlačíme pokroky v umělé inteligenci, které nabízejí obrovské společenské výhody.

Autonomie a zbraň jako dvě pravidla

Existuje fráze, kterou někteří používají, aby předem varovali před zbraňovými autonomními systémy všeho druhu, které jsou kolektivně vytvářeny jako jateční roboti.

To přináší další aspekt, o kterém bychom měli přemýšlet.

Musí mít autonomní zbraňový systém a/nebo autonomní systém, který byl vyzbrojen, převahu smrtícího nebo zabijáckého robota?

Někdo by namítl, že jsme rozhodně mohli nesmrtící zbraňové autonomní systémy také. Z tohoto hlediska by se tedy zdálo být hluboce nevhodné používat fráze jako jateční roboti nebo zabijáci. Nesmrtící varianta by pravděpodobně byla schopna potlačit nebo uzákonit újmu, která nemá smrtelné následky. Tyto systémy nezabíjejí, mají menší schopnost generovat zranění. Nepřehánějte schopnosti, říkají ti, kteří trvají na tom, že se nemusíme zabývat přímočarým tropem zabíjejících strojů.

Takže bychom mohli mít toto:

  • Smrtící autonomní zbraňové systémy
  • Smrtící autonomní systémy, které byly vyzbrojeny
  • Nesmrtící autonomní zbraňové systémy
  • Nesmrtící autonomní systémy, které byly vyzbrojeny

Samozřejmě, protiargumentem je, že jakýkoli autonomní systém, který byl vyzbrojen, by se zdál mít potenciál sklouznout do smrtelné sféry, i když se předpokládá, že bude použit pouze na nesmrtelné bázi. Dvoustupňový postupný přechod od nesmrtícího ke smrtícímu bude rychle proveden, jakmile už budete mít v ruce zbraň uprostřed autonomního systému. Bylo by pro vás těžké poskytnout pevnou záruku, že nesmrtící nevstoupí do smrtící arény (ačkoli se o to někteří v matematickém zdání pokoušejí).

Než se dostaneme mnohem hlouběji k tomuto obecnému tématu autonomních systémů a zbrojení, mohlo by být užitečné poukázat na něco jiného, ​​co ačkoli je možná zřejmé, nemusí být nutně viditelně na mysli.

Tady je:

  • Existuje aspekt AI, který je nedílnou součástí autonomního systému
  • Existuje zbrojní aspekt, který je zbrojní stranou této rovnice
  • AI může být také propojena se zbraněmi

Pojďme to rozbalit.

Předpokládejme, že dnešní autonomní systémy vyžadují AI jako základní počítačový prostředek k předkládání autonomních aspektů. Zmiňuji to proto, že byste se mohli pokusit tvrdit, že bychom mohli používat technologie a techniky, které nesouvisejí s AI, abychom vytvořili autonomní systémy, což i když je pravda, zdálo by se to stále méně pravděpodobné. Umělá inteligence má v zásadě tendenci umožnit vyšší úroveň autonomie a většina z nich podle toho využívá špičkové technologie umělé inteligence.

Dobře, takže máme schopnost založenou na umělé inteligenci, která je nějakým způsobem včleněna do autonomního systému a slouží k vedení a řízení autonomního systému.

Mějte to jako pravidlo na dosah ruky.

Zdá se být zřejmé, že potřebujeme mít také nějakou formu zbraní, jinak proč zde diskutujeme o tématu autonomních systémů a zbraně. Takže ano, evidentně existuje zbraň toho či onoho druhu.

Nebudu se ponořit do typu zbraní, které by mohly být použity. Můžete jednoduše nahradit jakoukoli zbraní, která vás napadne. Mohou tam být přesné zbraně. Mohou existovat masově orientované destruktivní zbraně. Může to být něco s kulkami nebo projektily. Může to být něco, co obsahuje chemikálie nebo atomové těkavé složky. Seznam je nekonečný.

Dalším hlediskem je, zda je nebo není AI propojena se zbraněmi. Umělá inteligence si možná jen bere zbraně na projížďku. V případě čtyřnohého robota, který střílel ze zbraně, je možné, že ze zbraně střílí člověk, který má na spouštění zbraně napojené dálkové ovládání. Robot podobný psovi naviguje scénu a pak je na vzdáleném člověku, aby zmáčkl spoušť.

Na druhou stranu, umělá inteligence může být takříkajíc stahovákem spouště. Umělá inteligence mohla být navržena tak, aby nejen navigovala a manévrovala, ale také aktivovala zbraň. V tomto smyslu AI dělá vše od A do Z. Neexistuje žádná závislost na vzdáleném člověku, aby vykonával zbrojní stránku věcí. AI je naprogramována tak, aby to místo toho dělala.

Abychom objasnili tento konkrétní případ použití autonomních systémů, které jsou ozbrojeny, máme tyto druhy možností:

  • Autonomní systém: Umělá inteligence provozuje autonomní systém zcela sama
  • Autonomní systém: Umělá inteligence provozuje autonomní systém, ale zasáhnout může i člověk ve smyčce
  • Zbraně: Vzdálený člověk ovládá zbraně (AI ne)
  • Zbraně: Umělá inteligence řídí zbraně, ale zasáhnout může i člověk ve smyčce
  • Zbraně: Umělá inteligence ovládá zbraně zcela sama

Již dříve jsem se zabýval variantami existence člověka ve smyčce týkající se autonomních systémů a autonomních vozidel, viz. odkaz zde.

Když se podíváte na zábavně zaměřená videa tančících a vzpínajících se čtyřnohých robotů, obvykle se předpokládá, že se jedná o roboty, které výhradně navigačně řídí umělá inteligence (no, to je zvyk nebo považován za správnou etiketu mezi těmi, kteří jsou hluboce zatíženi do těchto záležitostí). To byste také mohli oprávněně předpokládat. To samozřejmě nevíte jistě. Je možné, že roboty navádí vzdálený lidský operátor. Existuje také možnost, že část navádění provádí umělá inteligence a také to dělá vzdálený lidský operátor, který možná pomáhá umělé inteligenci, pokud se robot dostane do obtížné pozice a nemůže výpočetně vypočítat životaschopný prostředek, jak se vykroutit.

Podstatou je, že existuje mnoho variant toho, jak lze kombinovat AI a autonomní systémy a zbraně. Některé mají AI, která řídí autonomní systém, ale neřídí zbraně. Člověk možná na dálku ovládá zbraně. Dalším úhlem pohledu je, že zbraně mohou být aktivovány předem a autonomní systém dodává aktivovanou zbraň, takže AI se nepodílela přímo na spouštění zbraně jako takové a místo toho fungovala jako doručovací vozidlo. A mohlo by se stát, že umělá inteligence je příslovečným pomocníkem ve všech oborech a také využívá celou škálu aspektů autonomního systému pro využití zbraní.

Vezměte si vybrat.

Mezitím, prosím, vězte, že člověk ve smyčce je velkým faktorem, pokud jde o debaty na toto téma.

Dělicí čárou podle některých je, že pokud AI zaměří a střílí (nebo cokoli, co zbraň obnáší), pak celá souprava a caboodle přešly do země bez země. To se zdánlivě liší od konvenčních zbraní typu „vystřel a zapomeň“, které mají předem zacílený výběr určený člověkem, jako je hlídkový dron, který má raketu připravenou k odpálení na cíl, který byl již vyvolený člověkem.

Někteří se diví, proč autonomní systémy, které jsou ozbrojeny, by ne vždy zahrnovaly člověka ve smyčce během procesu, kdy je autonomní systém v aktivním stavu. Zdá se, že bychom na tom byli lépe, kdyby přísným požadavkem bylo, že všechny takové ozbrojené autonomní systémy musí mít člověka ve smyčce, ať už pro provoz autonomního systému, nebo pro ovládání zbraní (nebo pro obojí). . Udržovat předpokládanou jistou a pevnou lidskou ruku v této směsi AI se může zdát jako celkem chytré.

Připravte se na dlouhý seznam důvodů, proč to není nutně proveditelné.

Zvažte tyto obtíže:

  • Human-in-the-loop nemusí být dostatečně rychlý, aby mohl včas reagovat
  • Human-in-the-loop nemusí mít dostatek informací, aby mohl poslušně reagovat
  • Human-in-the-loop nemusí být v potřebnou dobu k dispozici
  • Člověk ve smyčce může být nerozhodný a nebude v případě potřeby jednat
  • Člověk ve smyčce může učinit „špatné“ rozhodnutí (relativně)
  • Human-in-the-loop nemusí být ze systému v potřebnou dobu přístupný
  • Člověk ve smyčce může být zmatený a ohromen
  • Atd.

Nepochybně jste v pokušení podívat se na tento seznam lidských slabostí a omezení a pak dojít k vážnému závěru, že má zjevný smysl vyjmout člověka ve smyčce a vždy místo toho používat AI. To by mohlo být buď k vyloučení člověka ve smyčce, nebo by možná umělá inteligence mohla potlačit zakořeněný design člověka ve smyčce. Podívejte se na mou analýzu toho, jak neshody mezi AI a člověkem ve smyčce mohou vést k prekérním situacím, na odkaz zde.

Často je zlehčující seznam těchto druhů nevýhod zaměřených na člověka v reálném čase ponechán sám od sebe a zanechává přetrvávající dojem, že umělá inteligence musí být nějakým způsobem skokově mnohem moudřejší než mít člověka ve smyčce. . Nespadněte do té zrádné pasti. Jsou s tím spojeny střízlivé kompromisy.

Zvažte tyto důsledky AI:

  • AI může narazit na chybu, která způsobí, že se ztratí
  • Umělá inteligence může být zahlcena a zablokování nebude reagovat
  • AI může obsahovat vývojářské chyby, které způsobují nevyzpytatelné chování
  • Umělá inteligence může být poškozena implantovaným virem zla
  • Umělá inteligence může být převzata kyberhackery v reálném čase
  • AI může být považována za nepředvídatelnou kvůli složitosti
  • AI může výpočetně učinit „špatné“ rozhodnutí (relativně)
  • Atd.

Věřím, že vidíte, že existují kompromisy mezi používáním člověka ve smyčce a spoléháním se pouze na AI. V případě, že jste v pokušení navrhnout, že připraveným řešením je použít oba, rád bych jen zdůraznil, že můžete získat to nejlepší z obou světů, ale také můžete získat to nejhorší z obou světů. Nepředpokládejte, že to bude vždy a jistě to nejlepší z obou světů.

Možná vás poněkud překvapila jedna z výše uvedených nevýhod AI, konkrétně to, že AI může být nepředvídatelný. Jsme zvyklí věřit, že umělá inteligence má být přísně logická a matematicky přesná. Jako takové můžete také očekávat, že AI bude plně předvídatelná. Předpokládá se, že přesně víme, co AI udělá. Tečka, konec příběhu.

Omlouvám se, že jsem ten balónek praskl, ale tento mýtus o předvídatelnosti je nesprávné pojmenování. Velikost a složitost moderní umělé inteligence je často bahno, které není dokonale předvídatelné. To je vidět na pozdvižení etické umělé inteligence ohledně některých současných využití strojového učení (ML) a hlubokého učení (DL). Za chvíli vysvětlím trochu víc.

Můžete se také podívat na moji nejnovější analýzu nadcházejících trendů směřujících k zajištění ověřitelných a matematicky prokazatelně správných systémů umělé inteligence prostřednictvím nejnovějších bezpečnostních systémů umělé inteligence, na adrese odkaz zde.

Přemítání o pravidlech Silnice

Zmínil jsem se o pojmech cíle a zaměřování, což je značně zatížená terminologie, která si zaslouží pozornost.

Můžeme o tom přemýšlet:

  • Cíle, které jsou lidmi
  • Cíle, které nejsou lidmi, ale živými tvory
  • Cíle, které jsou považovány za majetek

Předpokládejme, že máme autonomní systém, který byl vyzbrojen. AI se používá k vedení autonomního systému a používá se pro zbraně. Umělá inteligence dělá vše od A do Z. Neexistuje žádné ustanovení pro člověka ve smyčce. Pokud jde o cílení, cíle si vybere AI. Neexistuje žádné předběžné zacílení, které by stanovili lidé. Místo toho byla AI naprogramována tak, aby obecně zjistila, zda existují lidé, kteří mají být cílem (možná skenování nepřátelských akcí, určitých druhů uniforem a tak dále).

Se mnou v tom zatím?

Tento scénář je v podstatě ten, který vyvolává největší pobouření ohledně ozbrojených autonomních systémů.

Uvádí se obava, že AI dělá (alespoň) tři věci, které by jí neměly být povoleny:

  • Cílení na lidi jako na cíle
  • Cílení bez použití lidské smyčky
  • Potenciálně působí nepředvídatelněly

Všimněte si, že je zde ostrá zmínka o obavách z nepředvídatelnosti AI. Je možné, že ačkoli byla umělá inteligence naprogramována tak, aby se zaměřovala na určité druhy lidí, naprogramování umělé inteligence není to, co jsme si mysleli, že je, a AI se nakonec zaměřuje na „přátelské“ kromě těch, které měla AI vykládat jako „nepřátelské“. “ (nebo možná místo toho). Navíc, i když se rozhodneme zahrnout ustanovení o člověku ve smyčce, nepředvídatelnost umělé inteligence může znamenat, že když má umělá inteligence komunikovat s člověkem ve smyčce, selže. tak a jedná bez jakéhokoli lidského zásahu.

Možná vás bude zajímat, že Mezinárodní výbor Červeného kříže (ICRC) nabídl tříbodový zastřešující postoj k autonomním zbraňovým systémům, který rozvádí tyto typy problémů (na webu MVČK):

1. „Nepředvídatelné autonomní zbraňové systémy by měly být výslovně řízeny out, zejména kvůli jejich nerozlišujícím účinkům. Toho by bylo nejlépe dosaženo zákazem autonomních zbraňových systémů, které jsou navrženy nebo používány takovým způsobem, že jejich účinky nelze dostatečně pochopit, předvídat a vysvětlit.

2. „Ve světle etických úvah o ochraně lidstva a dodržování pravidel mezinárodního humanitárního práva na ochranu civilistů a bojovníků před bojem, použití autonomních zbraňových systémů k cílení na lidské bytosti by mělo být vyloučeno. Toho by bylo nejlépe dosaženo zákazem autonomních zbraňových systémů, které jsou navrženy nebo použity k použití síly proti osobám.

3. „Za účelem ochrany civilistů a civilních objektů, dodržování pravidel mezinárodního humanitárního práva a ochrany lidstva by měly být regulovány konstrukce a používání autonomních zbraňových systémů, které by nebyly zakázány, mimo jiné prostřednictvím kombinace: omezení typů cíle, jako je jejich omezení na objekty, které jsou ze své podstaty vojenskými cíli; omezení doby trvání, zeměpisného rozsahu a rozsahu použitívčetně umožnění lidského úsudku a kontroly ve vztahu ke konkrétnímu útoku; omezení situací použití, jako je jejich omezení v situacích, kdy nejsou přítomni civilisté nebo civilní objekty; rpožadavky na interakci člověk-stroj, zejména zajistit účinný lidský dohled a včasný zásah a deaktivaci.“

V souvisejícím výhledu stanovila Organizace spojených národů (OSN) prostřednictvím Úmluvy o určitých konvenčních zbraních (CCW) v Ženevě jedenáct nezávazných hlavních zásad pro smrtící autonomní zbraně, jak uvádí oficiální zpráva zveřejněná online (včetně odkazů na příslušné mezinárodní humanitární organizace). Zákon nebo podmínky mezinárodního humanitárního práva):

a) mezinárodní humanitární právo se nadále plně vztahuje na všechny zbraňové systémy, včetně potenciálního vývoje a použití smrtících autonomních zbraňových systémů;

(b) Lidská odpovědnost za rozhodnutí o použití zbraňových systémů musí být zachována, protože odpovědnost nelze přenést na stroje. To by mělo být zváženo v průběhu celého životního cyklu zbraňového systému;

c) Interakce mezi člověkem a strojem, která může mít různé formy a může být prováděna v různých fázích životního cyklu zbraně, by měla zajistit, že potenciální použití zbraňových systémů založených na nových technologiích v oblasti smrtících autonomních zbraňových systémů dodržování platného mezinárodního práva, zejména mezinárodního humanitárního práva. Při určování kvality a rozsahu interakce člověk-stroj by měla být zvážena řada faktorů včetně operačního kontextu a charakteristik a schopností zbraňového systému jako celku;

d) Odpovědnost za vývoj, rozmístění a používání jakéhokoli nově vznikajícího zbraňového systému v rámci CCW musí být zajištěna v souladu s platným mezinárodním právem, a to i prostřednictvím provozu takových systémů v rámci odpovědného řetězce lidského velení a kontroly;

(e) V souladu se závazky států podle mezinárodního práva musí být při studiu, vývoji, získávání nebo přijímání nové zbraně, prostředku nebo způsobu vedení války stanoveno, zda by její použití za určitých nebo všech okolností bylo zakázáno mezinárodním právem;

f) při vývoji nebo získávání nových zbraňových systémů založených na nových technologiích v oblasti smrtících autonomních zbraňových systémů, fyzické bezpečnosti, vhodných nefyzických zárukách (včetně kybernetické bezpečnosti proti hackerům nebo falšování dat), riziko získání teroristickými skupinami a je třeba zvážit riziko šíření;

g) Posouzení rizik a opatření ke zmírnění by měla být součástí cyklu navrhování, vývoje, testování a zavádění nově vznikajících technologií v jakýchkoli zbraňových systémech;

h) mělo by být zváženo použití nově vznikajících technologií v oblasti smrtících autonomních zbraňových systémů při prosazování souladu s mezinárodním humanitárním právem a dalšími platnými mezinárodními právními závazky;

(i) Při vytváření potenciálních politických opatření by nové technologie v oblasti smrtících autonomních zbraňových systémů neměly být antropomorfizovány;

j) Diskuse a jakákoli případná politická opatření přijatá v rámci CCW by neměla bránit pokroku v mírovém využití inteligentních autonomních technologií nebo přístupu k němu;

k) CCW nabízí vhodný rámec pro řešení otázky vznikajících technologií v oblasti smrtících autonomních zbraňových systémů v kontextu cílů a účelů úmluvy, která se snaží nalézt rovnováhu mezi vojenskou nezbytností a humanitárními ohledy.

Rozmar, ve kterém se nacházíme

Tyto různé válečné zákony, zákony o ozbrojených konfliktech nebo IHL (Mezinárodní humanitární zákony) slouží jako životně důležitý a vždy slibný průvodce k úvahám o tom, co bychom se mohli pokusit udělat s nástupem autonomních systémů, které jsou vybaveny zbraněmi, ať už pomocí designu keystone nebo následnými metodami.

Můžeme si upřímně přát, aby byl přísně a poslušně dodržován zákaz smrtících zbraňových autonomních systémů. Problém je v tom, že v rámci kteréhokoli z nejupřímnějších zákazů se nutně najde spousta prostoru pro vrtění. Jak se říká, pravidla jsou od toho, aby se porušovala. Můžete se vsadit, že tam, kde jsou věci rozvláčné, bude riff hledat mezery a pokusit se obejít pravidla.

Zde jsou některé potenciální mezery, které stojí za zvážení:

  • Nároky na nesmrtící. Udělat nesmrtící autonomní zbraňové systémy (zdánlivě v pořádku, protože je mimo hranice zákazu), které pak můžete s nepatrným odstupem změnit na smrtící (za zákazem se dostanete až na poslední chvíli).
  • Pouze nároky na autonomní systém. Dodržujte zákaz tím, že nevytváříte autonomní systémy zaměřené na smrt, mezitím udělejte co největší pokrok ve vymýšlení každodenních autonomních systémů, které (zatím) nejsou ozbrojeny, ale které můžete za desetník předělat na zbraně.
  • Tvrzení, že není integrován jako jeden. Vytvářejte autonomní systémy, které nejsou vůbec ozbrojeny, a až přijde čas, přibalte zbraně, takže se můžete pokusit vehementně tvrdit, že jde o dva samostatné prvky, a proto tvrdit, že nespadají do kategorie vše v jednom. autonomní zbraňový systém nebo jeho bratranec.
  • Tvrdí, že není autonomní. Vytvořte zbraňový systém, který se nezdá být autonomní. Nechte v tomto pravděpodobně neautonomním systému prostor pro zapojení autonomie založené na umělé inteligenci. V případě potřeby zapojte autonomii a jste připraveni házet (do té doby jste zdánlivě zákaz neporušovali).
  • Ostatní

Existuje mnoho dalších vyjádřených potíží se snahou o úplný zákaz smrtících autonomních zbraňových systémů. Uvedu několik dalších z nich.

Někteří učenci tvrdí, že zákaz není zvláště užitečný a místo toho by měla existovat regulační ustanovení. Myšlenka je taková, že tyto výmysly budou povoleny, ale budou přísně hlídány. Je stanovena litanie zákonných použití spolu se zákonnými způsoby cílení, zákonnými typy schopností, zákonnou proporcionalitou a podobně.

Podle jejich názoru je přímý zákaz jako strčit hlavu do písku a předstírat, že slon v místnosti neexistuje. Toto tvrzení však přivádí krev do varu těm, kteří odporují argumentu, že zavedením zákazu jste schopni dramaticky snížit jinak pokušení prosazovat tyto druhy systémů. Jistě, někteří se budou ohánět zákazem, ale alespoň doufejme, že většina ne. Pak můžete zaměřit svou pozornost na chvástání a nemusíte štěpit svou pozornost na všechny.

Tyto debaty se točí kolem dokola.

Další často zmiňovanou obavou je, že i když dobří zákaz dodrží, špatní ne. To staví dobro do mizerného držení těla. Zlí budou mít tyto druhy zbraňových autonomních systémů a dobří ne. Jakmile se ukáže, že je mají ti zlí, bude příliš pozdě na to, aby je dohnali dobří. Stručně řečeno, jediná chytrá věc, kterou musíte udělat, je připravit se na boj s ohněm.

Existuje také klasický odstrašující spor. Pokud se dobří rozhodnou vytvořit zbraňové autonomní systémy, může to být použito k tomu, aby odradilo zlé od snahy dostat se do rvačky. Buď budou dobří lépe vyzbrojeni, a tím odradí zlé, nebo budou dobří připraveni, až zlí možná odhalí, že tyto systémy celou dobu tajně vymýšleli.

Protikladem k těmto počítadlům je, že vytvářením zbraňových autonomních systémů vedete závody ve zbrojení. Druhá strana bude usilovat o totéž. I když nejsou technologicky schopni vytvořit takové systémy znovu, budou nyní schopni ukrást plány těch „dobrých“, zpětně analyzovat vnitřnosti high-tech nebo napodobit vše, co považují za osvědčené a osvědčené. způsob, jak dokončit práci.

Aha, nějaká replika, to vše by mohlo vést k omezení konfliktů zdáním vzájemného. Pokud strana A ví, že strana B má tyto smrtící autonomní systémy zbraní, a strana B ví, že strana A je má, mohou sedět pevně a nedostanou se do rány. To má zvláštní auru vzájemně zaručené destrukce (MAD) vibrací.

A tak dále.

AI v autonomii

Ujistíme se, že jsme na stejné stránce ohledně povahy dnešní umělé inteligence.

Dnes neexistuje žádná AI, která by byla vnímavá. Tohle my nemáme. Nevíme, zda bude vnímající AI možná. Nikdo nemůže výstižně předpovědět, zda dosáhneme vnímající AI, ani zda se vnímající AI nějakým zázrakem spontánně objeví ve formě výpočetní kognitivní supernovy (obvykle označované jako singularita, viz moje pokrytí na odkaz zde).

Typ AI, na který se zaměřuji, se skládá z necítivé AI, kterou máme dnes. Pokud bychom chtěli divoce spekulovat o cítící AI, tato diskuse by se mohla ubírat radikálně jiným směrem. Vnímavá AI by měla mít lidské kvality. Měli byste vzít v úvahu, že vnímající AI je kognitivní ekvivalent člověka. Navíc, protože někteří spekulují, že bychom mohli mít superinteligentní AI, je možné, že taková AI by mohla být chytřejší než lidé (pro můj průzkum superinteligentní AI jako možnosti viz. pokrytí zde).

Nechme věci více při zemi a uvažujme o dnešní výpočetní necítivé umělé inteligenci.

Uvědomte si, že dnešní umělá inteligence není schopna „myslet“ žádným způsobem na stejné úrovni jako lidské myšlení. Když komunikujete s Alexou nebo Siri, konverzační schopnosti se mohou zdát podobné lidským schopnostem, ale skutečnost je taková, že jsou výpočetní a postrádají lidské poznání. Nejnovější éra umělé inteligence široce využívá strojové učení (ML) a hluboké učení (DL), které využívají porovnávání výpočetních vzorů. To vedlo k systémům umělé inteligence, které vypadají jako lidské sklony. Mezitím dnes neexistuje žádná umělá inteligence, která by měla zdání zdravého rozumu, ani žádný z kognitivních zázraků robustního lidského myšlení.

Buďte velmi opatrní při antropomorfizaci dnešní AI.

ML/DL je forma porovnávání výpočetních vzorů. Obvyklý přístup je takový, že shromažďujete data o úloze rozhodování. Data vkládáte do počítačových modelů ML/DL. Tyto modely se snaží najít matematické vzorce. Po nalezení takových vzorů, pokud jsou nalezeny, systém umělé inteligence tyto vzory použije, když narazí na nová data. Po předložení nových dat se pro vykreslení aktuálního rozhodnutí použijí vzory založené na „starých“ nebo historických datech.

Myslím, že můžete hádat, kam to směřuje. Pokud lidé, kteří se rozhodovali podle vzoru, začlenili nežádoucí předsudky, je pravděpodobné, že data to odrážejí jemnými, ale významnými způsoby. Počítačové porovnávání vzorů Machine Learning nebo Deep Learning se jednoduše pokusí odpovídajícím způsobem matematicky napodobit data. Neexistuje žádné zdání zdravého rozumu nebo jiných vnímavých aspektů modelování vytvořeného umělou inteligencí jako takového.

Kromě toho si vývojáři AI nemusí uvědomit, co se děje. Tajemná matematika v ML/DL může ztížit odhalení nyní skrytých předsudků. Oprávněně byste doufali a očekávali, že vývojáři umělé inteligence budou testovat potenciálně pohřbené předsudky, i když je to složitější, než by se mohlo zdát. Existuje solidní šance, že i přes poměrně rozsáhlé testování, že v modelech porovnávání vzorů ML/DL budou stále zakomponovány zkreslení.

Dalo by se tak trochu použít slavné nebo nechvalně známé pořekadlo o smetí-do odpadu-ven. Jde o to, že je to spíše podobné předsudkům – in, které se zákeřně prolínají, když se předsudky ponoří do AI. Algoritmus rozhodování (ADM) umělé inteligence je axiomaticky zatížen nerovnostmi.

Špatný.

S tímto přidaným základním pozadím se znovu vrátíme k tématu autonomních systémů a zbraní. Již dříve jsme viděli, že AI vstupuje do komponenty autonomního systému a také může vstupovat do komponenty ozbrojení. Dnešní AI není vnímavá. To stojí za zopakování a zdůrazním to, abych se o těchto záležitostech lépe dozvěděl.

Pojďme prozkoumat některé scénáře, abychom viděli, jak je to zásadní úvaha. Na chvíli přejdu z válečné orientace na toto téma a ukážu, jak prostupuje mnoho dalších společenských prostředí. Podle toho se uklidněte.

Autonomní systém založený na AI, jako je autonomní vozidlo, o kterém budeme říkat, že nemá nic společného se zbraněmi, si razí cestu skrz normální lokalitu. Člověk přichází, aby využil autonomní vozidlo. Osoba je vyzbrojena předtuchou zbraní. Předpokládejme kvůli diskusi v tomto konkrétním scénáři, že daná osoba má na mysli něco neobvyklého. Osoba nastoupí do autonomního vozidla (nese svou zbraň, skrytou nebo neskrytou, v obou případech).

Autonomní vozidlo pokračuje do jakéhokoli cíle, který si jezdec vyžádal. V tomto případě AI jednoduše programově přepraví tohoto cestujícího z jednoho místa vyzvednutí do určeného místa určení, stejně jako to dělá po možná desítky nebo stovky cest každý den.

Pokud by se jednalo o lidského řidiče a vozidlo řízené lidmi, pravděpodobně existuje určitá šance, že by si lidský řidič uvědomil, že cestující je ozbrojen a zdá se, že má nevhodné úmysly. Lidský řidič může odmítnout řídit vozidlo. Nebo může lidský řidič zajet na policejní stanici. Nebo by se možná lidský řidič mohl pokusit podmanit si ozbrojeného pasažéra (existují hlášené případy) nebo odradit pasažéra od použití jejich zbraně. Je to poměrně složité a může existovat libovolný počet variant. Těžko byste tvrdili, že existuje pouze jedna správná odpověď na vyřešení takové nesnáze. Situace je bohužel nepříjemná a zjevně nebezpečná.

Umělá inteligence v tomto případě pravděpodobně nebude naprogramována pro žádnou z těchto možností. Stručně řečeno, ozbrojený cestující může být schopen používat svou zbraň, a to z autonomního vozidla, během jízdy. Řídicí systém AI bude pokračovat v jízdě a autonomní vozidlo bude stále směřovat k uvedenému určení cestujícího (za předpokladu, že cíl nebyl jinak považován za mimo hranice).

Většina současných jízdních systémů AI by se výpočtově zaměřovala pouze na vozovku a ne na úsilí jezdce.

Věci se mohou zhoršit.

Předpokládejme, že někdo chce nechat převézt hromadu potravin na místo, které bere jídlo navíc pro potřebné. Osoba požaduje autonomní vozidlo a umístí tašky s potravinami na zadní sedadlo vozidla. Nechystají se na projížďku a pouze používají autonomní vozidlo k doručování sáčků s jídlem.

Vypadá naprosto v pořádku.

Představte si, že podlý člověk se místo toho rozhodne vložit do autonomního vozidla nějakou formu zbraní, než mírumilovnější představu tašek s potravinami. Myslím, že dokážete odhadnout, co se může stát. To je obava, kterou jsem opakovaně nabádal ve svých sloupcích a předem varoval, že se s ní musíme vyrovnat raději dříve než později.

Jednou z nabízených odpovědí na tyto typy scénářů je, že snad všechna autonomní vozidla by mohla být naprogramována tak, aby využívala své kamery a další senzory, aby se pokusila zjistit, zda je potenciální cestující ozbrojený a má nekalé úmysly. Možná by k tomu byla naprogramována AI. Nebo AI elektronicky a tiše upozorní vzdáleného lidského operátora, který by pak prostřednictvím kamer vizuálně a jinak zkoumal a případně interagoval s cestujícím. To vše je součástí složité a potenciálně neovladatelné plechovky červů, takže to vyvolává intenzivní problémy s ochranou soukromí a spoustu dalších potenciálních obav z etické AI. Podívejte se na mé pokrytí na odkaz zde.

Další poněkud podobnou alternativou je, že AI obsahuje nějaký druh zabudovaného etického programování, které se snaží umožnit AI činit etické nebo morální úsudky, které jsou normálně vyhrazeny pro lidské rozhodování. Zkoumal jsem tyto druhy prognostiků výpočetní etiky se zabudovanou AI, viz odkaz zde a odkaz zde.

Když se vrátíme ke scénáři na bojišti, představte si, že nad bojovou zónou křižuje smrtící autonomní zbraňový systém. AI provozuje autonomní systém. AI ovládá zbraně na palubě. Již dříve jsme uvažovali o možnosti, že by umělá inteligence mohla být naprogramována tak, aby vyhledávala zdánlivě nepřátelské pohyby nebo jiné ukazatele lidských cílů považovaných za platné bojovníky.

Měla by ta samá umělá inteligence mít nějaký druh eticky orientované složky, která se snaží výpočetně zvažovat, co by člověk ve smyčce mohl dělat, jednající v jistém smyslu namísto toho, aby měl člověka ve smyčce?

Někteří říkají, že ano, pojďme na to. Někteří zděšeně ucuknou a říkají, že je to buď nemožné, nebo jinak porušuje posvátnost lidství.

Další plechovka červů.

Proč investovat do čističky vzduchu?

Pro ty z vás, kteří se o toto téma zajímají, je toho mnohem více, o čem je třeba diskutovat.

Dám vám rychlou ochutnávku jednoho nepříjemného rébusu.

Normálně očekáváme, že člověk bude nakonec hnán k odpovědnosti za cokoliv, co se během války stane. Pokud umělá inteligence ovládá autonomní zbraňový systém nebo ovládá autonomní systém, který byl pravděpodobně vyzbrojen, a tento systém na bitevním poli udělá něco, co je považováno za nesvědomité, kdo nebo co za to může?

Můžete namítnout, že AI by měla nést odpovědnost. Ale pokud ano, co to přesně znamená? Dnešní AI ještě nepovažujeme za ztělesnění právnické osoby, viz moje vysvětlení na odkaz zde. Žádné připínání ocasu na osla v případě AI. Možná, že pokud se AI jednoho dne stane vnímavou, můžete to zkusit. Do té doby je to trochu dosah (plus, jakým druhům sankcí nebo dopadů by AI byla vystavena, viz moje analýza na odkaz zde a odkaz zde, například).

Pokud AI není odpovědným podezřelým, mohli bychom přirozeně říci, že ať už člověk nebo lidé vymysleli AI, měli bychom nést odpovědnost. Dokážete to udělat, pokud AI pouze provozovala autonomní systém a přišli by nějací lidé, kteří by to spojili se zbraní? Jdete po vývojářích AI? Nebo ti, kteří nasadili AI? Nebo jen ten zbrojní herec?

Věřím, že pochopíte, že jsem se ve své srdečné diskusi dotkl pouze špičky ledovce.

Pro tuto chvíli pokračujme a zakončme tento diskurz. Možná si vzpomínáte, že tam byl John Lyly Euphues: The Anatomy Of Wit v roce 1578 památně prohlásil, že v lásce a válce je vše spravedlivé.

Měl na mysli vznik autonomních zbraňových systémů a podobně nástup autonomních systémů, které jsou ozbrojené?

Určitě si to musíme dát na začátek naší mysli, hned.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- zbraňové systémy a využívání autonomních systémů řízených AI, které jsou ďábelsky vyzbrojeny/