Etika umělé inteligence narušena nejnovější Čínou vymyšlená umělá inteligence Party-Loajalita Čtení myšlenek Atestace rozpoznávání obličeje, která by mohla předstírat utlačující autonomní systémy

Jste loajální?

Teoreticky by mohlo být možné prozkoumat vaše zjevné činy a zjistit, zda je loajalita projevována vašimi činy.

Předpokládejme však, že místo toho došlo k pokusu číst vaše myšlenky a mezitím skenovat vaši tvář, abyste určili svůj kvocient loajality. To je děsivě rušivé; můžete klidně odmítnout. Zní to jako jeden z těch bláznivých sci-fi filmů, které si představují budoucí dystopickou společnost.

Naštěstí si potajmu šeptáte, dnes nic takového nemáme.

Páni, držte si koně.

Titulky zpráv nedávno křičely, že výzkumný dokument zveřejněný online v Číně 1. července 2022 popsal studii, která údajně zahrnovala hodnocení mozkových vln lidí a jejich výrazů obličeje pro účely výpočtu, zda byli loajální k Čínské komunistické straně (ČKS). . Takže, tady to je, budoucnost je stále blíž a blíž, alespoň pokud jde o dosažení dystopické společnosti, které jsme se obávali, že jednoho dne může vzniknout.

Výzkumný dokument rychle zmizel ze svého online zveřejněného odkazu.

Rychlé opovržení, které se rychle přehnalo internetem, pravděpodobně stačilo k tomu, aby byl papír stažen. Nebo možná chtějí výzkumníci jen provést několik změn ve znění a další neškodné opravy s cílem provést přeúčtování, jakmile budou mít důkladnější šanci zajistit, že i jsou tečkovaná a t jsou všechna překřížená. Budeme muset mít oči otevřené, abychom viděli, jestli ten papír dostane druhý život.

Pokračuji a hluboce se ponořím do toho, co víme o výzkumné studii, a pokusím se propojit body o tom, jaký význam má tento druh práce související s umělou inteligencí pro nás pro všechny, přičemž dalece přesahuji rámec toho, co můžeme vidět. omezený na jednu konkrétní zemi. Mé pokrytí bude o něco obsáhlejší než ostatní nedávné zprávy o této novince, takže mějte prosím trpělivost.

Můj další důraz bude také spočívat v tom, že existuje spousta důležitých lekcí etiky umělé inteligence, které můžeme získat z údajného papíru. Mé průběžné a rozsáhlé pokrytí etiky AI a etické AI viz odkaz zde a odkaz zde, Abychom jmenovali jen několik.

Zde je to, co bylo dosud zmíněno o výzkumné studii.

Zřejmě byli naverbováni někteří „dobrovolníci“, aby se zúčastnili experimentu týkajícího se vnímání ČKS. Není známo, zda to byli ochotní dobrovolníci nebo více podobní podněcovaným nebo možná řízeným dobrovolníkům. Pro diskusi budeme předpokládat, že souhlasili s tím, aby se stali předmětem studie.

Přináším to, aby to nebylo jednoduše šmrncovní. Kdykoli se provádí experiment zahrnující lidské subjekty, existuje velké množství obecně přijímaných postupů týkajících se náboru a ponoření takových subjektů do výzkumného úsilí. To částečně souvisí s předchozími studiemi, které často oklamaly nebo nutily lidi, aby se zapojili do experimentu, což někdy vedlo k nepříznivým psychologickým dopadům nebo dokonce k fyzické újmě pro tyto účastníky. Vědecká komunita se mocně snažila omezit tyto typy zákeřných studií a vyžaduje, aby byly všechny druhy odhalení a varování poskytnuty těm, kteří mají být zahrnuti do studií souvisejících s lidmi.

Abychom objasnili, ne každý dodržuje takové prozíravé a svědomité pokyny.

Když jsme pokračovali, bylo tam údajně 43 subjektů a říkalo se, že jsou členy Komunistické strany Číny. Mějte na paměti, že výběr subjektů pro experiment je pro experiment docela zásadní a musí být také vzat v úvahu, pokud jde o jakékoli závěry, ke kterým byste se mohli později pokusit dojít o výsledcích experimentu.

Předpokládejme, že chci udělat experiment o tom, jak lidé vnímají uznávanou sérii Star Wars. Pokud předem vyberu témata, která všichni hlasitě nenávidí Star Wars (jak mohou takoví lidé existovat?), a ukážu jim videoklipy Star Wars, je pravděpodobné, že pravděpodobně řeknou, že Star Wars stále nemají rádi. Na základě tohoto pseudovědeckého experimentu možná záludně tvrdím, že lidé – obecně – opravdu nenávidí Star Wars, což bylo „dokázáno“ (mrknutí-mrknutí) v mém „pečlivě“ připraveném výzkumném prostředí.

Možná nevíte, že jsem takříkajíc zmanipuloval ruletu tím, že jsem předem vybral předměty, u kterých jsem očekával, že přinesou mé tajně požadované výsledky. Samozřejmě, kdybych místo toho úmyslně naverboval lidi, kteří milovali Star Wars a byli horlivými nadšenými fanoušky, je pravděpodobné, že by hlásili, že jsou ze sledování těch klipů Star Wars nadšení. Opět platí, že jakékoli závěry o tom, jak lidé obecně reagují na Hvězdné války, by byly zmírněny předem vybraným souborem subjektů vybraných pro toto úsilí.

Studie zaměřená na ČKS zřejmě přiměla subjekty sedět před videem podobným kiosku a číst různé články o politikách a úspěších ČKS. Pravděpodobně se jedná o zvažovanou „experimentální léčbu“, které jsou subjekty vystaveny. Při plánování experimentu obvykle přicházíte s experimentálním faktorem nebo aspektem, který chcete zjistit, zda má dopad na účastníky.

Zjevně zkoumanou výzkumnou otázkou bylo, zda by akt přezkoumání těchto materiálů měl nějaký dopad na subjekty, pokud jde o zvýšení, snížení nebo neutrální postoj k jejich následným dojmům z ČKS.

V klasické nulové hypotéze byste mohli uspořádat takovou studii, abyste uvedli, že spotřebované materiály nemají žádný vliv na následné dojmy vyjádřené subjekty. Jakmile provedete srovnání jejich názorů na CCP před a po, statisticky byste se pokusili zjistit, zda došlo ke statisticky významnému zjištění změny v jejich dojmech.

Je možné, že před a po se statisticky neliší, a proto můžete rozumně předběžně dojít k závěru, že pro tuto konkrétní studii se nezdálo, že by zobrazené materiály (experimentální zpracování) měnily jejich dojmy. Na druhou stranu, pokud by existoval statisticky platný rozdíl, podívali byste se, zda je after větší než předchozí, což vám umožní opatrně navrhnout, že materiály zvýšily jejich dojem (a na druhé straně mince, pokud poté bylo méně než předtím, což by mohlo znamenat, že materiály snížily nebo snížily své dojmy).

V takové studii je třeba se vypořádat se spoustou nepříjemných problémů.

Například obvykle chceme mít takzvanou kontrolní skupinu, kterou můžeme porovnávat s těmi, které dostávají experimentální léčbu. Zde je důvod. Předpokládejme, že akt sezení před kioskem za účelem čtení materiálů byl skutečným základem toho, proč se dojmy změnily. Je možné, že povaha spotřebovaných materiálů je pro dopad dojmu zhruba nepodstatná. Pouhé sezení a čtení čehokoli, jako jsou nejnovější příběhy o kočkách, které dělají legrační věci, samo o sobě může stačit. Mohli bychom proto zařídit, aby některé subjekty byly v naší kontrolní skupině, která je vystavena jinému materiálu ke čtení, jinému než jsou zásady a materiály ČKS.

Nevíme, zda se tak stalo v tomto případě (zdá se, že se o tomto aspektu zatím nikdo nezmínil).

Uvědomuji si, že už vás začíná znepokojovat mediální výbušná část studie. Rychle se přesuneme do této části.

Jak bychom mohli zjistit, zda subjekty v tomto experimentu reagovaly nebo změnily své dojmy v důsledku čtení zobrazených materiálů?

Obvyklým prostředkem by bylo zeptat se jich.

Možná byste předem zadali dotazník, který by se jich zeptal na jejich dojmy z ČKS. Poté, po vystavení experimentální léčbě, jako při čtení zobrazovaných materiálů, jsme mohli zadat další dotazník. Odpovědi dané subjekty na základě před a po pak mohou být porovnány. Pokud bychom také použili kontrolní skupinu, předpokládali bychom, že odpovědi kontrolní skupiny by se podstatně nezměnily z předchozí na potom (v domnění, že sledování příběhů o dovádění koček by nemělo mít vliv na jejich dojmy z CCP).

Tento akt dotazování se subjektů na jejich dojmy není nutně tak přímočarý, jak by se mohlo zdát.

Předpokládejme, že subjekty v experimentu získají pocit nebo celkový posun, že chcete, aby reagovali na experimentální léčbu určitým způsobem. V takovém případě by mohli své reakce v následné části experimentální administrace záměrně přeceňovat. Určitě jste to viděli. Pokud dělám test chuti nové sody, která přichází na trh, mohl bych se chovat, jako bych si tu sodu divoce vychutnával, a to v naději, že se možná objevím v reklamě výrobce sody a získám svých bohatě zasloužených patnáct minut slávy. .

Podstatou je, že pouhé dotazování se lidí na jejich názory není spolehlivým prostředkem k měření změn. Je to jeden přístup. Jiné přístupy by mohly a jsou také často používány.

Jak se tato konkrétní studie rozhodla změřit reakce subjektů?

Zřejmě byly použity minimálně dvě metody. Jedna metoda spočívala v provedení skenování obličeje a použití softwaru pro rozpoznávání obličeje založeného na umělé inteligenci k posouzení reakcí subjektů. Další metodou byla údajně nějaká forma skenování mozkových vln. Dosud nebylo oznámeno, jaký typ zařízení pro skenování mozkových vln byl použit, ani jaký druh softwaru pro analýzu mozkových vln založený na AI byl použit.

Různé zprávy naznačovaly, že studie o povaze experimentu uvedla toto: „Na jedné straně může posoudit, jak členové strany přijali myšlení a politické vzdělání.“ A studie to prý také zmínila: „Na druhou stranu poskytne skutečná data pro myšlenkovou a politickou výchovu, aby ji bylo možné vylepšit a obohatit.“ Výzkumná studie byla přičítána tomu, že byla provedena pod záštitou čínského komplexního národního vědeckého centra Hefei.

Zprávy z médií naznačují, že studie narážela na tvrzení, že skenování rozpoznávání obličeje a skenování mozkových vln byly schopny pomoci při odhalování, že následné dojmy byly o ČKS zesíleny.

Rád bych pro vás poznamenal, že aniž bychom byli schopni přímo zkontrolovat používané systémy a podrobně prozkoumat výzkumný dokument, neznáme podrobnosti o tom, jak byly tyto systémy založené na umělé inteligenci přesně používány.

Mohlo se stát, že subjekty spíše reagovaly na experimentální prostředí než na experimentální léčbu. Každý, kdo se účastní studie, může být ze začátku nervózní. To by mohlo zmást veškeré snahy o skenování mozkových vln nebo analýzu obličejových vzorů. Existuje také možnost, že se cítili motivováni potěšit výzkumníky a rozhodli se vymyslet si pozitivní myšlenky poté, co viděli materiály, a to by se teoreticky mohlo odrazit ve skenování mozkových vln a skenování obličeje (možná, i když prosím vězte, že existuje skvělý množství vášnivých sporů ohledně platnosti takových tvrzení, jak za chvíli objasním), v naději, že zkreslí výsledky a ukážou, že byly pozitivně ovlivněny.

Reakce Twitteru v podstatě odsoudila, že samotná představa používání skenování mozkových vln a rozpoznávání obličeje pomocí umělé inteligence je sama o sobě otřesným a pobuřujícím činem. Podle některých z těchto tweetů by tyto druhy zařízení používaly pouze lidské příšery.

Musím vás požádat, abyste se posadili a připravili se na něco, co by mohlo být hrubé a šokující překvapení.

Na celém světě existuje mnoho výzkumníků, kteří ve svých výzkumných studiích používají stejné druhy technologií. Rozhodně to není úplně poprvé, co byla při výzkumném úsilí použita schopnost skenování mozkových vln u lidských subjektů. To také rozhodně nebylo poprvé, kdy bylo rozpoznávání obličeje použito na lidských subjektech pro experimentální účely. Dokonce i zběžné online vyhledávání vám ukáže spoustu a spoustu experimentálních studií napříč různými zeměmi a laboratořemi, které tyto typy zařízení používaly.

Jak již bylo řečeno, jejich použití k měření loajality vůči ČKS není něco, na co byste se příliš zaměřovali. Když je taková AI použita pro vládní kontrolu, byla překročena červená čára, jak se říká.

To je zjevně mrazivá část celé sady a caboodle.

Mnozí vyjádřili znepokojení nad tím, že pokud se vlády rozhodnou použít technologii skenování mozkových vln a rozpoznávání obličeje k ověření loajality k daným režimům, ocitneme se v dystopickém světě ublížení. Když jdete po veřejné ulici, může se stát, že zařízení namontované na sloupu veřejného osvětlení tajně určí váš kvocient loajality.

Jeden předpokládá, že pokud váš obličej nenaznačuje, že jste dostatečně loajální, nebo pokud sken mozkových vln naznačuje totéž, mohou se náhle přispěchat vládní násilníci a chytit vás. Nervózní. Propastný. Nesmí být povoleno.

To je podstata toho, proč se nad touto zprávou objevilo pobouření a rozhořčení.

Představte si to. Možná se chystáme vytvořit a poté uvést do provozu počítačové systémy, které využívají nejnovější AI, aby se rozhodly, zda jsme loajální nebo ne. Pokud byste se pokusili najmout lidi, kteří by seděli a dělali to samé, potřebovali byste spoustu lidí a měli byste logistický problém, jak je umístit tak, aby si všímali každého. V případě systému založeného na umělé inteligenci stačí pouze nastavit elektronická zařízení na sloupech veřejného osvětlení, na stranách budov a tak dále. Skenování loajality může probíhat 24×7, kdykoli, na všech takto vybavených místech. To pak může být vloženo do rozsáhlé databáze.

Stáváme se lidmi, kteří jsou pouhými kolečky v kolosu vševidoucího vše sledujícího společenského utlačujícího ekosystému. Vidící oko nejen sleduje, co děláme. Je to také interpretace toho, co naše tváře tvrdí, že říkají o naší loajalitě k vládě. Naše mysl má být rovněž zkoumána na podobnou strašlivou příčinu.

Yikes!

Z toho také pramení druhotná obava, i když možná ne tak ožehavá ve srovnání s implikacemi Velkého bratra, jak již bylo načrtnuto.

Zamyslete se nad těmito dvěma naléhavými otázkami:

  • Můžeme spolehlivě tvrdit, že sken mozkových vln může potvrdit vaši loajalitu?
  • Můžeme spolehlivě tvrdit, že skenování obličeje může potvrdit vaši loajalitu?

Vydrž, možná křičíš z plných plic.

Uvědomuji si a uznávám, že vás nemusí tolik zajímat aspekty spolehlivosti jako takové. Zda to lze spolehlivě provést, je méně zásadní než skutečnost, že se to vůbec dělá. Nikdo by neměl být pod takovým drobnohledem. Zapomeňte na to, zda technologie pro tento úkol funguje. Neměli bychom vykonávat úkol hned na začátku.

V každém případě je odpověď právě teď rázné ne, totiž že stávající systémy umělé inteligence, které provádějí jakékoli zdání „skenování mozkových vln“ a rozpoznávání obličeje, nejsou dostatečně schopné udělat tento skok.

Možná jste v poslední době viděli, že někteří tvůrci rozpoznávání obličejů udělali trochu zpět, pokud jde o to, jak jsou jejich systémy rozpoznávání obličejů uváděny do provozu. V nadcházejícím příspěvku budu diskutovat o nedávném úsilí například ze strany Microsoftu pokusit se zastavit vlnu těch, kteří používají nástroje pro rozpoznávání obličeje poskytované společností Microsoft pro účely daleko přesahující to, co tato technologie dokáže nebo by měla být používána. . Možná vás bude zajímat můj dřívější pohled na výčitky etiky umělé inteligence, které již byly o rozpoznávání obličeje dobře propagovány, viz odkaz zde. Také jsem diskutoval o aréně skenování mozkových vln, viz moje diskuse na adrese odkaz zde.

Stručně řečeno, zatím neexistují žádné spolehlivé nebo rozumné prostředky, které by naznačovaly, že skenování mozkových vln nebo skenování rozpoznávání obličeje může představovat něčí loajalitu. Dokonce i pravděpodobně základní aspekty, jako je to, zda můžete spolehlivě korelovat tyto skeny s tím, zda je někdo šťastný nebo smutný, jsou stále živě diskutovány. Pokoušet se zvýšit ante něco tak amorfního a variabilního, jako je loajalita, je příliš daleko.

Mohl bych dodat, že někteří horlivě věří, že se tam nakonec dostaneme. Proto jsem se pečlivě snažil poznamenat, že tam ještě nejsme, spíše než konstatovat, že se tam nikdy nedostaneme. Nikdy je velké slovo. Musíte si být naprosto jisti, pokud se chystáte házet kolem sebe, že to bude nikdy být proveditelný (mějte na paměti, že „nikdy“ zahrnuje desetiletí od nynějška, staletí od nynějška a tisíce nebo miliony let od nynějška).

Někteří reagovali na novinový příběh o této čínské laboratorní výzkumné studii jako indikátoru toho, jak nebezpečně se svět obrací k nevhodnému a nebezpečnému používání AI. Za chvíli se s vámi podělím o letmý pohled na to, o čem je etika umělé inteligence. To vám pomůže lépe pochopit, proč se zdá, že tato konkrétní studie porušuje mnoho, ne-li téměř všechny obecně přijímané předpisy etické AI.

Věřte tomu nebo ne, někteří se domnívají, že ohledně této konkrétní studie možná děláme horu z krtince.

Jsme?

Protiargument zní, že z krtince se brzy může stát hora. V pověstné představě o sněhové kouli, která se zvětšuje a zvětšuje, jak se valí ze zasněženého kopce, musíme zastavit sněhovou kouli, aby se rozjela. Pokud budeme tolerovat tyto typy studií, necháme tu sněhovou kouli začít svou cestu. Tím, že budeme mluvit a vyvolávat takové studie, možná můžeme předejít sněhové kouli.

Jedna věc je jistá, pokud jde o aspekty umělé inteligence, jsme na pokraji otevření Pandořiny skříňky a otázkou zůstává, zda dokážeme otevření skříňky zabránit, nebo alespoň najít nějaký způsob, jak se obezřetně vypořádat s tím, co vyjde. jakmile krabice vypustí svůj ďábelský obsah.

Pokud nic jiného, ​​doufejme, že tyto druhy mediálních bouří podnítí širokou diskusi o tom, jak zabráníme zlozvykům souvisejícím s umělou inteligencí a odvrátíme četná existenční rizika vyvolaná umělou inteligencí. Musíme nakopnout naše společenské povědomí o etice umělé inteligence a etických úvahách o umělé inteligenci.

Než se dostaneme k dalšímu masu a bramborám o divokých a vlněných úvahách, které jsou základem těchto druhů systémů umělé inteligence, pojďme si stanovit několik dalších základů na hluboce zásadní témata. Musíme se krátce ponořit do etiky umělé inteligence a zejména do příchodu strojového učení (ML) a hlubokého učení (DL).

Možná si matně uvědomujete, že jeden z nejhlasitějších hlasů dnešní doby v oblasti umělé inteligence a dokonce i mimo ni spočívá v dožadování se většího zdání etické umělé inteligence. Pojďme se podívat na to, co znamená odkazovat se na etiku AI a etické AI. Kromě toho prozkoumáme, co mám na mysli, když mluvím o strojovém učení a hlubokém učení.

Jeden konkrétní segment nebo část etiky umělé inteligence, kterému se dostává velké pozornosti médií, se skládá z umělé inteligence, která vykazuje nepatřičné předsudky a nespravedlnosti. Možná si uvědomujete, že když začala nejnovější éra umělé inteligence, došlo k obrovskému výbuchu nadšení z toho, co někteří dnes nazývají AI pro dobro. Bohužel v patách toho tryskajícího vzrušení jsme začali být svědky AI pro špatné. Například bylo odhaleno, že různé systémy rozpoznávání obličeje založené na umělé inteligenci obsahují rasové a genderové předsudky, o kterých jsem mluvil na odkaz zde.

Snahy bránit se AI pro špatné aktivně probíhají. Kromě hlučného právní ve snaze omezit provinění na uzdě existuje také podstatný tlak na přijetí etiky umělé inteligence, aby se napravila odpornost umělé inteligence. Myšlenka je taková, že bychom měli přijmout a schválit klíčové etické principy umělé inteligence pro rozvoj a nasazení umělé inteligence, abychom podkopali AI pro špatné a současně ohlašovat a propagovat preferované AI pro dobro.

Pokud jde o související představu, jsem zastáncem pokusu o použití umělé inteligence jako součásti řešení problémů s umělou inteligencí a bojování ohně ohněm tímto způsobem myšlení. Mohli bychom například začlenit komponenty Etické umělé inteligence do systému umělé inteligence, který bude monitorovat, jak zbytek umělé inteligence dělá věci, a tak potenciálně v reálném čase zachytit jakékoli diskriminační snahy, viz moje diskuze na odkaz zde. Mohli bychom mít také samostatný systém AI, který funguje jako typ monitoru etiky AI. Systém umělé inteligence slouží jako dozorce, který sleduje a zjišťuje, kdy se jiná umělá inteligence dostává do neetické propasti (viz moje analýza takových schopností na odkaz zde).

Za chvíli se s vámi podělím o některé zastřešující principy, které jsou základem etiky umělé inteligence. Takových seznamů se tu a tam pohybuje spousta. Dalo by se říci, že zatím neexistuje jediný seznam univerzální přitažlivosti a souběžnosti. To je ta nešťastná zpráva. Dobrou zprávou je, že alespoň existují snadno dostupné seznamy etiky AI a bývají velmi podobné. Celkově to naznačuje, že formou odůvodněné konvergence svého druhu nacházíme cestu k obecné shodě toho, z čeho se skládá etika umělé inteligence.

Nejprve si stručně proberme některé z celkových etických zásad umělé inteligence, abychom ilustrovali, co by mělo být životně důležitým faktorem pro každého, kdo umělou inteligenci tvoří, využívá nebo používá.

Například, jak uvádí Vatikán v Řím vyzývá k etice umělé inteligence a jak jsem se podrobně věnoval odkaz zdeToto je jejich identifikovaných šest primárních etických principů AI:

  • Transparentnost: V zásadě musí být systémy umělé inteligence vysvětlitelné
  • zařazení: Potřeby všech lidských bytostí musí být brány v úvahu, aby každý mohl mít prospěch a všem jednotlivcům mohly být nabídnuty nejlepší možné podmínky k vyjádření a rozvoji.
  • Odpovědnost: Ti, kdo navrhují a nasazují použití AI, musí postupovat zodpovědně a transparentně
  • Nestrannost: Nevytvářejte ani nejednajte podle zaujatosti, a tím si zajistěte spravedlnost a lidskou důstojnost
  • Spolehlivost: Systémy umělé inteligence musí být schopny spolehlivě fungovat
  • Zabezpečení a soukromí: Systémy umělé inteligence musí fungovat bezpečně a respektovat soukromí uživatelů.

Jak uvedlo americké ministerstvo obrany (DoD) ve svém Etické zásady pro používání umělé inteligence a jak jsem se podrobně věnoval odkaz zde, toto je jejich šest primárních etických principů AI:

  • Odpovědný: Personál ministerstva obrany bude uplatňovat přiměřenou úroveň úsudku a péče, přičemž zůstane odpovědný za vývoj, nasazení a používání schopností AI.
  • Spravedlivý: Ministerstvo podnikne promyšlené kroky k minimalizaci nezamýšleného zkreslení schopností AI.
  • sledovatelné: Schopnosti AI ministerstva budou vyvinuty a rozmístěny tak, aby příslušní pracovníci měli odpovídající znalosti o technologii, vývojových procesech a provozních metodách použitelných pro schopnosti AI, včetně transparentních a auditovatelných metodologií, zdrojů dat a návrhových postupů a dokumentace.
  • Spolehlivý: Schopnosti umělé inteligence ministerstva budou mít explicitní, dobře definovaná použití a bezpečnost, zabezpečení a účinnost těchto schopností bude předmětem testování a zajištění v rámci těchto definovaných použití během celého životního cyklu.
  • ovladatelný: Ministerstvo navrhne a zkonstruuje schopnosti umělé inteligence tak, aby plnily zamýšlené funkce, přičemž bude mít schopnost detekovat a vyhnout se nezamýšleným následkům a schopnost odpojit nebo deaktivovat nasazené systémy, které vykazují nezamýšlené chování.

Diskutoval jsem také o různých kolektivních analýzách etických principů umělé inteligence, včetně toho, že jsem se zabýval souborem navrženým výzkumníky, kteří zkoumali a zhušťovali podstatu mnoha národních a mezinárodních zásad etiky umělé inteligence v dokumentu nazvaném „The Global Landscape Of AI Ethics Guidelines“ (publikováno v Příroda), a které mé pokrytí zkoumá na odkaz zde, což vedlo k tomuto klíčovému seznamu:

  • Průhlednost
  • Spravedlnost a férovost
  • Neškodlivost
  • Odpovědnost
  • Ochrana osobních údajů
  • Dobročinnost
  • Svoboda a autonomie
  • Věřte
  • udržitelnost
  • Důstojnost
  • Solidarita

Jak můžete přímo hádat, pokusit se určit specifika, která jsou základem těchto principů, může být extrémně obtížné. Snaha přeměnit tyto široké principy v něco zcela hmatatelného a dostatečně podrobného, ​​aby to bylo možné použít při vytváření systémů umělé inteligence, je navíc tvrdým oříškem. Celkově je snadné mávnout rukou nad tím, co jsou etická pravidla AI a jak by se měly obecně dodržovat, zatímco v kódování AI je mnohem složitější situace, kdy musí být opravdová guma, která splňuje silnici.

Principy AI etiky mají využívat vývojáři AI spolu s těmi, kteří řídí úsilí o vývoj AI, a dokonce i ti, kteří nakonec nasazují a provádějí údržbu systémů AI. Všechny zúčastněné strany během celého životního cyklu vývoje a používání AI jsou posuzovány v rámci dodržování zavedených norem etické AI. To je důležité upozornit, protože obvyklý předpoklad je, že „pouze kodéři“ nebo ti, kteří programují AI, podléhají dodržování etických pojmů AI. Jak již bylo řečeno, k vymýšlení a nasazení AI je zapotřebí vesnice a celá vesnice musí být zběhlá a dodržovat etická pravidla AI.

Pojďme se také ujistit, že jsme na stejné stránce ohledně povahy dnešní umělé inteligence.

Dnes neexistuje žádná AI, která by byla vnímavá. Tohle my nemáme. Nevíme, zda bude vnímající AI možná. Nikdo nemůže výstižně předpovědět, zda dosáhneme vnímající AI, ani zda se vnímající AI nějakým zázrakem spontánně objeví ve formě výpočetní kognitivní supernovy (obvykle označované jako singularita, viz moje pokrytí na odkaz zde).

Typ AI, na který se zaměřuji, se skládá z necítivé AI, kterou máme dnes. Pokud bychom chtěli divoce spekulovat o cítící AI, tato diskuse by se mohla ubírat radikálně jiným směrem. Vnímavá AI by měla mít lidské kvality. Měli byste vzít v úvahu, že vnímající AI je kognitivní ekvivalent člověka. Navíc, protože někteří spekulují, že bychom mohli mít superinteligentní AI, je možné, že taková AI by mohla být chytřejší než lidé (pro můj průzkum superinteligentní AI jako možnosti viz. pokrytí zde).

Nechme věci více při zemi a uvažujme o dnešní výpočetní necítivé umělé inteligenci.

Uvědomte si, že dnešní umělá inteligence není schopna „myslet“ žádným způsobem na stejné úrovni jako lidské myšlení. Když komunikujete s Alexou nebo Siri, konverzační schopnosti se mohou zdát podobné lidským schopnostem, ale skutečnost je taková, že jsou výpočetní a postrádají lidské poznání. Nejnovější éra umělé inteligence široce využívá strojové učení (ML) a hluboké učení (DL), které využívají porovnávání výpočetních vzorů. To vedlo k systémům umělé inteligence, které vypadají jako lidské sklony. Mezitím dnes neexistuje žádná umělá inteligence, která by měla zdání zdravého rozumu, ani žádný z kognitivních zázraků robustního lidského myšlení.

ML/DL je forma porovnávání výpočetních vzorů. Obvyklý přístup je takový, že shromažďujete data o úloze rozhodování. Data vkládáte do počítačových modelů ML/DL. Tyto modely se snaží najít matematické vzorce. Po nalezení takových vzorů, pokud jsou nalezeny, systém umělé inteligence tyto vzory použije, když narazí na nová data. Po předložení nových dat se pro vykreslení aktuálního rozhodnutí použijí vzory založené na „starých“ nebo historických datech.

Myslím, že můžete hádat, kam to směřuje. Pokud lidé, kteří se rozhodovali podle vzoru, začlenili nežádoucí předsudky, je pravděpodobné, že data to odrážejí jemnými, ale významnými způsoby. Počítačové porovnávání vzorů Machine Learning nebo Deep Learning se jednoduše pokusí odpovídajícím způsobem matematicky napodobit data. Neexistuje žádné zdání zdravého rozumu nebo jiných vnímavých aspektů modelování vytvořeného umělou inteligencí jako takového.

Kromě toho si vývojáři AI nemusí uvědomit, co se děje. Tajemná matematika v ML/DL může ztížit odhalení nyní skrytých předsudků. Oprávněně byste doufali a očekávali, že vývojáři umělé inteligence budou testovat potenciálně pohřbené předsudky, i když je to složitější, než by se mohlo zdát. Existuje solidní šance, že i přes poměrně rozsáhlé testování, že v modelech porovnávání vzorů ML/DL budou stále zakomponovány zkreslení.

Dalo by se tak trochu použít slavné nebo nechvalně známé pořekadlo o smetí-do odpadu-ven. Jde o to, že je to spíše podobné předsudkům – in, které se zákeřně prolínají, když se předsudky ponoří do AI. Algoritmus rozhodování (ADM) umělé inteligence je axiomaticky zatížen nerovnostmi.

Špatný.

Vraťme se k našemu zaměření na systémy umělé inteligence, které se používají k nevhodným nebo možná zcela nekalým účelům, a k tomu, jak to souvisí s nedávno zveřejněnou studií o loajalitě ČKS.

Napadají mě dvě základní úvahy:

1) Tato instance umělé inteligence je součástí rozsáhlejšího pokračujícího vzorce znepokojivého používání umělé inteligence, a proto je zlověstná a otevírá oči, pokud jde o to, co se děje.

2) Kočka by mohla být vypuštěna z pytle, takže pokud se taková umělá inteligence zavede v jedné zemi, může se snadno rozšířit i do dalších zemí

Začněte prvním bodem o této instanci umělé inteligence, která je součástí probíhajícího vzoru.

Jedním z obzvláště důležitých důvodů, proč být touto konkrétní studií obzvláště zneklidněn, je to, že je součástí širšího vzorce toho, jak se AI snaží některými používat. Pokud by to byla jediná taková studie, která kdy byla provedena, mohli bychom tím být mírně pohnuti. Pravděpodobně by však nerezonoval s takovou vervou, jakou nyní vidíme.

Je to možná kapající krok k něčemu, co se vymkne kontrole.

Jak bylo uvedeno ve zprávách, Čína je známá tím, že trvala na přehnané loajalitě vůči ČKS. Kromě toho byly vytvořeny nebo se zavádějí různé prostředky, které mají zajistit, aby lidé byli indoktrinováni do vládní doktríny. Byly citovány případy dřívějších studií, které se snažily navrhnout algoritmy umělé inteligence, které by mohly změřit myšlenkové podmínky členů strany (viz Čínou podporované Studijní doba v roce 2019, která tyto snahy zmiňovala).

Možná si vzpomenete, že v roce 2018 měl viceprezident Mike Pence projev v Hudsonově institutu a zdůraznil, že „cílem čínských vládců je zavést orwellovský systém založený na kontrole prakticky všech aspektů lidského života“ (toto byl odkaz na implementaci ČKS). systém hodnocení sociálního kreditu, téma prominentní kontroverze). Můžete snadno tvrdit, že tato nedávná studie CCP je dalším krokem tímto směrem.

Nevíme, kdy nebo zda poslední kapka zlomí velbloudovi hřbet, takže se tyto jednorázové studie promění v rozšířené monitorovací systémy založené na umělé inteligenci.

Druhým bodem, který si zaslouží pozornost, je, že nemůžeme předpokládat, že tento typ AI bude omezen pouze na Čínu. V podstatě, i když použití tohoto typu umělé inteligence v Číně, které by se mohlo rozšířit, je samo o sobě znepokojivé, ostatní země by to mohly udělat podobně.

Jakmile se říká, že AI pro toto bude připravena na hlavní vysílací čas, nebude pravděpodobně trvat moc, aby se ostatní země rozhodly, že ji chtějí implementovat také. Kočka bude z pytle. Některé země budou pravděpodobně používat tuto umělou inteligenci vyloženě represivním způsobem a nebudou se snažit o to předstírat. Jiné země mohou zdánlivě usilovat o využití tohoto typu umělé inteligence pro účely, které se jeví jako prospěšné, z nichž nakonec existuje nevýhoda, které se téměř nelze vyhnout.

Naznačovat, že tento typ umělé inteligence bude možná přijat až poté, co bude považováno za připravené pro hlavní vysílací čas, je ve skutečnosti trochu nesprávné pojmenování. Zda může AI tímto způsobem s jistotou fungovat, nemusí být žádný rozdíl. AI lze použít jako krycí příběh, viz moje vysvětlení na odkaz zde. Bez ohledu na to, čeho je umělá inteligence ve skutečnosti schopna dosáhnout, představa je taková, že umělá inteligence může být užitečnou záminkou pro sledování populace a schémata měření a zajištění absolutní loajality vůči úřadům.

Vsadil bych se, že v tomto okamžiku této závažné diskuse si přejete nějaké ilustrativní příklady, které by toto téma mohly předvést. Existuje speciální a jistě oblíbený soubor příkladů, které jsou mému srdci blízké. Víte, jako odborník na AI včetně etických a právních důsledků jsem často žádán, abych určil realistické příklady, které předvádějí dilemata etiky AI, aby bylo možné snáze pochopit poněkud teoretickou povahu tématu. Jednou z nejvíce sugestivních oblastí, která živě prezentuje tento etický problém umělé inteligence, je příchod skutečně samořídících vozů založených na umělé inteligenci. To poslouží jako praktický příklad použití nebo příklad pro rozsáhlou diskusi na dané téma.

Zde je pak pozoruhodná otázka, která stojí za zamyšlení: Osvětluje příchod skutečně samořídících aut založených na umělé inteligenci něco o nesprávném používání umělé inteligence, a pokud ano, co to ukazuje?

Dovolte mi chvíli rozbalit otázku.

Za prvé, všimněte si, že ve skutečném samořídícím autě není žádný lidský řidič. Mějte na paměti, že skutečně samořídící auta jsou řízena systémem AI. Není potřeba, aby za volantem byl lidský řidič, ani neexistuje ustanovení, aby vozidlo řídil člověk. Pro mé rozsáhlé a průběžné pokrytí Autonomních vozidel (AV) a zejména samořiditelných vozů viz odkaz zde.

Rád bych dále objasnil, co je míněno, když mluvím o skutečných samořídících autech.

Porozumění úrovním samořídících automobilů

Pro upřesnění, skutečná samořídící auta jsou ta, kde AI řídí auto zcela samo a při řízení není žádná lidská pomoc.

Tato vozidla bez řidiče jsou považována za úroveň 4 a úroveň 5 (viz mé vysvětlení na adrese odkaz zde), zatímco vůz, který vyžaduje, aby se na řízení společně podílel lidský řidič, se obvykle považuje za úroveň 2 nebo úroveň 3. Vozy, které spolu sdílejí úkol řízení, jsou popsány jako semi-autonomní a obvykle obsahují různé automatizované doplňky, které se označují jako ADAS (Advanced Driver-Assistance Systems).

Na úrovni 5 ještě není skutečné auto s vlastním řízením a ještě ani nevíme, zda toho bude možné dosáhnout, ani jak dlouho bude trvat, než se tam dostaneme.

Mezitím se úsilí úrovně 4 postupně snaží získat určitou trakci tím, že podstupují velmi úzké a selektivní testy na veřejných komunikacích, ačkoli existuje spor o to, zda by toto testování mělo být povoleno jako takové (všichni jsme pokusnými pokusnými králíky na život a na smrt odehrávající se na našich dálnicích a vedlejších cestách, někteří tvrdí, viz moje zpravodajství na odkaz zde).

Protože poloautonomní auta vyžadují řidiče, přijetí těchto typů automobilů se nebude výrazně lišit od řízení konvenčních vozidel, takže o tomto tématu není samo o sobě nic nového (jak vidíte, uvidíte) za okamžik jsou obecně použitelné následující body).

U poloautonomních automobilů je důležité, aby veřejnost musela být upozorněna na znepokojující aspekt, který se objevuje v poslední době, a to navzdory těm lidským řidičům, kteří neustále vysílají videa, která usínají za volantem auta úrovně 2 nebo 3 , všichni se musíme vyhnout tomu, aby byli uvedeni v omyl v přesvědčení, že řidič může odvrátit jejich pozornost od úkolu řízení při řízení poloautonomního automobilu.

Jste odpovědnou stranou za řízení vozidla, bez ohledu na to, kolik automatizace může být hodeno do úrovně 2 nebo úrovně 3.

Samořídící Auta A Zneužívání AI

U vozidel s vlastním řízením úrovně 4 a 5 nebude do řízení zapojen lidský řidič.

Všichni cestující budou cestující.

AI řídí.

Jedním z aspektů, které je třeba okamžitě projednat, je skutečnost, že umělá inteligence zapojená do dnešních řídicích systémů umělé inteligence není vnímavá. Jinými slovy, AI je celkově kolektiv počítačového programování a algoritmů a nejspíše není schopen uvažovat stejným způsobem jako lidé.

Proč je tento dodatečný důraz na to, aby AI nebyla vnímavá?

Protože chci zdůraznit, že při diskusi o roli řídícího systému AI nepřičítám AI lidské vlastnosti. Uvědomte si, že v dnešní době existuje trvalá a nebezpečná tendence k antropomorfizaci AI. V zásadě lidé dnešní AI připisují lidskou vnímavost, a to navzdory nepopiratelné a nepopiratelné skutečnosti, že taková AI dosud neexistuje.

S tímto vysvětlením si můžete představit, že systém řízení AI nebude nativně nějak „vědět“ o aspektech řízení. Řízení a vše, co to obnáší, bude muset být naprogramováno jako součást hardwaru a softwaru samořízeného automobilu.

Pojďme se ponořit do nesčetných aspektů, které na toto téma hrají.

Zaprvé je důležité si uvědomit, že ne všechna samořídící auta s umělou inteligencí jsou stejná. Každá automobilka a technologická firma s vlastním řízením přistupuje k navrhování samořídících vozů. Jako takové je obtížné činit rozsáhlá prohlášení o tom, co budou či nebudou dělat řídicí systémy AI.

Kromě toho, kdykoli uvedou, že řídící systém AI nedělá nějakou konkrétní věc, může to později předběhnout vývojáři, kteří ve skutečnosti naprogramují počítač, aby udělal právě tuto věc. Krok za krokem se postupně zdokonalují a rozšiřují systémy řízení AI. Stávající omezení dnes již nemusí existovat v budoucí iteraci nebo verzi systému.

Doufám, že to poskytuje dostatečnou litanii upozornění, která podpoří to, co se chystám vylíčit.

Pojďme si načrtnout scénář samořídícího auta, který by mohl využít AI útržkovitými nebo nesprávnými způsoby.

Podělím se s vámi o některé důsledky samořídícího auta založeného na AI, které by vás mohly otřást a být vyrušené. To jsou aspekty, o kterých v současnosti téměř nikdo nediskutuje. Opakovaně jsem na tyto záležitosti poukazoval, i když otevřeně přiznávám, že dokud nebudeme převládat v samořízených autech, nezískáme příliš pozornosti, pokud jde o to, že se společnost bude znepokojovat nebo rozčilovat kvůli tomu, co se dnes jeví jako pouhé abstraktní pojmy. .

Jste připraveni?

Začneme položením základů.

Samořídící auta založená na umělé inteligenci budou rozumně vybavena videokamerami. To umožňuje samořídícímu vozidlu přijímat video snímky z jízdní scény. Řídicí systém AI, který běží na počítačích v samořídícím autě, je zase určen k tomu, aby výpočetně prozkoumal shromážděné video a zjistil, kde je silnice, kde jsou poblíž auta, kde jsou chodci a tak dále. Uvědomuji si, že odříkávám základy 101 samořiditelných aut.

Na vnější straně autonomního vozidla jsou umístěny videokamery, které směřují ven. Celkově lze navíc očekávat, že na nebo uvnitř vozidla budou videokamery namířené dovnitř do interiéru samořídícího vozu. Proč? Snadno, protože bude mnoho důležitých využití pro video zachycující dění uvnitř autonomního vozidla.

Když se vydáte na projížďku v samořídícím autě, už nemusíte být řidičem. Co pak budete dělat v samořídícím autě?

Jedna věc, kterou byste mohli udělat, by bylo komunikovat s ostatními doma nebo v kanceláři. Tady jste, na cestě do práce, což znamená, že vám zabere hodinu jízdy samořídícím autem, a už můžete začít svůj pracovní den tím, že provedete online interaktivní relaci v reálném čase jako Zoom. Vidí vás díky kamerám směřujícím dovnitř do samořídícího auta. Můžete je vidět snad na LED obrazovce uvnitř samořídícího vozu. Na konci dne, když se budete vracet domů, můžete se svými dětmi udělat podobnou interaktivní video diskuzi, když si začnou dělat domácí úkoly na večer.

Další využití by bylo pro absolvování tříd. Nyní, když nemusíte ztrácet čas řízením, můžete tento čas v samořídícím autě proměnit ve zlepšení svých dovedností nebo získání certifikace či titulu. Prostřednictvím kamer směřujících dovnitř vás může váš instruktor vidět a diskutovat o tom, jak váš trénink probíhá.

Dalším využitím by bylo pokusit se zajistit, aby se jezdci v samořídících autech nezbláznili. V autě řízeném člověkem je řidičem dospělá osoba, která obvykle brání jezdcům dělat bláznivé věci, jako je označování interiéru graffiti. Co se stane s samořídícími auty založenými na umělé inteligenci? Někteří se obávají, že se jezdci rozhodnou roztrhat interiér vozidel. Aby se tomu zabránilo, společnost pro sdílení jízd, která nasazuje samořídící auta, pravděpodobně použije dovnitř směřující videokamery ke sledování toho, co lidé dělají, když jsou uvnitř autonomního vozidla.

Předpokládám, že jste přesvědčeni, že kromě kamer, které směřují ven, aby rozeznaly scénu jízdy, budeme mít videokamery, které budou namířit do interiéru samořídících vozů.

Nyní jste připraveni na to, co jsem označil jako potulné oko, viz moje analýza na odkaz zde.

Nejprve zvažte videokamery, které směřují ven.

Kamkoli auto s vlastním řízením pojede, bude potenciálně schopno nahrávat na video vše, co kamery uvidí. Samořídící auto, které sveze někoho z jeho domova a odveze ho do obchodu s potravinami, projede čtvrť a video zaznamená nejen vozovku, ale i vše ostatní, co se děje v dohledu. Otec a syn si hrají na jejich předzahrádce. Rodina sedí na jejich přední verandě. Jde to dál a dál.

Právě teď máme na veřejných komunikacích tak málo samořiditelných aut, že tato schopnost zachytit video z každodenních činností je poměrně vzácná a nepodstatná.

Představte si, že nakonec dosáhneme bezpečných a rozšířených samořiditelných vozů. Tisíce z nich. Možná miliony. Dnes máme v USA asi 250 milionů aut řízených lidmi. Nakonec je do značné míry nahradí samořiditelná auta nebo se prostě přestanou používat a na silnicích budeme mít převážně samořídící auta. Tato samořídící auta jsou řízena umělou inteligencí a jako taková mohou jezdit v podstatě 24×7. Žádné přestávky na odpočinek, žádné přestávky v koupelně.

Videodata by mohla být nahrána z těchto samořídících vozů prostřednictvím elektronických síťových připojení OTA (Over-The-Air). Samořídící auta budou využívat OTA ke stažení nejnovějších aktualizací softwaru AI do vozidla. Kromě toho lze OTA použít k nahrání dat ze samořídícího vozu do cloudové databáze.

Celkově vzato, bylo by možné tato nahraná data spojit dohromady. Díky prošívání byste mohli potenciálně poskládat dohromady každodenní příchody a odchody kohokoli, kdo vyšel v kterýkoli den ven v jakékoli lokalitě, která ve velké míře používala samořídící auta.

To je to potulné oko, před kterým jsem varoval.

Nyní můžeme zapojit studii ČKS do tohoto druhu schopností. Předpokládejme, že vláda má přístup ke všem těmto shromážděným videodatům. Poté by mohli použít algoritmus rozpoznávání obličeje založený na AI, aby zjistili, kam jste šli a v kterou denní dobu během vašich každodenních cest životem. Kromě toho by pravděpodobně mohli použít svůj „věrnostní“ analyzátor na bázi umělé inteligence, aby zjistili, zda se vám zdálo, že máte ve tváři loajální výraz, nebo ne.

Jen si představte, že jste v úterý odpoledne šli pro sendvič v místní restauraci. Po vozovce projížděla samořiditelná auta. Všechna ta videa vás zachytila, když jste šli na pětiminutovou procházku, abyste si dali něco k jídlu. Data byla nahrána do centralizované databáze. Vláda na datech spustila svůj program rozpoznávání obličeje AI.

Ukázalo se, že umělá inteligence „určila“, že máte ve tváři neloajální výraz.

Možná se tento neloajální pohled odehrál jen na okamžik. Čekali jste na rohu ulice, až se změní světlo, abyste mohli přejít ulici k restauraci. V tu chvíli vás lehce znechuceně zaškubalo, že jste na symbol Procházky museli čekat příliš dlouho. Byl to snad náznak vaší neloajality vůči vládě?

Ano, výpočtově vypočítaná umělá inteligence, byli jste v tu chvíli značně neloajální. Když se té noci vrátíte domů, vláda zařídila vaše zatčení.

Ale počkejte, je toho víc.

Pamatujte, že i videokamery míří dovnitř.

Ve stejné úterý, když jste jeli do práce v samořídícím autě, videokamery zachytily každý váš okamžik. To bylo nahráno do centralizované databáze. Software AI, který analyzuje vzorce obličejů na neloajálnost, provedl výpočetní vzor vaší mimiky během cesty do kanceláře.

V jednu chvíli jste se nenuceně dívali mimo autonomní vozidlo a všimli jste si stavebního dělníka, který částečně blokoval vozovku a způsobil, že systém řízení AI zpomalil samořídící auto. Na zlomek vteřiny vaše tvář zaregistrovala výsměch pro tohoto stavebního dělníka, který zpomaloval dopravu.

Analýza vzorů obličeje AI to interpretovala jako známku neloajality vůči vládě.

Dva údery proti vám v jeden den.

Žijete na tenkém ledě.

Samozřejmě, zda je AI „správná“ nebo „špatná“, pokud jde o schopnost určit vaši loajalitu, je v tomto kontextu téměř nepodstatné. Podstatou je, že pro tento účel byla zavedena umělá inteligence. Lidem, kteří nasazují AI, může nebo nemusí být jedno, zda je AI pro tento typ úkolu vhodná. AI umožňuje vládní kontrolu bez ohledu na samotnou technologickou platnost.

To pokrývá skenování obličeje.

Pokud nakonec máme nějaké přenosné a cenově výhodné zařízení pro provádění (údajného) skenování mozkových vln, určitě to lze zahrnout i do samořídících aut. Videokamery jsou nyní samozřejmostí. Možnost mít zařízení pro skenování mozkových vln tohoto kalibru není momentálně v kartách, ale je jasné, že je to něco, s čím se počítá do budoucna.

Pro můj průzkum toho, jak by se vláda mohla pokusit ovládnout obyvatelstvo tím, že se chopí kontroly nad samořídícími auty, viz. odkaz zde. Existuje podobná možnost, že by se o totéž mohl pokusit zákeřný herec, viz odkaz zde. Nejsou to zamýšleny jako zastrašovací taktiky, pokud jde o pokrytí souvisejících témat, místo toho jde o upozornění na důležitost kybernetické bezpečnosti a dalších preventivních opatření, která se jako společnost musíme snažit přijmout v souvislosti s nástupem všudypřítomných samořídících automobilů a další autonomní vozidla.

Proč investovat do čističky vzduchu?

Rád bych rychle pokryl jeden další aspekt o AI používané k zajištění loajality, o kterém si myslím, že je to poněkud samostatné téma, ale které některé tweety a sociální média obtěžují.

Již dříve jsem zmínil, že nemáme vnímavou AI a nevíme, zda a kdy budeme mít. Pojďme se bavit myšlenkou, že budeme mít vnímavou AI. V takovém případě zvažte následující scénář.

Prostřednictvím necítivé umělé inteligence se rozhodneme zavést rozšířené používání umělé inteligence, která výpočetně zjišťuje, zda jsou lidé loajální ke své vládě, pomocí skenování obličeje, skenování mozkových vln a tak dále. To je zcela řízeno a používáno lidmi v autoritě. To je ten znepokojivý scénář, který jsem před chvílí popisoval.

Čas zvýšit ante.

AI se stává vnímavou. Nyní jsme potenciálně předali této vnímající AI rozšířenou schopnost pravděpodobně identifikovat loajalitu a neloajalitu u lidí. Zločinná umělá inteligence, která uvažuje o vyhlazení lidí, by mohla tuto schopnost využít k rozhodnutí, že lidé budou skutečně neloajální a měli by být zcela zničeni. Nebo možná právě ti lidé, kteří dávají najevo svou neloajálnost ve tváři nebo ve svých myšlenkách, by měli být obzvlášť vyřazeni.

Jiný úhel pohledu je, že AI si přeje zotročit lidi, viz moje diskuse na odkaz zde.

Zdálo by se, že jsme AI dali dokonalý dar k provedení tohoto pátrání. Stávající infrastruktura, kterou jsme zavedli, umožňuje AI pečlivě sledovat nás, lidi. Ti, kteří zjevně vyjádřili neloajální náznak obličeje nebo mysleli na vládce AI, pocítí hněv AI.

Uvědomuji si, že jsem řekl, že jde o zvýšení ante. Nejsem si jistý, že tomu tak je. Zdá se mi, že ať už máme vládce umělé inteligence, kteří přímo rozhodují o našem osudu, oproti lidským vládcům, kteří možná používají systém umělé inteligence k určení loajality, no, ani jeden návrh se nezdá být obzvláště žádoucí.

Prozatím závěrečný komentář.

Římský učenec a filozof Marcus Tullius Cicero prohlásil, že není nic vznešenějšího, nic úctyhodnějšího než loajalita. Možná necháme AI, aby nás předběhla a stala se nástrojem k získání a zajištění „loajality“ strašlivými prostředky.

Užitečný důvod, proč zařadit etiku umělé inteligence na první místo v našem seznamu úkolů.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/07/05/ai-ethics-perturbed-by-latest-china-devised-ai-party-loyalty-mind-reading-facial-recognition- atestace-ktera-by-mohla-predznamenat-utiskujici-autonomni-systemy/