Etika umělé inteligence a hledání sebeuvědomění v AI

Jste si vědom sám sebe?

Vsadil bych se, že tomu věříš.

Jde o to, že si málokdo z nás uvědomuje sám sebe. Existuje určitý rozsah nebo stupeň sebeuvědomění a všichni se údajně lišíme v tom, jak prozíravě si sebeuvědomujeme. Můžete si myslet, že jste si plně vědomi sebe sama a jste si toho vědomi jen okrajově. Můžete si být slabě vědomi sami sebe a uvědomit si, že je to váš duševní stav.

Mezitím, v nejvyšší části spektra, můžete věřit, že jste si plně vědomi sami sebe a skutečně jste si upřímně vědomi sebe sama, jak přicházejí. Dobré pro tebe.

Když už jsme u toho, k čemu je dobré, když si člověk nadmíru uvědomuje sám sebe?

Podle průzkumu zveřejněného v Harvard Business Review (HBR) od Tasha Eurich, údajně jste schopni se lépe rozhodovat, jste si ve svých rozhodnutích jistější, jste silnější ve svých komunikačních schopnostech a celkově efektivnější (podle článku s názvem „Co vlastně je sebeuvědomění (a jak Bonusovým faktorem je, že lidé s pronikavým sebevědomím jsou prý méně náchylní podvádět, krást nebo lhát. snažit se být lepší lidskou bytostí a ozdobit své bližní.

Všechny tyto řeči o sebeuvědomění přinášejí poněkud zřejmou otázku, totiž co vlastně výraz sebeuvědomění označuje. Můžete snadno najít tuny různých definic a výkladů o komplexním a řekněme kašovitém konstruktu, který znamená být si vědom sebe sama. Někteří by situaci zjednodušili tím, že by naznačovali, že sebeuvědomění spočívá v monitorování svého vlastního já, ve vědomí, na čem jste. Dobře si uvědomujete své vlastní myšlenky a činy.

Pokud by si člověk neuvědomoval sám sebe, pravděpodobně by si neuvědomoval, co dělá, ani proč to dělá, a také by si nebyl vědom toho, co o něm ostatní lidé říkají. Jsem si jistý, že jsi potkal takové lidi.

Zdá se, že někteří lidé chodí po této zemi bez ponětí o tom, co sami dělají, a nemají ani zdání, co o nich říkají ostatní. Hádám, že byste mohli tvrdit, že jsou jako hlava-dole útočící býk v jemném butiku s rozbitnými předměty. Obvykle máme tendenci věřit, že býk neví, co dělá, a zůstává lhostejný k názorům druhých, pokud se ti ostatní nepokusí fyzicky manévrovat nebo ohradit bezradné stvoření.

Říká se, že sebeuvědomění může být poněkud rekurzivní.

Dovolte mi načrtnout příklad pro ilustraci této rekurze. Jste uprostřed sledování docela pohlcujícího kočičího videa na svém smartphonu (zdá se, že to dělá každý). Někteří lidé by neměli žádné jiné zjevné myšlenky než úžasné hřejivé dovádění těch milých koček. Mezitím si každý, kdo má špetku sebeuvědomění, uvědomuje, že sleduje video s kočkou. Mohou si být také vědomi toho, že ostatní kolem nich si všímají, že sledují video s kočkou.

Všimněte si, že si můžete být vědomi sami sebe a přitom být ponořeni do řekněme konkrétní primární činnosti. Primární aktivitou je v tomto případě sledování videa s kočkou. Sekundárně a současně můžete nést myšlenku, že ve skutečnosti sledujete kočičí video. Jste také schopni nést myšlenku, že vás ostatní pozorují, když se díváte na vcelku zábavné video s kočkou. Nemusíte nutně zastavovat jednu činnost, například přestat sledovat video s kočkou, abyste pak mohli samostatně uvažovat o tom, že sledujete (nebo jste právě sledovali) video s kočkou. Tyto myšlenky se mohou zdánlivě vyskytovat paralelně jedna s druhou.

Někdy nás naše sebeuvědomění může vykopnout nebo alespoň přerušit primární mentální aktivitu. Možná, že při přemýšlení o sledování videa s kočkou se vaše mysl částečně vynoří, protože je příliš namáhavé soustředit se pouze na video samotné. Poté se rozhodnete přetočit video, abyste se znovu podívali na část, kterou jste viděli, ale kterou jste duševně vyrušili z úplného pochopení. Sebeuvědomění narušilo vaši primární duševní aktivitu.

Dobře, nyní jsme připraveni na vznik rekurzivních aspektů.

Jste připraveni?

Díváte se na video s kočkou. Vaše sebeuvědomění vás informuje, že sledujete video s kočkou a že vás ostatní sledují, když se na video díváte. To je současný stav.

Dále uděláte další mentální skok. Začnete přemýšlet o svém sebeuvědomění. Jste si vědomi toho, že zapojujete své sebeuvědomění. Tady je to takhle: Přemýšlím příliš o tom, že bych přemýšlel o sledování videa s kočkou, ptáte se zoufale? To je další vrstva sebeuvědomění. Sebeuvědomění se řadí nad ostatní sebeuvědomění.

Existuje staré přísloví, že jsou to želvy až dolů. U fenoménů sebeuvědomění byste mohli být:

  • Neuvědomuješ si sám sebe
  • Sebevědomí sebe sama
  • Sebeuvědomění si sebeuvědomění sebe sama
  • Sebevědomí si svého sebeuvědomění si sebeuvědomění sebe sama
  • Ad Infinitum (tj. a tak dále)

Možná jste si uvědomili, že jsem dříve nenápadně poukazoval na to, že existují dvě hlavní kategorie sebeuvědomění. Jedna konkrétní teorie předpokládá, že máme jakýsi druh vnitřního sebeuvědomění, které se zaměřuje na naše vnitřní stavy, a máme také vnější sebeuvědomění, které pomáhá změřit vnímání nás lidí kolem nás, kteří nás sledují.

Podle článku HBR je zde rychlé znázornění teoreticky dvou typů sebeuvědomění: „První, který jsme nazvali vnitřní sebeuvědomění, představuje, jak jasně vidíme naše vlastní hodnoty, vášně, aspirace, jak se hodí k našemu prostředí, reakce (včetně myšlenek, pocitů, chování, silných a slabých stránek) a dopad na ostatní.“ A mezitím druhá je: „Druhá kategorie, vnější sebeuvědomění, znamená porozumět tomu, jak se na nás ostatní lidé dívají z hlediska stejných faktorů uvedených výše. Náš výzkum ukazuje, že lidé, kteří vědí, jak je ostatní vidí, jsou zručnější v projevování empatie a přijímání úhlů pohledu ostatních.“

Šikovnou matici dva na dva nebo čtyři čtverce lze odvodit tvrzením, že vnitřní i vnější sebeuvědomění se pohybuje od vysokého k nízkému, a že tyto dvě kategorie můžete spojit proti sobě. Výzkum HBR ukazuje, že jste údajně jedním z těchto čtyř archetypů sebeuvědomění:

  • Introspector: Nízké vnější sebeuvědomění + vysoké vnitřní sebeuvědomění
  • Hledač: Nízké vnější sebeuvědomění + nízké vnitřní sebeuvědomění
  • Potěší: Vysoké vnější sebeuvědomění + nízké vnitřní sebeuvědomění
  • Vědomí: Vysoké vnější sebeuvědomění + vysoké vnitřní sebeuvědomění

Vrcholem by byl archetyp „Vědomí“, který spočívá v tom, že jsme na nejvyšší příčce, abychom si byli navenek vědomi sebe sama, a také na vrcholu toho, abychom si byli vnitřně vědomi. Abych to objasnil, nedosáhnete tohoto vychvalovaného postoje nutně trvalým způsobem. Můžete proklouznout tam a zpět mezi vysokou a nízkou úrovní, mezi vnitřní a vnější sférou sebeuvědomění. Může to záviset na denní době, situaci, ve které se nacházíte, a spoustě dalších významných faktorů.

Nyní, když jsme přátelsky pokryli některé základní prvky sebeuvědomění, můžeme se pokusit spojit to s tématem etického chování.

Obvyklé tvrzení o uvědomění si sebe sama je, že je pravděpodobnější, že budete nad věcí, když si budete vědomi sami sebe. To znamená, jak již bylo naznačeno, že jste méně náchylní k nepříznivému etickému chování, jako je krádež, podvádění a lhaní. Důvodem pro tuto tendenci je to, že aktivita vašeho sebeuvědomění by vám umožnila uvědomit si, že vaše vlastní chování je nechutné nebo neetické. Nejen, že se chytíte, když zabočíte do bahnitých neetických vod, ale jste také náchylní nasměrovat se zpět na suchou zem (posvátnost etického území).

Vaše sebeuvědomění vám pomáhá při cvičení sebekontroly.

Kontrast by pravděpodobně byl, když existuje malé nebo žádné sebeuvědomění, což naznačuje, že někdo možná zapomíná na své sklony k neetickému chování. Mohli byste tvrdit, že takový nevědomý člověk si nemusí uvědomovat, že má špatný výkon. Podobně jako býci v obchodě s rozbitnými předměty, dokud jejich pozornost nezaujme něco zjevněji, je nepravděpodobné, že by se sami regulovali.

Mimochodem, ne každý to kupuje. Někdo by mohl namítnout, že sebeuvědomění lze stejně snadno aplikovat na neetické jako na etické. Například pachatel si může být plně vědom sám sebe a těší se z toho, že se dopouští špatného jednání. Jejich sebeuvědomění je dokonce žene stále prudčeji k větším a větším činům hanebného pochybení.

Je na tom více oblačnosti, než by se mohlo na první pohled zdát. Předpokládejme, že si někdo velmi uvědomuje sám sebe, ale neuvědomuje si etické zvyklosti dané společnosti nebo kultury. Tímto způsobem nemají žádné etické vedení, přestože si uvědomují sami sebe. Nebo, chcete-li, možná daná osoba ví o etických předpisech a nevěří, že se na ně vztahují. Považují se za jedinečné nebo mimo meze konvenčního etického myšlení.

Jde to dokola.

Někteří by horlivě zdůrazňovali, že sebeuvědomění by se dalo vykládat jako dvousečný eticky orientovaný meč.

Pro tuto chvíli pojďme s verzí šťastné tváře, která se skládá ze sebeuvědomění a do značné míry nás vede nebo pobízí k etickému chování. Za předpokladu, že je vše ostatní stejné, budeme drze předpokládat, že čím více sebeuvědomění budete mít, tím více budete eticky nakloněni. Určitě se zdá být příjemné a inspirativní si to přát.

Pojďme zařadit rychlost a vnést do obrazu umělou inteligenci (AI).

Jsme na křižovatce v této diskusi, abychom propojili všechny probíhající propletence s rozvíjející se sférou etické umělé inteligence, běžně známé také jako etika umělé inteligence. Pro mé průběžné a rozsáhlé pokrytí etiky AI viz odkaz zde a odkaz zde, Abychom jmenovali jen několik.

Pojem etická umělá inteligence znamená propojení oblasti etiky a etického chování až do příchodu umělé inteligence. Určitě jste viděli titulky, které vyvolaly poplach ohledně umělé inteligence, která je plná nespravedlností a různých předsudků. Existují například obavy, že systémy rozpoznávání obličeje založené na umělé inteligenci mohou občas vykazovat rasovou a genderovou diskriminaci, obvykle v důsledku toho, jak byla vyškolena a nasazena základní zařízení pro strojové učení (ML) a hluboké učení (DL) (viz moje analýza v odkaz zde).

Pokusit se zastavit nebo alespoň zmírnit ten nápor AI pro špatnéAI, sestávající ze systémů umělé inteligence, které jsou buď neúmyslně nebo někdy záměrně tvarovány tak, aby jednaly špatně, se v poslední době objevila naléhavá potřeba aplikovat etické zásady na vývoj a používání umělé inteligence. Hlavním cílem je poskytovat etické pokyny vývojářům umělé inteligence a společnostem, které AI vytvářejí nebo využívají, a těm, které jsou závislé na aplikacích umělé inteligence. Jako příklad vytvořených a přijatých etických principů umělé inteligence viz moje pokrytí na odkaz zde.

Věnujte chvíli reflexi těmto třem velmi zásadním otázkám:

  • Můžeme přimět vývojáře umělé inteligence, aby přijali etické principy umělé inteligence a uvedli tyto pokyny do skutečného používání?
  • Můžeme přimět firmy, které vyvíjejí nebo vyvíjejí AI, aby dělaly totéž?
  • Můžeme přimět ty, kteří používají AI, aby podobně znali etické aspekty AI?

Bez ostychu bych to řekl, je to náročný úkol.

Vzrušení z vytváření umělé inteligence může překonat jakékoli tušení pozornosti vůči etice umělé inteligence. No, nejen vzrušení, ale také vydělávání peněz je nedílnou součástí této rovnice. Možná vás překvapí, že někteří ve sféře umělé inteligence jsou nakloněni říci, že se dostanou k řešení „věcí“ s etickou umělou inteligencí, jakmile dostanou své systémy umělé inteligence za dveře. Toto je typická techie mantra, jak se ujistit, že selžete rychle a často, dokud to neuděláte správně (doufejme, že se vám to povede).

Samozřejmě, že ti, kteří souhrnně podsouvají eticky pochybnou AI široké veřejnosti, vypouštějí koně ze stodoly. Jejich proklamovaná rozšířená myšlenka je, že AI pro špatné po každodenním používání se opraví, což je bohužel opožděné, protože kůň již bezhlavě cválá kolem. Škody se dají dělat. Existuje také zvýšená šance, že během používání AI nebude nic opraveno nebo upraveno. Častou výmluvou je, že pohrávání si s umělou inteligencí v tomto okamžiku může situaci ještě zhoršit, pokud jde o již tak neetické rozhodování pomocí algoritmů (ADM), které se zcela vymkne ze smyku.

Co lze udělat pro získání užitečnosti a vitality toho, že Etická umělá inteligence je jasně zářícím a vůdčím světlem v myslích těch, kteří AI budují, využívají AI a používají ji?

Odpověď: Sebeuvědomění.

Ano, představa je taková, že kdyby si lidé byli více vědomi toho, jak používají AI nebo jak s ní interagují, mohlo by to zvýšit jejich sklon k tomu, aby se etická umělá inteligence stala normou. Totéž lze říci o vývojářích AI a společnostech souvisejících se systémy AI. Kdyby si byli více vědomi toho, co dělají, možná by více přijali etiku AI.

Část logiky, jak již bylo uvedeno, je, že vědomí sebe sama nabízí tendenci být eticky lepším člověkem a také odvrátit se od toho, být eticky mizerným člověkem. Pokud dokážeme udržet tento předpoklad v chodu, znamená to, že vývojáři AI, kteří jsou více nakloněni sebeuvědomění, budou inklinovat k etickému chování, a proto budou inklinovat k produkci eticky zdravé AI.

Je to pro vás most příliš daleko?

Někdo by řekl, že ta nepřímost je trochu moc. Přemrštěný řetězec vazeb mezi sebeuvědoměním, etickou ctností a uplatňováním etických pravidel na AI je možná těžké spolknout. Protiargumentem je, že by nebylo na škodu to zkusit.

Skeptici by řekli, že vývojář umělé inteligence si možná uvědomuje sám sebe a může být více eticky smýšlející, ale nemusí nutně skočit k aplikaci tohoto mentálního tábora na mravy Etické umělé inteligence. Odpovědí na tuto pochybnost je, že pokud dokážeme propagovat a popularizovat záležitosti Etické umělé inteligence, jinak zdánlivě slabé spojení se stane zjevnějším, očekávanějším a možná se stane standardním způsobem, jak věci dělat, pokud jde o vytváření umělé inteligence.

Nyní přidám zvrat do této ságy. Z toho zvratu se vám může zatočit hlava. Ujistěte se prosím, že jste dobře usazeni a připraveni na to, co se chystám naznačit.

Někteří poukazují na to, že bychom měli zabudovat etickou AI přímo do AI samotné.

Možná jste z toho prohlášení zmateni. Pojďme to rozbalit.

Programátor může vytvořit systém umělé inteligence a učinit tak s vlastním programátorským sebevědomím, že se snaží zabránit umělé inteligenci ztělesňovat předsudky a nespravedlnosti. Spíše než jen se vrhat na programování, vývojář se přes vlastní rameno ptá, zda přístup, který podnikají, povede k požadované absenci nepříznivých prvků v AI.

Skvělé, máme vývojáře AI, který se zdá být dostatečně uvědomělý, snažil se přijmout etické chování a viděl světlo, že při vytváření svého systému AI zahrnul etické zásady.

Vyhrajte za Ethical AI!

Všechno v pořádku, i když tady je něco, co se může později projevit. Umělá inteligence je nasazena a uvedena do každodenního používání. Součástí umělé inteligence byla součást umožňující „učit se“ za chodu. To znamená, že AI se může přizpůsobit na základě nových dat a dalších aspektů původního programování. Jen rychle stranou, to neznamená, že AI je vnímavá. Nemáme vnímavou AI. Ignorujte ty ostudné titulky, které říkají, že ano. Nikdo nemůže říci, zda budeme mít vnímavou umělou inteligenci, a nikdo nemůže dostatečně předpovědět, kdy a kdy k tomu dojde.

Vrátíme-li se k našemu příběhu, umělá inteligence byla záměrně navržena tak, aby se během provozu zlepšovala. Docela šikovná představa. Namísto toho, aby programátoři museli neustále vylepšovat, umožňují programu umělé inteligence, aby to dělal sám (whoa, je to práce bez práce?).

Během doby, kdy se AI palec po palci přizpůsobuje, se ukazuje, že se do systému AI vkrádají různé špinavé nerovnosti a předsudky prostřednictvím jeho vlastních změn. Zatímco programátor původně tyto sešlé aspekty zamlčel, nyní je formulují kvůli úpravě AI za chodu. Bohužel se to může stát tak nenápadným zákulisním způsobem, že nikdo není moudřejší. Ti, kteří dříve mohli dát AI zelenou po počátečním vyčerpávajícím testování, si nyní slepě neuvědomují, že AI se vydala po prohnilé cestě AI pro špatné.

Jedním ze způsobů, jak tomuto nežádoucímu výskytu zabránit, nebo jej alespoň zachytit, by bylo zabudovat do AI jakýsi druh etické dvojité kontroly AI. Komponenta v rámci AI je naprogramována tak, aby sledovala chování AI a zjišťovala, zda se začíná objevovat neetické ADM. Pokud ano, komponenta může poslat výstrahu vývojářům AI nebo tak učinit firmě, která systém AI provozuje.

Pokročilejší verze této komponenty se může pokusit AI opravit. Jednalo by se o úpravu úprav, přeměnu neetických vznikajících aspektů zpět na správné etické parametry. Dokážete si představit, že tento typ programování je složitý. Existuje šance, že by se to mohlo zmýlit, případně se neetické změnit v hluboce neetické. Existuje také možnost, že falešně pozitivní spouští komponentu do akce a možná to náležitě zpacká.

Každopádně, aniž bychom se zabředli do toho, jak by tato dvojitá kontrola fungovala, uděláme o tom odvážné prohlášení. Můžete naznačit, že nějakým omezeným způsobem se říká, že AI si je vědoma sama sebe.

Jejda, to jsou pro mnohé bojová slova.

Téměř všichni převládají přesvědčení, že dnešní umělá inteligence si není vědoma sama sebe. Tečka, tečka. Dokud nedosáhneme vnímající umělé inteligence, o které nevíme, zda nebo kdy k tomu dojde, neexistuje žádná umělá inteligence, která by si byla vědoma sama sebe. Alespoň ne ve smyslu na člověka orientovaného sebeuvědomění. Ani nenaznačujte, že se to může stát.

Rozhodně souhlasím s tím, že musíme být opatrní při antropomorfizaci AI. Za chvíli řeknu více o této obavě.

Mezitím, pokud budete v zájmu diskuse ochotni používat fázování „uvědomění si sebe sama“ uvolněným způsobem, věřím, že snadno pochopíte, proč by se dalo říci, že AI se řídí celkovým pojmem sebe-vědomí. povědomí. Máme část AI, která sleduje zbytek AI a sleduje, co dělá zbytek AI. Když zbytek AI začne jít přes palubu, monitorovací část se to snaží zjistit. Kromě toho může monitorovací část AI nebo dvojitá kontrola nasměrovat zbytek AI zpět do správných pruhů.

Nepřipadá vám to trochu jako akt sledování těch videí s kočkami a sebeuvědomění, že to děláte?

Je k tomu známý prsten.

Můžeme to rozšířit ještě více. Komponenta dvojité kontroly AI není naprogramována pouze tak, aby sledovala chování zbytku AI, ale také zaznamenává chování těch, kteří AI používají. Jak jsou na tom uživatelé při využívání AI? Předpokládejme, že někteří uživatelé vyjadřují rozhořčení nad tím, že je AI zřejmě diskriminuje. Dvojitá kontrola umělé inteligence by to mohla zachytit a použít to jako další varovný signál, že zbytek AI sejde na scestí.

To vyvolává kategorizace vnitřního sebeuvědomění a vnějšího sebeuvědomění.

Dvojitá kontrola umělé inteligence skenuje interně i externě, aby zjistila, zda zbytek umělé inteligence zamířil do znepokojivých moří. Detekce vyvolá příznak nebo způsobí provedení vlastní opravy.

Přidejme další poněkud ohromující rozšíření. Vytváříme další dvojitou kontrolu AI, která je určena k dvojité kontrole základní dvojité kontroly AI. Proč? Předpokládejme, že se zdá, že dvojitá kontrola umělé inteligence pokulhává nebo neplní svou práci. Dvojitá kontrola AI dvojité kontroly by se snažila tuto poruchu detekovat a podle toho přijmout potřebná opatření. Vítejte v rekurzivní povaze sebeuvědomění, někteří by mohli hrdě prohlásit, jak se projevuje ve výpočetním systému umělé inteligence.

Pro ty z vás, kteří jsou v tomto ohledu na okraji svého křesla, je prozatím poslední poznámka, že bychom se mohli pokusit naznačit, že pokud uděláte systémy AI „sebevědomé“, budou potenciálně tíhnout k etickému chování. Dělají to na rozumném základě? Rozhodně ne. Dělají to na výpočetní bázi? Ano, i když nám musí být jasné, že to není stejného kalibru jako lidské chování.

Pokud je vám nepříjemné, že je představa sebeuvědomění nesprávně překroucena, aby zapadla do výpočetního schématu, jsou vaše pochybnosti o tom dobře zaznamenány. Další otevřenou otázkou je, zda bychom měli zastavit pokračující snahy o umělou inteligenci, které tuto představu využívají. Mohli byste přesvědčivě namítnout, že se zdá, že nás to alespoň nasměruje k lepšímu výsledku toho, co AI pravděpodobně udělá. Když se to děje, musíme mít oči dokořán.

Asi budeme muset vidět, jak to celé dopadne. Vraťte se k tomu za pět let, deset let a padesát let a uvidíte, zda se vaše myšlení v této kontroverzní záležitosti změnilo.

Uvědomuji si, že to bylo poněkud opojné zkoumání tématu a možná toužíte po nějakých každodenních příkladech. Existuje speciální a jistě oblíbený soubor příkladů, které jsou mému srdci blízké. Víte, jako odborník na AI včetně etických a právních důsledků jsem často žádán, abych určil realistické příklady, které předvádějí dilemata etiky AI, aby bylo možné snáze pochopit poněkud teoretickou povahu tématu. Jednou z nejvíce sugestivních oblastí, která živě prezentuje tento etický problém umělé inteligence, je příchod skutečně samořídících vozů založených na umělé inteligenci. To poslouží jako praktický příklad použití nebo příklad pro rozsáhlou diskusi na dané téma.

Zde je pak pozoruhodná otázka, která stojí za zamyšlení: Osvětluje příchod skutečně samořídících aut založených na umělé inteligenci něco o tom, že umělá inteligence má zdání „sebeuvědomění“, a pokud ano, co to ukazuje?

Dovolte mi chvíli rozbalit otázku.

Za prvé, všimněte si, že ve skutečném samořídícím autě není žádný lidský řidič. Mějte na paměti, že skutečně samořídící auta jsou řízena systémem AI. Není potřeba, aby za volantem byl lidský řidič, ani neexistuje ustanovení, aby vozidlo řídil člověk. Pro mé rozsáhlé a průběžné pokrytí Autonomních vozidel (AV) a zejména samořiditelných vozů viz odkaz zde.

Rád bych dále objasnil, co je míněno, když mluvím o skutečných samořídících autech.

Porozumění úrovním samořídících automobilů

Pro objasnění platí, že skutečná samojízdná auta jsou ta, která AI řídí auto zcela sama a během řízení neexistuje žádná lidská asistence.

Tato vozidla bez řidiče jsou považována za úroveň 4 a úroveň 5 (viz mé vysvětlení na adrese odkaz zde), zatímco vůz, který vyžaduje, aby se na řízení společně podílel lidský řidič, se obvykle považuje za úroveň 2 nebo úroveň 3. Vozy, které spolu sdílejí úkol řízení, jsou popsány jako semi-autonomní a obvykle obsahují různé automatizované doplňky, které se označují jako ADAS (Advanced Driver-Assistance Systems).

Na úrovni 5 zatím není opravdové samonaváděcí auto, které ještě nevíme, jestli to bude možné dosáhnout, ani jak dlouho to bude trvat.

Mezitím se úsilí úrovně 4 postupně snaží získat určitou trakci tím, že podstupují velmi úzké a selektivní testy na veřejných komunikacích, ačkoli existuje spor o to, zda by toto testování mělo být povoleno jako takové (všichni jsme pokusnými pokusnými králíky na život a na smrt odehrávající se na našich dálnicích a vedlejších cestách, někteří tvrdí, viz moje zpravodajství na odkaz zde).

Protože poloautonomní auta vyžadují řidiče, přijetí těchto typů automobilů se nebude výrazně lišit od řízení konvenčních vozidel, takže o tomto tématu není samo o sobě nic nového (jak vidíte, uvidíte) za okamžik jsou obecně použitelné následující body).

U poloautonomních automobilů je důležité, aby veřejnost musela být upozorněna na znepokojující aspekt, který se objevuje v poslední době, a to navzdory těm lidským řidičům, kteří neustále vysílají videa, která usínají za volantem auta úrovně 2 nebo 3 , všichni se musíme vyhnout tomu, aby byli uvedeni v omyl v přesvědčení, že řidič může odvrátit jejich pozornost od úkolu řízení při řízení poloautonomního automobilu.

Jste odpovědnou stranou za řízení vozidla, bez ohledu na to, kolik automatizace může být hodeno do úrovně 2 nebo úrovně 3.

Samořídící auta a umělá inteligence s takzvaným sebeuvědoměním

U vozidel s vlastním řízením úrovně 4 a 5 nebude do řízení zapojen lidský řidič.

Všichni cestující budou cestující.

AI řídí.

Jedním z aspektů, které je třeba okamžitě projednat, je skutečnost, že umělá inteligence zapojená do dnešních řídicích systémů umělé inteligence není vnímavá. Jinými slovy, AI je celkově kolektiv počítačového programování a algoritmů a nejspíše není schopen uvažovat stejným způsobem jako lidé.

Proč je tento dodatečný důraz na to, aby AI nebyla vnímavá?

Protože chci zdůraznit, že při diskusi o roli řídícího systému AI nepřičítám AI lidské vlastnosti. Uvědomte si, že v dnešní době existuje trvalá a nebezpečná tendence k antropomorfizaci AI. V zásadě lidé dnešní AI připisují lidskou vnímavost, a to navzdory nepopiratelné a nepopiratelné skutečnosti, že taková AI dosud neexistuje.

S tímto vysvětlením si můžete představit, že systém řízení AI nebude nativně nějak „vědět“ o aspektech řízení. Řízení a vše, co to obnáší, bude muset být naprogramováno jako součást hardwaru a softwaru samořízeného automobilu.

Pojďme se ponořit do nesčetných aspektů, které na toto téma hrají.

Zaprvé je důležité si uvědomit, že ne všechna samořídící auta s umělou inteligencí jsou stejná. Každá automobilka a technologická firma s vlastním řízením přistupuje k navrhování samořídících vozů. Jako takové je obtížné činit rozsáhlá prohlášení o tom, co budou či nebudou dělat řídicí systémy AI.

Kromě toho, kdykoli uvedou, že řídící systém AI nedělá nějakou konkrétní věc, může to později předběhnout vývojáři, kteří ve skutečnosti naprogramují počítač, aby udělal právě tuto věc. Krok za krokem se postupně zdokonalují a rozšiřují systémy řízení AI. Stávající omezení dnes již nemusí existovat v budoucí iteraci nebo verzi systému.

Věřím, že to poskytne dostatečnou litanii námitek, které jsou základem toho, o čem se chystám vyprávět.

Nyní jsme připraveni se hluboce ponořit do samořídících aut a etických otázek umělé inteligence, které s sebou nesou představu, že umělá inteligence má určitý druh sebeuvědomění, chcete-li.

Použijme jednoduchý příklad. V ulicích vašeho sousedství jezdí auto s umělou inteligencí a zdá se, že jezdí bezpečně. Zpočátku jste věnoval zvláštní pozornost pokaždé, když se vám podařilo zahlédnout samořídící auto. Autonomní vozidlo vyniklo regálem elektronických senzorů, které zahrnovaly videokamery, radarové jednotky, zařízení LIDAR a podobně. Po mnoha týdnech samořídícího auta křižujícího kolem vaší komunity si toho nyní sotva všimnete. Pokud jde o vás, je to jen další auto na již tak frekventovaných veřejných komunikacích.

Abyste si nemysleli, že je nemožné nebo nepravděpodobné seznámit se se samořiditelnými auty, často jsem psal o tom, jak si místa, která jsou v rámci zkoušek samořiditelných aut, postupně zvykla na vyšperkovaná vozidla, viz moji analýzu na odkaz zde. Mnozí z místních nakonec přešli z uchváceného civění s otevřenými ústy k tomu, že nyní vydávali expanzivní zívání nudy, aby byli svědky těch klikatých samořídících aut.

Pravděpodobně hlavním důvodem, proč by si právě teď mohli všimnout autonomních vozidel, je faktor podráždění a podráždění. Řídicí systémy AI podle knihy zajišťují, že auta dodržují všechny rychlostní limity a pravidla silničního provozu. U hektických lidských řidičů v jejich tradičních lidsky řízených autech budete občas naštvaní, když uvíznete za přísně zákony dodržujícími samořídícími auty založenými na umělé inteligenci.

To je něco, na co si možná budeme muset všichni zvyknout, ať už oprávněně nebo neprávem.

Zpět k našemu příběhu. Předpokládejme, že jednoho dne se samořídící auto ve vašem městě blíží k značce Stop a nezdá se, že by zpomalovalo. Sakra, vypadá to, že systém řízení AI bude mít samořídící auto pluh přímo za značkou Stop. Představte si, že by někde poblíž byl chodec nebo jezdec na kole a přistihli ho, že samořídící auto nezastaví pořádně. Hanebný. Nebezpečný!

A nelegální.

Podívejme se nyní na komponentu AI v systému řízení AI, který funguje jako styl sebevědomé dvojité kontroly.

Na chvíli se ponoříme do podrobností o tom, co se děje uvnitř systému řízení AI. Ukázalo se, že videokamery namontované na autonomním vozidle detekovaly něco, co se zdálo být značkou Stop, i když v tomto případě značku Stop hojně zakrývá přerostlý strom. Systém strojového učení a hlubokého učení, který byl původně trénován na značkách Stop, byl navržen na základě vzorů v zásadě stopek, obecně neomezených. Po výpočtovém prozkoumání videozáznamu byla přiřazena nízká pravděpodobnost, že na tomto konkrétním místě značka Stop existovala (jako další komplikace a další vysvětlení se jednalo o nově zveřejněnou značku Stop, která se neobjevila na dříve připravených digitálních mapách, které Řídicí systém AI se spoléhal na).

Celkově vzato, řídicí systém umělé inteligence se výpočetně rozhodl pokračovat vpřed, jako by značka Stop buď neexistovala, nebo možná byla známkou jiného druhu, která možná připomínala značku Stop (to se může stát a stává se to s určitou frekvencí).

Ale naštěstí AI sebevědomá dvojitá kontrola sledovala aktivity AI řídicího systému. Po výpočtovém přezkoumání dat a posouzení zbytkem AI se tato součást rozhodla potlačit normální průběh a místo toho přikázala řídicímu systému AI, aby se vhodně zastavil.

Nikdo nebyl zraněn a nedošlo k žádnému protiprávnímu jednání.

Dalo by se říci, že sebevědomá dvojitá kontrola umělé inteligence se chovala, jako by to byl vložený právní zástupce, který se snažil zajistit, aby systém řízení umělé inteligence dodržoval zákon (v tomto případě značka Stop). Důležitá byla samozřejmě i bezpečnost.

Tento příklad, doufejme, ukazuje, jak by mohla fungovat vymyšlená dvojitá kontrola AI.

Dále se můžeme krátce zamyslet nad nápadnějším příkladem etické umělé inteligence, který ilustruje, jak může dvojitá kontrola sebevědomí umělé inteligence poskytnout eticky orientovanou vestavěnou funkcionalitu zaměřenou na umělou inteligenci.

Za prvé, jedna z obav, které byly vyjádřeny v souvislosti s nástupem samořídících automobilů založených na AI, je, že by mohla být nakonec používána poněkud neúmyslným diskriminačním způsobem. Zde je návod. Předpokládejme, že tato samořídící auta jsou nastavena tak, aby se pokusila maximalizovat svůj výnosový potenciál, což rozhodně dává smysl pro ty, kteří provozují flotilu dostupných samořiditelných vozů pro sdílenou jízdu. Majitel vozového parku by chtěl mít ziskový provoz.

Mohlo by se stát, že v daném městě či městě začnou kočující samořiditelná auta postupně obsluhovat některé části komunity a ne jiné oblasti. Dělají to s cílem vydělat peníze, protože chudší oblasti nemusí být tak výnosné jako bohatší části lokality. To není výslovná aspirace sloužit některým oblastem a ne sloužit jiným. Namísto toho organicky vzniká, když umělá inteligence samořídících aut „zjistí“ výpočtově, že je třeba vydělat více peněz soustředěním se na geograficky lépe placené oblasti. O tomto společenském etickém zájmu jsem diskutoval ve svém sloupku, jako např odkaz zde.

Předpokládejme, že jsme do řídicích systémů AI přidali dvojitou kontrolu AI. Po chvíli si komponenta AI výpočetně všimne vzoru, kde se samořídící auta potulují. Zejména v některých oblastech, ale ne v jiných. Na základě toho, že byly zakódovány některé etické zásady umělé inteligence, začne AI sebevědomá dvojitá kontrola navádět samořídící auta do jiných částí města, které byly jinak zanedbávány.

To ilustruje představu umělé inteligence a činí tak v kombinaci s prvkem Etické umělé inteligence.

Ještě jeden takový příklad by mohl poskytnout pohled na to, že tato úvaha o Etické umělé inteligenci může být také docela střízlivým a vážným následkem na život nebo na smrt.

Zvažte novinovou zprávu o nedávné autonehodě. Lidský řidič údajně přijížděl k rušné křižovatce a měl zelenou, aby pokračoval rovně. Další řidič projel kolem červené a vjel do křižovatky, když to neměl dělat. Řidič se zeleným světlem si na poslední chvíli uvědomil, že toto druhé auto do jeho vozu silně narazí.

Podle tohoto ohroženého řidiče si vědomě počítal, že buď ho srazí druhé auto, nebo může uhnout a pokusit se vyhnout vetřelci. Problém s vybočením byl, že poblíž byli chodci, kteří by byli ohroženi.

Kterou volbu byste zvolili?

Můžete se připravit na zásah a doufat, že vás poškození nezmrzačí ani nezabije. Na druhou stranu se můžete radikálně odklonit, ale těžce ohrozit a případně zranit nebo zabít blízké chodce. Toto je těžký problém, který zahrnuje morální úsudek a je plně ponořen do etických (a právních) důsledků.

Existuje obecný etický problém, který pokrývá tento druh dilematu, slavně nebo možná nechvalně známého jako Problém vozíků, viz moje rozsáhlé pokrytí na odkaz zde. Ukazuje se, že jde o eticky stimulující myšlenkový experiment, který sahá až do počátku 1900. století. Jako takové je toto téma již nějakou dobu a v poslední době se obecně spojuje s příchodem AI a samořídících aut.

Vyměňte lidského řidiče za systém řízení AI zabudovaný do samořídícího auta.

Představte si potom, že auto s umělou inteligencí vjíždí do křižovatky a senzory autonomního vozidla náhle detekují člověkem řízený automobil, který nebezpečně přijíždí přímo na červenou a míří na auto bez řidiče. Předpokládejme, že samořídící auto má ve vozidle nějaké cestující.

Co chcete, aby AI dělala?

Pokud by se řidičský systém AI rozhodl pokračovat vpřed a nechat se narazit (pravděpodobně poškodí nebo možná zabije cestující ve vozidle), nebo chcete, aby řidičský systém AI využil šance a uhnul, ačkoli zatočení zabere autonomní vozidlo nebezpečně vůči blízkým chodcům a mohl by jim ublížit nebo je zabít.

Mnoho výrobců AI samořídících aut se k těmto etickým problémům s umělou inteligencí staví přímočaře. Celkově vzato, umělá inteligence, jak je nyní naprogramována, by se prostě plula vpřed a byla by násilně naražena druhým autem. AI nebyla naprogramována tak, aby hledala nějaké další úhybné manévry.

Opakovaně jsem předpovídal, že tento postoj výrobců samořídících aut s umělou inteligencí se nakonec objeví a překousne je (má analýza je na odkaz zde). Můžete očekávat soudní spory zahrnující takové autonehody, které se budou snažit zjistit, k čemu byla AI naprogramována. Byla společnost nebo vývojáři umělé inteligence nebo provozovatel vozového parku, kteří vyvinuli a nasadili AI, nedbalí nebo odpovědní za to, co AI udělala nebo neudělala? Můžete také očekávat, že jakmile se takové případy vyskytnou, vypukne celosvětová ohnivá bouře etického povědomí o umělé inteligenci.

Do tohoto etického dilematu umělé inteligence zasahují naše vychvalované AI sebevědomé dvojité kontroly, které jsou zaměřeny na etiku. Možná by se tato speciální složka AI mohla zapojit do takových okolností. Součástí je sledování zbytku systému řízení AI a stavu samořídícího vozu. Když nastane taková hrozná chvíle, komponenta AI slouží jako řešení problémů s vozíkem a nabízí, co by měl systém řízení AI dělat.

Není snadné kódovat, ujišťuji vás.

Proč investovat do čističky vzduchu?

Podělím se s vámi o prozatím poslední myšlenku na toto téma.

Pravděpodobně vás to bude zajímat.

Víte o zrcadlový test?

Je to docela dobře známé při studiu sebeuvědomění. Dalšími názvy pro tuto záležitost jsou zrcadlový test sebepoznání, test červených skvrn, test rouge a související fráze. Technika a přístup byly původně vytvořeny na počátku 1970. let XNUMX. století pro hodnocení sebeuvědomění zvířat. Mezi zvířata, která údajně úspěšně prošla testem, patří lidoopi, určité druhy slonů, delfíni, straky a někteří další. Mezi zvířata, která byla testována a údajně testem neprošla, patří pandy velké, lachtani atd.

Tady je dohoda.

Když se zvíře vidí v zrcadle, uvědomuje si zvíře, že zobrazený obraz je jejich vlastní, nebo si zvíře myslí, že je to jiné zvíře?

Zvíře pravděpodobně vizuálně rozpoznává svůj vlastní druh, protože vidělo jiný svého druhu, a mohlo by si proto myslet, že zvíře zobrazené v zrcadle je bratranec nebo možná agresivní konkurent (zvláště pokud zvíře vrčí na zrcadlový obraz, který v Zdá se, že odbočka na ně vrčí). Možná jste viděli svou domácí kočku nebo milovaného psa udělat totéž, když se poprvé viděli v domácím zrcadle.

V každém případě bychom předpokládali, že divoké zvíře se ještě nikdy nevidělo. To nemusí být nutně pravda, protože zvíře možná zahlédlo samo sebe v klidné vodní tůni nebo prostřednictvím lesklého skalního útvaru. Ale ty jsou považovány za méně pravděpodobné šance.

Dobře, chceme nějak posoudit, zda je zvíře schopno zjistit, že je to ve skutečnosti zvíře zobrazené v zrcadle. Přemýšlejte o tom zdánlivě jednoduchém činu. Lidé v mladém věku zjišťují, že existují a že jejich existence je demonstrována tím, že se vidí v zrcadle. Uvědomují si sami sebe. Teoreticky si možná neuvědomíte, že jste to vy, dokud se neuvidíte v zrcadle.

Možná zvířata nejsou schopna kognitivně uvědomovat si sebe sama stejným způsobem. Mohlo by se stát, že by se zvíře vidělo v zrcadle a neustále věřilo, že je to nějaké jiné zvíře. Bez ohledu na to, kolikrát se vidělo, stále by si myslelo, že je to jiné zvíře než ono.

Přichází ke hře triková část. Uděláme značku na zvířeti. Tato značka musí být viditelná pouze tehdy, když se zvíře vidí v zrcadle. Pokud se zvíře může otočit nebo otočit a uvidí značku na sobě (přímo), experiment to zničí. Zvíře navíc nemůže značku cítit, cítit nebo jiným způsobem detekovat. Ještě jednou, kdyby to udělali, experiment by to zničilo. Zvíře nemůže vědět, že jsme na něj dali značku, protože by to zvíře napovědělo, že tam něco je.

Chceme zúžit věci tak, že jediným možným důvodem, proč je značka zjistitelná, by byl pohled na sebe v zrcadle.

Aha, test je nyní připraven. Zvíře se postaví před zrcadlo nebo se k němu zatoulá. Pokud se zvíře následně pokusí dotknout se značky nebo do ní kopat, rozumně bychom dospěli k závěru, že by k tomu mohlo dojít jedině tehdy, kdyby si zvíře uvědomilo, že značka byla na něm samotném. Velmi málo živočišných druhů dokázalo úspěšně projít tímto testem.

Ohledně testu je spousta kritik. Pokud je nablízku lidský tester, mohl by prozrazovat věci zíráním na značku, což by mohlo způsobit, že se zvíře otře nebo po ní začne hmatat. Další možností je, že zvíře stále věří, že v zrcadle je zobrazeno jiné zvíře, ale je stejného typu, a proto se zvíře ptá, zda také nemá značku jako na tom druhém.

Jde to dál a dál.

Jsem si jist, že jste to rádi, že to víte a že od nynějška pochopíte, proč je na zvířeti tečka nebo nějaké podivné označení, které by jinak takové označení nemělo. Kdo ví, možná nedávno dokončil experiment se zrcadlovým testem. Blahopřejte zvířeti, bezpečně, za to, že bylo štědrým účastníkem.

Co to má společného s samořídícími auty založenými na umělé inteligenci?

Tento díl se vám bude líbit.

Samořídící auto jede po dlouhé dálnici. Řídicí systém AI používá senzory k detekci ostatního provozu. Jedná se o dvouproudovou dálnici, která má provoz směřující na sever v jednom pruhu a na jih v druhém pruhu. Příležitostně se auta a kamiony budou snažit předjet jeden druhého, přičemž se zařadí do protilehlého pruhu a poté naskočí zpět do svého správného jízdního pruhu.

Viděli jste to, nepochybně jste to udělali.

Vsadím se, že tento další aspekt se stal i vám. Před samořídícím autem je jedna z těch rozměrných cisteren. Je vyrobena z lesklého kovu. Naleštěné a čisté jako píšťalka. Když se dostanete za takový kamion, můžete vidět zrcadlový obraz vašeho auta přes zadní část cisterny. Pokud jste to viděli, víte, jak to může být fascinující. Tady jste, vy a vaše auto, odráží se v zrcadlovém odrazu zadní části cisterny.

Sedněte si k šílenému zvratu.

Za cisternou přijíždí samořídící auto. Kamery detekují obraz auta, který se zobrazuje v zrcadlovém odrazu. Hej, AI hodnotí, je to auto? Přichází to samořídící auto? Jak se samořídící auto přibližuje a přibližuje k cisterně, zdá se, že auto je stále blíž a blíž.

Jejda, umělá inteligence by výpočetně mohla vypočítat, že se jedná o nebezpečnou situaci a umělá inteligence by měla podniknout úhybnou akci z tohoto šíleného nepoctivého vozidla. Vidíte, AI se v zrcadle nepoznala. Neprošel zrcadlovým testem.

Co dělat? Možná do věci skočí sebevědomá dvojitá kontrola AI a ujišťuje zbytek řídicího systému AI, že jde pouze o neškodný odraz. Nebezpečí zažehnáno. Svět je zachráněn. Úspěšné absolvování testu AI Mirror Test!

S vyplazeným závěrem bychom dokonce mohli naznačit, že někdy je umělá inteligence chytřejší nebo alespoň sebevědomější než průměrný medvěd (ačkoli medvědům lze ke cti, že v zrcadlovém testu si obvykle vedou dobře, často se zvyklí na jejich odraz v kalužích vody).

Oprava, možná umělá inteligence dokáže být sebevědomější než pandy velké a lachtani, ale neříkejte to zvířatům, mohla by být v pokušení rozbít nebo rozbít systémy umělé inteligence. To nechceme, že?

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/09/18/ai-ethics-and-the-quest-for-self-awareness-in-ai/