Etika umělé inteligence je skeptická ohledně zavádění takzvaných zákonů o umělé inteligenci s červenou vlajkou pro vyvolávání neobjektivních algoritmů v autonomních systémech umělé inteligence

Pojďme si promluvit o zákonech Rudé vlajky.

Nepochybně víte, že pojem Red Flag Laws byl v poslední době široce zahrnut ve zprávách. Titulků k tématu je spousta. Vášně a vášnivé debaty o takových záležitostech jsou v popředí zájmu společnosti a zahrnují současné a rychle se objevující zákony o střelbě s červenou vlajkou.

Troufám si však říci, že možná neznáte další zákony o červené vlajce přijaté koncem 1800. století týkající se motorových vozidel a předchůdců dnešních každodenních moderních automobilů. Ano, je to tak, zákony Red Flag sahají do historie, i když ve srovnání s dnešním současným zaměřením pokrývají jiná témata. Ty se obvykle označují jako dopravní zákony s červenou vlajkou.

Tyto nyní stoleté a zcela zaniklé zákony vyžadovaly, aby každý motorizovaný kočár nebo motor poháněný párou v té době měl před vozidlem předcházet dospělého a nést červenou vlajku pro varovné účely. Myšlenka byla taková, že dobytek by se mohl znepokojit těmi hlučnými a protivnými výtvory, které se pomalu a nerovnoměrně řítily po prašných nebo okrajově dlážděných cestách, takže kdyby někdo šel před strojem a energicky mával červenou vlajkou, doufejme, že by se dalo zabránit vzniku katastrof. V případě, že by vás to zajímalo, železnice a vlaky byly považovány za vyloučené ze stejných zákonů, protože se jednalo o vozidla integrálně svázaná s kolejemi a měly jiné zákony pokrývající jejich činnost.

Představte si, že dnes musíte mávat červenými vlajkami jako požadavek na každé auto na našich veřejných komunikacích.

Například běžný motorista přijíždějící po ulici ve vaší čtvrti by se musel ujistit, že před jedoucím autem bude defilovat dospělý mávající červenou vlajkou. To by se muselo stát pro každé vozidlo projíždějící vaší ulicí. Možná by se z lidí stali pracovníci s červenými prapory, kteří najímali projíždějící řidiče aut, kteří by jinak neměli přítele nebo příbuzného, ​​který by mohl jít před nimi a provést předepsanou akci mávnutím rukou.

V dnešní době máme tendenci spojovat mávání červenými vlajkami související s dálnicemi se staveništi silnic. Když se přiblížíte k rozkopané silnici, pracovníci budou držet zvednutou červenou vlajku, aby upoutali vaši pozornost. To vám říká, abyste zpomalili a byli ve střehu. Mohl by tu být buldozer, který se vám připlete do cesty. Před vámi může být obrovská díra a budete ji muset opatrně obejít.

Ale vraťme se k používání červených vlajek v roce 1800.

Věřte tomu nebo ne, mávání rudou vlajkou mělo být nejméně o jednu osminu míle v předstihu před nadcházejícím motorizovaným strojem. To se mi zdá jako docela dlouhá vzdálenost. Člověk se však domnívá, že to v té době dávalo smysl. Překvapivé zvuky motoru a možná pouhý pohled na vozidlo by mohly stačit k tomu, aby zvířata znervóznila. Některé ze zákonů rudé vlajky té doby také vyžadovaly, aby bylo během noci drženo ve vzduchu svítící červené světlo, aby bylo z temné vzdálenosti vidět vizuálně zjevné červené preventivní varování.

Obecně si myslím, že je spravedlivé tvrdit, že my jako společnost máme tendenci spojovat červenou vlajku jako jakýsi signál nebo znamení, že je něco potenciálně v nepořádku nebo alespoň vyžaduje naši oddanou pozornost.

Připravte se na trochu zvratu v tomto fenoménu červené vlajky.

Objevuje se námitka, že bychom měli vyžadovat ustanovení o červené vlajce, pokud jde o umělou inteligenci (AI).

To je trochu zarážející a překvapivý koncept, který dostane mnoho hlav. Možná si lámete hlavu nad tím, jak nebo proč by mělo existovat tzv Zákony AI s červenou vlajkou. Vezměte prosím na vědomí, že to označuji jako zákony o umělé vlajce s červenou vlajkou, abych to odlišil od dopravních zákonů s červenou vlajkou (jako jsou zákony z konce 1800. století) a také proto, abych je odlišil od dnešních dalších převládajících zákonů o střelbě s červenou vlajkou.

Potřebujeme skutečně zákony o umělé inteligenci Red Flag, které jsou zřetelně a výhradně zaměřeny na záležitosti umělé inteligence?

Ti, kteří upřednostňují navrhovaný přístup, by trvali na tom, že bezpodmínečně potřebujeme právní ustanovení, která by pomohla potlačit AI, která obsahuje nepřiměřené předsudky a jedná diskriminačním způsobem. Právě teď je budování a nasazení umělé inteligence podobné okolnostem divokého západu. Úsilí omezit špatnou AI v současnosti závisí na formulaci a přijetí pokynů pro etiku AI. Mé průběžné a rozsáhlé pokrytí etiky AI a etické AI viz odkaz zde a odkaz zde, Abychom jmenovali jen několik.

Zákony, které škatulkují špatnou AI, jsou pomalu vymýšleny a uzákoněny, viz moje pokrytí na odkaz zde. Někteří se obávají, že zákonodárci nejdou dostatečně rychle. Zdá se, jako by záplavové brány umožňující podporovat neobjektivní AI ve světě byly právě teď do značné míry otevřené. Ruční ždímání říká, že než se nové zákony dostanou do knih, zlý džin už bude z láhve.

Ne tak rychle, protiargumenty jdou. Obavy jsou, že pokud budou zákony zavedeny příliš rychle, zabijeme jakoby zlatou husu, čímž úsilí o umělou inteligenci vyschne a nezískáme společensky posilující výhody nových systémů umělé inteligence. Vývojáři a firmy s umělou inteligencí, kteří chtějí používat umělou inteligenci, by se mohli vyděsit, pokud by na federální, státní a místní úrovni byla náhle zavedena byzantská řada nových zákonů upravujících umělou inteligenci, nemluvě o mezinárodních zákonech souvisejících s umělou inteligencí, které také postupují vpřed.

Do této chaotické záležitosti přichází volání po zákonech Red Flag AI.

Než se pustíme do dalšího masa a brambor o divokých a vlněných úvahách, které jsou základem předpokládaného zákona o umělé inteligenci Red Flag, pojďme si stanovit několik dalších základů pro hluboce zásadní témata. Musíme se krátce ponořit do etiky umělé inteligence a zejména do příchodu strojového učení (ML) a hlubokého učení (DL).

Možná si matně uvědomujete, že jeden z nejhlasitějších hlasů dnešní doby v oblasti umělé inteligence a dokonce i mimo ni spočívá v dožadování se většího zdání etické umělé inteligence. Pojďme se podívat na to, co znamená odkazovat se na etiku AI a etické AI. Kromě toho prozkoumáme, co mám na mysli, když mluvím o strojovém učení a hlubokém učení.

Jeden konkrétní segment nebo část etiky umělé inteligence, kterému se dostává velké pozornosti médií, se skládá z umělé inteligence, která vykazuje nepatřičné předsudky a nespravedlnosti. Možná si uvědomujete, že když začala nejnovější éra umělé inteligence, došlo k obrovskému výbuchu nadšení z toho, co někteří dnes nazývají AI pro dobro. Bohužel v patách toho tryskajícího vzrušení jsme začali být svědky AI pro špatné. Například bylo odhaleno, že různé systémy rozpoznávání obličeje založené na umělé inteligenci obsahují rasové a genderové předsudky, o kterých jsem mluvil na odkaz zde.

Snahy bránit se AI pro špatné aktivně probíhají. Kromě hlučného právní ve snaze omezit provinění na uzdě existuje také podstatný tlak na přijetí etiky umělé inteligence, aby se napravila odpornost umělé inteligence. Myšlenka je taková, že bychom měli přijmout a schválit klíčové etické principy umělé inteligence pro rozvoj a nasazení umělé inteligence, abychom podkopali AI pro špatné a současně ohlašovat a propagovat preferované AI pro dobro.

Pokud jde o související představu, jsem zastáncem pokusu o použití umělé inteligence jako součásti řešení problémů s umělou inteligencí a bojování ohně ohněm tímto způsobem myšlení. Mohli bychom například začlenit komponenty Etické umělé inteligence do systému umělé inteligence, který bude monitorovat, jak zbytek umělé inteligence dělá věci, a tak potenciálně v reálném čase zachytit jakékoli diskriminační snahy, viz moje diskuze na odkaz zde. Mohli bychom mít také samostatný systém AI, který funguje jako typ monitoru etiky AI. Systém umělé inteligence slouží jako dozorce, který sleduje a zjišťuje, kdy se jiná umělá inteligence dostává do neetické propasti (viz moje analýza takových schopností na odkaz zde).

Za chvíli se s vámi podělím o některé zastřešující principy, které jsou základem etiky umělé inteligence. Takových seznamů se tu a tam pohybuje spousta. Dalo by se říci, že zatím neexistuje jediný seznam univerzální přitažlivosti a souběžnosti. To je ta nešťastná zpráva. Dobrou zprávou je, že alespoň existují snadno dostupné seznamy etiky AI a bývají velmi podobné. Celkově to naznačuje, že formou odůvodněné konvergence svého druhu nacházíme cestu k obecné shodě toho, z čeho se skládá etika umělé inteligence.

Nejprve si stručně proberme některé z celkových etických zásad umělé inteligence, abychom ilustrovali, co by mělo být životně důležitým faktorem pro každého, kdo umělou inteligenci tvoří, využívá nebo používá.

Například, jak uvádí Vatikán v Řím vyzývá k etice umělé inteligence a jak jsem se podrobně věnoval odkaz zdeToto je jejich identifikovaných šest primárních etických principů AI:

  • Transparentnost: V zásadě musí být systémy umělé inteligence vysvětlitelné
  • zařazení: Potřeby všech lidských bytostí musí být brány v úvahu, aby každý mohl mít prospěch a všem jednotlivcům mohly být nabídnuty nejlepší možné podmínky k vyjádření a rozvoji.
  • Odpovědnost: Ti, kdo navrhují a nasazují použití AI, musí postupovat zodpovědně a transparentně
  • Nestrannost: Nevytvářejte ani nejednajte podle zaujatosti, a tím si zajistěte spravedlnost a lidskou důstojnost
  • Spolehlivost: Systémy umělé inteligence musí být schopny spolehlivě fungovat
  • Zabezpečení a soukromí: Systémy umělé inteligence musí fungovat bezpečně a respektovat soukromí uživatelů.

Jak uvedlo americké ministerstvo obrany (DoD) ve svém Etické zásady pro používání umělé inteligence a jak jsem se podrobně věnoval odkaz zde, toto je jejich šest primárních etických principů AI:

  • Odpovědný: Personál ministerstva obrany bude uplatňovat přiměřenou úroveň úsudku a péče, přičemž zůstane odpovědný za vývoj, nasazení a používání schopností AI.
  • Spravedlivý: Ministerstvo podnikne promyšlené kroky k minimalizaci nezamýšleného zkreslení schopností AI.
  • sledovatelné: Schopnosti AI ministerstva budou vyvinuty a rozmístěny tak, aby příslušní pracovníci měli odpovídající znalosti o technologii, vývojových procesech a provozních metodách použitelných pro schopnosti AI, včetně transparentních a auditovatelných metodologií, zdrojů dat a návrhových postupů a dokumentace.
  • Spolehlivý: Schopnosti umělé inteligence ministerstva budou mít explicitní, dobře definovaná použití a bezpečnost, zabezpečení a účinnost těchto schopností bude předmětem testování a zajištění v rámci těchto definovaných použití během celého životního cyklu.
  • ovladatelný: Ministerstvo navrhne a zkonstruuje schopnosti umělé inteligence tak, aby plnily zamýšlené funkce, přičemž bude mít schopnost detekovat a vyhnout se nezamýšleným následkům a schopnost odpojit nebo deaktivovat nasazené systémy, které vykazují nezamýšlené chování.

Diskutoval jsem také o různých kolektivních analýzách etických principů umělé inteligence, včetně toho, že jsem se zabýval souborem navrženým výzkumníky, kteří zkoumali a zhušťovali podstatu mnoha národních a mezinárodních zásad etiky umělé inteligence v dokumentu nazvaném „The Global Landscape Of AI Ethics Guidelines“ (publikováno v Příroda), a které mé pokrytí zkoumá na odkaz zde, což vedlo k tomuto klíčovému seznamu:

  • Průhlednost
  • Spravedlnost a férovost
  • Neškodlivost
  • Odpovědnost
  • Ochrana osobních údajů
  • Dobročinnost
  • Svoboda a autonomie
  • Věřte
  • udržitelnost
  • Důstojnost
  • Solidarita

Jak můžete přímo hádat, pokusit se určit specifika, která jsou základem těchto principů, může být extrémně obtížné. Snaha přeměnit tyto široké principy v něco zcela hmatatelného a dostatečně podrobného, ​​aby to bylo možné použít při vytváření systémů umělé inteligence, je navíc tvrdým oříškem. Celkově je snadné mávnout rukou nad tím, co jsou etická pravidla AI a jak by se měly obecně dodržovat, zatímco v kódování AI je mnohem složitější situace, kdy musí být opravdová guma, která splňuje silnici.

Principy AI etiky mají využívat vývojáři AI spolu s těmi, kteří řídí úsilí o vývoj AI, a dokonce i ti, kteří nakonec nasazují a provádějí údržbu systémů AI. Všechny zúčastněné strany během celého životního cyklu vývoje a používání AI jsou posuzovány v rámci dodržování zavedených norem etické AI. To je důležité upozornit, protože obvyklý předpoklad je, že „pouze kodéři“ nebo ti, kteří programují AI, podléhají dodržování etických pojmů AI. Jak již bylo řečeno, k vymýšlení a nasazení AI je zapotřebí vesnice a celá vesnice musí být zběhlá a dodržovat etická pravidla AI.

Pojďme se také ujistit, že jsme na stejné stránce ohledně povahy dnešní umělé inteligence.

Dnes neexistuje žádná AI, která by byla vnímavá. Tohle my nemáme. Nevíme, zda bude vnímající AI možná. Nikdo nemůže výstižně předpovědět, zda dosáhneme vnímající AI, ani zda se vnímající AI nějakým zázrakem spontánně objeví ve formě výpočetní kognitivní supernovy (obvykle označované jako singularita, viz moje pokrytí na odkaz zde).

Typ AI, na který se zaměřuji, se skládá z necítivé AI, kterou máme dnes. Pokud bychom chtěli divoce spekulovat o cítící AI, tato diskuse by se mohla ubírat radikálně jiným směrem. Vnímavá AI by měla mít lidské kvality. Měli byste vzít v úvahu, že vnímající AI je kognitivní ekvivalent člověka. Navíc, protože někteří spekulují, že bychom mohli mít superinteligentní AI, je možné, že taková AI by mohla být chytřejší než lidé (pro můj průzkum superinteligentní AI jako možnosti viz. pokrytí zde).

Nechme věci více při zemi a uvažujme o dnešní výpočetní necítivé umělé inteligenci.

Uvědomte si, že dnešní umělá inteligence není schopna „myslet“ žádným způsobem na stejné úrovni jako lidské myšlení. Když komunikujete s Alexou nebo Siri, konverzační schopnosti se mohou zdát podobné lidským schopnostem, ale skutečnost je taková, že jsou výpočetní a postrádají lidské poznání. Nejnovější éra umělé inteligence široce využívá strojové učení (ML) a hluboké učení (DL), které využívají porovnávání výpočetních vzorů. To vedlo k systémům umělé inteligence, které vypadají jako lidské sklony. Mezitím dnes neexistuje žádná umělá inteligence, která by měla zdání zdravého rozumu, ani žádný z kognitivních zázraků robustního lidského myšlení.

ML/DL je forma porovnávání výpočetních vzorů. Obvyklý přístup je takový, že shromažďujete data o úloze rozhodování. Data vkládáte do počítačových modelů ML/DL. Tyto modely se snaží najít matematické vzorce. Po nalezení takových vzorů, pokud jsou nalezeny, systém umělé inteligence tyto vzory použije, když narazí na nová data. Po předložení nových dat se pro vykreslení aktuálního rozhodnutí použijí vzory založené na „starých“ nebo historických datech.

Myslím, že můžete hádat, kam to směřuje. Pokud lidé, kteří se rozhodovali podle vzoru, začlenili nežádoucí předsudky, je pravděpodobné, že data to odrážejí jemnými, ale významnými způsoby. Počítačové porovnávání vzorů Machine Learning nebo Deep Learning se jednoduše pokusí odpovídajícím způsobem matematicky napodobit data. Neexistuje žádné zdání zdravého rozumu nebo jiných vnímavých aspektů modelování vytvořeného umělou inteligencí jako takového.

Kromě toho si vývojáři AI nemusí uvědomit, co se děje. Tajemná matematika v ML/DL může ztížit odhalení nyní skrytých předsudků. Oprávněně byste doufali a očekávali, že vývojáři umělé inteligence budou testovat potenciálně pohřbené předsudky, i když je to složitější, než by se mohlo zdát. Existuje solidní šance, že i přes poměrně rozsáhlé testování, že v modelech porovnávání vzorů ML/DL budou stále zakomponovány zkreslení.

Dalo by se tak trochu použít slavné nebo nechvalně známé pořekadlo o smetí-do odpadu-ven. Jde o to, že je to spíše podobné předsudkům – in, které se zákeřně prolínají, když se předsudky ponoří do AI. Algoritmus rozhodování (ADM) umělé inteligence je axiomaticky zatížen nerovnostmi.

Špatný.

Vraťme se k našemu zaměření na zákony Red Flag AI.

Základním konceptem je, že lidé by byli schopni vztyčit červenou vlajku, kdykoli by se domnívali, že systém umělé inteligence funguje nepřiměřeně zaujatým nebo diskriminačním způsobem. Nevyvěšovali byste fyzickou vlajku jako takovou a místo toho byste jednoduše používali nějaké elektronické prostředky, abyste své obavy vyjádřili. Část schématu nebo přístupu s červeným praporkem je spíše metaforou než fyzickým ztělesněním.

Předstírejte, že žádáte o úvěr na bydlení. K žádosti o půjčku se rozhodnete využít službu online bankovnictví. Po zadání některých osobních údajů chvíli čekáte, až systém umělé inteligence, který se používá, rozhodne, zda jste hodni půjčky nebo ne. Umělá inteligence vám sdělí, že vám byla půjčka zamítnuta. Po žádosti o vysvětlení, proč jste byli odmítnuti, se zdá, že vám textové vyprávění naznačuje, že AI jako součást rozhodovacího algoritmu používala nepřiměřené zkreslené faktory.

Je čas vztyčit červenou vlajku o AI.

Kde přesně bude tato rudá vlajka mávat?

To je otázka za milion.

Jedním z hledisek je, že bychom měli vytvořit celostátní databázi, která by lidem umožnila označit své červené vlajky související s AI. Někteří říkají, že by to měla být regulována federální vládou. Federální agentury by byly zodpovědné za prozkoumání červených vlajek a poskytnutí pomoci široké veřejnosti, pokud jde o pravdivost a vypořádání se s pravděpodobně „špatnou umělou inteligencí“, která podnítila výsledky hlášení červených vlajek.

Zdá se, že Kongres zavede národní zákon o umělé inteligenci s červenou vlajkou. Zákon by upřesnil, co je to červená vlajka související s AI. Zákon by popisoval, jak jsou tyto hlučné červené vlajky vyvěšeny. A tak dále. Mohlo by se také stát, že jednotlivé státy se také mohou rozhodnout vytvořit své vlastní zákony o umělé inteligenci s červenou vlajkou. Možná tak činí namísto národní iniciativy, nebo tak činí, aby umocnili podrobnosti, které jsou pro jejich konkrétní stát obzvláště přitažlivé.

Kritici federálního nebo jakéhokoli vládou podporovaného programu umělé inteligence Red Flag by tvrdili, že to je něco, co soukromý průmysl může udělat, a nepotřebujeme, aby se do popředí dostal Velký bratr. Průmysl by mohl zřídit online úložiště, do kterého by lidé mohli registrovat varovné signály o systémech umělé inteligence. Samokontrolní opatření ze strany průmyslu by se těmito otázkami dostatečně zabývalo.

Výčitky ohledně domnělého průmyslového přístupu je, že to vypadá, že zavání klientelismem. Byly by firmy ochotné podřídit se nějaké soukromě provozované databázi AI Red Flag? Mnoho firem by potenciálně ignorovalo označené červené vlajky týkající se jejich AI. Nebyly by ostré zuby na to, aby se společnosti vypořádaly se zadanými červenými vlajkami.

Hej, zastánci přístupu soukromého sektoru znějí, to by bylo podobné národní službě podobné Yelpu. Spotřebitelé se mohli podívat na varovné signály a sami se rozhodnout, zda chtějí obchodovat se společnostmi, které nashromáždily spoustu varovných signálů zaměřených na umělou inteligenci. Banka, která dostávala spousty varovných signálů o své AI, by musela věnovat pozornost a předělat své systémy AI, takže logika vychází, jinak by se spotřebitelé firmě vyhýbali jako mor.

Zda celý tento přístup provádí vláda nebo průmysl, je jen špičkou ledovce na ožehavé otázky, kterým čelí navrhovaný postulát zákonů Red Flag AI.

Vžijte se do situace firmy, která vyvinula nebo používá AI. Mohlo by se stát, že spotřebitelé upozorní na varovné signály, i když pro to neexistuje žádný životaschopný základ. Pokud by lidé mohli volně vyvěsit varovnou vlajku o AI, mohli by být v pokušení tak učinit z rozmaru nebo možná z pomsty proti firmě, která jinak vůči spotřebiteli neudělala nic špatného.

Stručně řečeno, o AI by mohlo být mnoho falešně pozitivních Red Flags.

Dalším aspektem je masivní velikost nebo velikost výsledných červených vlajek. Klidně by mohly být vyvěšeny miliony a miliony červených vlajek. Kdo bude sledovat všechny ty červené vlajky? Kolik by to stálo? Kdo zaplatí za následné úsilí o červené vlajky? Atd.

Pokud byste řekli, že kdokoli, kdo se zaregistruje nebo nahlásí varovnou vlajku o AI, musí zaplatit poplatek, vstoupili jste do temné a zákeřné říše. Obava by byla, že jen bohatí by si mohli dovolit vyvěšovat červené vlajky. To zase znamená, že zbídačení by se nemohli stejnou měrou účastnit činností s varovnou vlajkou a v podstatě by neměli prostor pro varování před nepříznivou AI.

Zatím jen jeden dodatečný obrat, konkrétně to, že tento druh zákonů nebo pokynů týkajících se umělé inteligence se zdá být až po faktu, spíše než aby sloužil jako varování předem.

Vrátíme-li se k dopravním zákonům s červenou vlajkou, důraz na použití červené vlajky byl odvrátit od začátku neštěstí. Červená vlajka měla být daleko před připravovaným vozem. Tím, že bude před vozidlem, bude dobytek upozorněn a ti, kteří je hlídají, budou vědět, že by měli přijmout opatření kvůli rušivému zdroji, který se brzy objeví.

Pokud jsou lidé schopni pouze upozornit na AI, která zdánlivě již poškodila nebo podkopala jejich práva, příslovečný kůň je již venku ze stodoly. Zdá se, že se tím dosáhlo pouze to, že doufejme, že ostatní lidé, kteří přijdou, budou nyní vědět, že se mají mít na tento systém AI na pozoru. Údajně ukřivděný mezitím už trpěl.

Někteří naznačují, že bychom možná mohli lidem dovolit, aby upozornili na AI tušit mohou být zaujatí, i když nepoužili AI a nebyli přímo ovlivněni AI. Červená vlajka je tedy mávána dříve, než dojde ke zranění.

Fuj, odsekne, opravdu uděláte z červených vlajek, které AI zvládají, naprosto neovladatelnou a chaotickou záležitost. Pokud někdo z jakéhokoli důvodu může upozornit na systém umělé inteligence, přestože s touto umělou inteligencí neudělal vůbec nic, budete zaplaveni červenými vlajkami. Ještě horší je, že nerozeznáte zrno od plev. Celý přístup s červenou vlajkou se zhroutí pod svou vlastní vahou a zničí dobrotu nápadu tím, že flotsam a riffraff potopí celou loď.

Závratné a matoucí.

Vsadil bych se, že v tomto okamžiku této závažné diskuse si přejete nějaké ilustrativní příklady, které by toto téma mohly předvést. Existuje speciální a jistě oblíbený soubor příkladů, které jsou mému srdci blízké. Víte, jako odborník na AI včetně etických a právních důsledků jsem často žádán, abych určil realistické příklady, které předvádějí dilemata etiky AI, aby bylo možné snáze pochopit poněkud teoretickou povahu tématu. Jednou z nejvíce sugestivních oblastí, která živě prezentuje tento etický problém umělé inteligence, je příchod skutečně samořídících vozů založených na umělé inteligenci. To poslouží jako praktický příklad použití nebo příklad pro rozsáhlou diskusi na dané téma.

Zde je pak pozoruhodná otázka, která stojí za zamyšlení: Osvětluje příchod skutečně samořídících aut založených na umělé inteligenci něco o zákonech Red Flag AI, a pokud ano, co to ukazuje?

Dovolte mi chvíli rozbalit otázku.

Za prvé, všimněte si, že ve skutečném samořídícím autě není žádný lidský řidič. Mějte na paměti, že skutečně samořídící auta jsou řízena systémem AI. Není potřeba, aby za volantem byl lidský řidič, ani neexistuje ustanovení, aby vozidlo řídil člověk. Pro mé rozsáhlé a průběžné pokrytí Autonomních vozidel (AV) a zejména samořiditelných vozů viz odkaz zde.

Rád bych dále objasnil, co je míněno, když mluvím o skutečných samořídících autech.

Porozumění úrovním samořídících automobilů

Pro upřesnění, skutečná samořídící auta jsou ta, kde AI řídí auto zcela samo a při řízení není žádná lidská pomoc.

Tato vozidla bez řidiče jsou považována za úroveň 4 a úroveň 5 (viz mé vysvětlení na adrese odkaz zde), zatímco vůz, který vyžaduje, aby se na řízení společně podílel lidský řidič, se obvykle považuje za úroveň 2 nebo úroveň 3. Vozy, které spolu sdílejí úkol řízení, jsou popsány jako semi-autonomní a obvykle obsahují různé automatizované doplňky, které se označují jako ADAS (Advanced Driver-Assistance Systems).

Na úrovni 5 ještě není skutečné auto s vlastním řízením a ještě ani nevíme, zda toho bude možné dosáhnout, ani jak dlouho bude trvat, než se tam dostaneme.

Mezitím se úsilí úrovně 4 postupně snaží získat určitou trakci tím, že podstupují velmi úzké a selektivní testy na veřejných komunikacích, ačkoli existuje spor o to, zda by toto testování mělo být povoleno jako takové (všichni jsme pokusnými pokusnými králíky na život a na smrt odehrávající se na našich dálnicích a vedlejších cestách, někteří tvrdí, viz moje zpravodajství na odkaz zde).

Protože poloautonomní auta vyžadují řidiče, přijetí těchto typů automobilů se nebude výrazně lišit od řízení konvenčních vozidel, takže o tomto tématu není samo o sobě nic nového (jak vidíte, uvidíte) za okamžik jsou obecně použitelné následující body).

U poloautonomních automobilů je důležité, aby veřejnost musela být upozorněna na znepokojující aspekt, který se objevuje v poslední době, a to navzdory těm lidským řidičům, kteří neustále vysílají videa, která usínají za volantem auta úrovně 2 nebo 3 , všichni se musíme vyhnout tomu, aby byli uvedeni v omyl v přesvědčení, že řidič může odvrátit jejich pozornost od úkolu řízení při řízení poloautonomního automobilu.

Jste odpovědnou stranou za řízení vozidla, bez ohledu na to, kolik automatizace může být hodeno do úrovně 2 nebo úrovně 3.

Samořídící auta a zákony AI s červenou vlajkou

U vozidel s vlastním řízením úrovně 4 a 5 nebude do řízení zapojen lidský řidič.

Všichni cestující budou cestující.

AI řídí.

Jedním z aspektů, které je třeba okamžitě projednat, je skutečnost, že umělá inteligence zapojená do dnešních řídicích systémů umělé inteligence není vnímavá. Jinými slovy, AI je celkově kolektiv počítačového programování a algoritmů a nejspíše není schopen uvažovat stejným způsobem jako lidé.

Proč je tento dodatečný důraz na to, aby AI nebyla vnímavá?

Protože chci zdůraznit, že při diskusi o roli řídícího systému AI nepřičítám AI lidské vlastnosti. Uvědomte si, že v dnešní době existuje trvalá a nebezpečná tendence k antropomorfizaci AI. V zásadě lidé dnešní AI připisují lidskou vnímavost, a to navzdory nepopiratelné a nepopiratelné skutečnosti, že taková AI dosud neexistuje.

S tímto vysvětlením si můžete představit, že systém řízení AI nebude nativně nějak „vědět“ o aspektech řízení. Řízení a vše, co to obnáší, bude muset být naprogramováno jako součást hardwaru a softwaru samořízeného automobilu.

Pojďme se ponořit do nesčetných aspektů, které na toto téma hrají.

Zaprvé je důležité si uvědomit, že ne všechna samořídící auta s umělou inteligencí jsou stejná. Každá automobilka a technologická firma s vlastním řízením přistupuje k navrhování samořídících vozů. Jako takové je obtížné činit rozsáhlá prohlášení o tom, co budou či nebudou dělat řídicí systémy AI.

Kromě toho, kdykoli uvedou, že řídící systém AI nedělá nějakou konkrétní věc, může to později předběhnout vývojáři, kteří ve skutečnosti naprogramují počítač, aby udělal právě tuto věc. Krok za krokem se postupně zdokonalují a rozšiřují systémy řízení AI. Stávající omezení dnes již nemusí existovat v budoucí iteraci nebo verzi systému.

Doufám, že to poskytuje dostatečnou litanii upozornění, která podpoří to, co se chystám vylíčit.

Pojďme si načrtnout scénář, který by mohl využít zákon Red Flag AI.

Nasednete do samořídícího auta založeného na umělé inteligenci a přejete si, aby vás autonomní vozidlo odvezlo do místního obchodu s potravinami. Během relativně krátké cesty se AI vydá cestou, která se vám zdá být poněkud nesprávná. Spíše než jít nejpřímější cestou, AI naviguje do odlehlých ulic, což způsobuje, že doba jízdy je delší, než by normálně mohla být.

Co se děje?

Za předpokladu, že platíte za použití samořídícího auta, můžete mít podezření, že AI byla naprogramována tak, aby jela delší trasu, aby se pokusila zvýšit jízdné nebo náklady na cestu. Každý, kdo si někdy vzal konvenční kabinu řízenou člověkem, ví o triku, který se může stát, aby dostal na metr více těsta. S lidmi, kteří mají na svém smartphonu GPS při jízdě v kabině nebo ekvivalentu, můžete samozřejmě snadno chytit lidského řidiče, který se zdá, že záludně jede zbytečně dlouhé trasy.

Ukázalo se, že máte další starost o volbu trasy, něco, co ve vás opravdu hlodá.

Předpokládejme, že směrování bylo provedeno, aby se zabránilo určitým částem města kvůli rasovým aspektům. Existují zdokumentované případy lidských řidičů, kteří byli přistiženi při těchto volbách, viz moje diskuse na adrese odkaz zde. Možná byla AI naprogramována nepříznivě.

Rozhodnete se vyvěsit červenou vlajku.

Předpokládejme kvůli diskusi, že byl přijat zákon o umělé inteligenci Red Flag, který se vztahuje na vaši jurisdikci. Může to být místní právo, státní právo, federální nebo mezinárodní právo. Analýzu, kterou jsem napsal ve spolupráci s Harvard's Autonomous Vehicle Policy Initiative (AVPI) o rostoucí důležitosti místního vedení, když komunity přijímají používání samořídících aut, viz. odkaz zde.

Takže se dostanete online do databáze AI Red Flag. Do databáze incidentů zadáváte informace o jízdě samořiditelným autem. To zahrnuje datum a čas jízdy autem spolu se značkou a modelem samořídícího vozu. Poté vstoupíte do navigační trasy, která se zdála být podezřelá, a naznačujete nebo možná přímo tvrdíte, že AI byla navržena se zaujatým nebo diskriminačním záměrem a schopnostmi.

O tom, co se v tomto konkrétním scénáři stane dál, bychom museli spekulovat o dalších podrobnostech zákona o umělé inteligenci Red Flag. Teoreticky by existovalo ustanovení, aby někdo přezkoumal červenou vlajku. Pravděpodobně by se snažili přimět výrobce automobilů nebo samořídící technologickou firmu, aby vysvětlila svůj názor na zaznamenanou červenou vlajku. Kolik dalších takových červených vlajek bylo zaregistrováno? Jaké výsledky přinesly tyto červené vlajky?

A tak by to šlo dál.

Proč investovat do čističky vzduchu?

Je absurdní, nabádají někteří skeptici.

Nepotřebujeme zákony AI Red Flag, ty přísně uplatňují. Cokoli takového uděláte, pokud jde o tempo a pokrok AI. Jakékoli takové zákony by byly nepraktické. Vytvářeli byste problém, který problém neřeší. Existují jiné způsoby, jak se vypořádat s AI, které jsou špatné. Nechytejte slepě stébla, abyste se vyrovnali s neobjektivní AI.

Všichni víme, že toreadoři používají červené pláště, aby přitáhli pozornost rozzuřeného býka. Ačkoli je červená barva, kterou si s touto praxí nejvíce spojujeme, možná vás překvapí, že vědci říkají, že býci nevnímají červenou barvu mulet (jsou barvoslepí vůči červené). Populární pořad MythBusters provedl docela zábavné zkoumání této záležitosti. Klíčovým prvkem je spíše pohyb pláštěnky než zvolená barva.

Pro ty, kteří odmítají potřebu zákonů Red Flag AI, protiargumentem je, že potřebujeme něco dramatického a nezaměnitelného mávajícího charakteru, abychom zajistili, že vývojáři AI a firmy nasazující AI se budou vyhýbat zaujaté nebo špatné AI. Pokud ne pro červenou vlajku, možná vlající pláštěnka nebo v podstatě jakýkoli druh upozorňovacího přístupu by mohl být v oblasti získání náležité pozornosti.

S jistotou víme, že špatná umělá inteligence existuje a že mnohem více špatné umělé inteligence bude směřovat naším směrem. Nalezení způsobů, jak se chránit před nepříznivou AI, je zásadní. Stejně tak je stejně důležité nastavit mantinely a pokusit se zabránit špatné umělé inteligenci dostat se do světa.

Ernest Hemingway skvěle prohlásil, že nikdo nikdy nežije svůj život až nahoru, kromě toreadorů. Musíme se ujistit, že lidé mohou žít svůj život po celou dobu, navzdory jakékoli špatnosti nebo šílenství AI, které je na nás propagováno.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-known-red-flag-ai-laws-for-calling-out- zaujaté-algoritmy-v-autonomních-ai-systémech/