Etika umělé inteligence Obezřetně posuzuje, zda nabízení předsudků umělé inteligence Lovecké odměny za chycení a chycení eticky ničemných plně autonomních systémů je obezřetné nebo zbytečné

Hledám: Lovci zkreslení AI.

Mohla by to být moderní reklama, která se začne objevovat na kanálech sociálních médií a objevovat se v různých online pracovních nabídkách. Jedná se o relativně nový koncept nebo roli. Nese to s sebou kontroverze. Někteří horliví věřící vroucně argumentují, že to dává smysl a mělo se to dít celou dobu, zatímco jiní se spíše nervózně škrábou na hlavě a nejsou si tak jisti, zda je to dobrý nápad.

Podstata této role spočívá v tom, že AI vyloučí jakékoli skryté předsudky nebo zakořeněné diskriminační praktiky. K záchraně přicházejí dychtiví a zcela někdejší umělá inteligence lovců. Pravděpodobně by to byli počítačově zdatní lovci odměn. Ještě více, doufejme, ponořený do hlubin schopností AI.

Mít zbraň, cestovat a prostřednictvím AI-zručného střeleckého umění dokážete odhalit tyto nechutné a nechutné předsudky AI.

To vyvolává řadu ožehavých otázek o tom, zda je rozumné uplatňovat takovou taktiku, pokud jde o odhalování předsudků AI. Jak budu za chvíli diskutovat, vězte, že příchod umělé inteligence s sebou také přinesl vznik zkreslení umělé inteligence. Záplava předsudků AI. Mé průběžné a rozsáhlé pokrytí etiky AI a etické AI viz odkaz zde a odkaz zde, Abychom jmenovali jen několik.

Jak zjistíme, že určitý systém umělé inteligence má zkreslení?

Můžete tím pověřit vývojáře AI, kteří AI vymysleli. Jde o to, že mohou být tak zabředlí do předsudků, že sami nedokážou rozpoznat předsudky ve své vymyšlené AI. Všechno to pro ně vypadá dobře. Nebo by mohli být z AI tak nadšení a měli z ní pocit sebepýchy, že by pak bylo obtížné a opravdové skličování kriticky zkoumat, zda není zaujatá. Mnoho dalších takových důvodů by se mohlo zdát podhodnoceno, když se tohoto úkolu ujali vývojáři AI, včetně nedostatku dovedností zjistit vestavěné předsudky, nedostatku času v projektu, aby tak učinili atd.

Dobře, tak jděte do toho a najměte si externí konzultanty, aby za vás udělali špinavou práci. Ukázalo se, že konzultanti s radostí prozkoumají vaši AI z hlediska zkreslení a účtují vám za to pěkný cent (spoustu a spoustu haléřů). Uvědomte si, že za ně musíte zaplatit, abyste se dostali do tempa s vaším systémem AI. Pak je musíte nechat prohrabat se, což může zabrat nevýslovné množství nákladně pracných hodin. Použití konzultantů je možností, pokud na to máte rozpočet.

Do potenciální „mezery“, jak najít tyto zákeřné předsudky umělé inteligence, přicházejí hrdinští a skvělí lovci odměn.

Obvykle je neplatíte předem. Snaží se najít předsudky umělé inteligence ve svém vlastním čase a musí přitom platit vlastní účty. Pouze pokud úspěšně najdou předsudky, dostanou zaplaceno. Předpokládám, že byste mohli snadno tvrdit, že vhodným způsobem myšlení je konvenční definice lovce odměn. Získejte zaplaceno, pokud uspějete. Nenechte si platit, pokud nejste úspěšní. Tečka, konec příběhu.

Programy odměn existují přinejmenším od dob Římanů, a proto bychom se mohli domnívat, že fungují, protože úspěšně vydržely jako praxe po všechna ta léta.

Zde je pro vás fascinující historický kousek. Údajně zpráva odeslaná během římské říše ve městě Pompeje prohlašovala, že jsou potřeba lovci odměn, aby našli měděný hrnec, který zmizel v malém obchodě. Odměnou za znovuzískání měděného hrnce byla impozantní cena šedesáti pěti bronzových mincí. Je nám líto, že nevíme, zda nějaký lovec odměn našel měděný hrnec a získal bronzové mince, ale víme, že lov odměn určitě pokračuje od těch dávných dob.

V modernější době si možná uvědomujete, že v 1980. letech byly nabídnuty některé pozoruhodné odměny za nalezení počítačových chyb nebo chyb v běžně dostupných softwarových balíčcích a poté v 1990. letech Netscape výrazně nabídl odměnu za nalezení chyb v jejich webovém prohlížeči. (stal se jednou z nejvýznamnějších firem té doby). Google a Facebook se rozhodly pro odměny za chyby od roku 2010, respektive 2013. O několik let později, v roce 2016, se dokonce i ministerstvo obrany USA (DoD) přihlásilo k činu tím, že provedlo odměnu „Hack the Pentagon“ (všimněte si, že veřejně zaměřená odměna byla za chyby nalezené na různých webech souvisejících s DoD, nikoli na kritické obranné systémy).

Pojďme se hlouběji ponořit do tématu bug bounty. Uvědomuji si, že se v této diskuzi snažím mluvit hlavně o předsudcích AI v bounty huntingu, ale existují některé docela relevantní paralely s arénou bug bounty.

Někteří jsou prokazatelně zmateni tím, že jakákoli firma by chtěla nabídnout odměnu za nalezení chyb (nebo v tomto případě zaujatosti AI) v jejich systémech.

Navenek to vypadá jako strategie typu „žádáte o to“. Pokud dáte světu vědět, že vítáte ty, kteří by se mohli pokusit najít díry ve vašem softwaru, zdá se, že se to rovná tomu, že byste řekli zlodějům, aby pokračovali a pokusili se vloupat do vašeho domu. I když už věříte, že máte docela dobrý poplašný systém proti vloupání a že by se nikdo neměl dostat do vašeho zabezpečeného domova, představte si, že požádáte a skutečně prosíte zloděje, aby se všichni sjeli do vašeho bydliště a zjistili, zda mohou. prasknout do toho. Ach, ty potíže, které si pro sebe pleteme.

Totéž by se dalo říci o žádosti po lovcích odměn, aby našli předsudky ve vaší AI.

Zaprvé to možná znamená, že už věříte, nebo dokonce přímo víte, že vaše AI má zaujatosti. To je šokující přímočaré implicitní přiznání, které by se zdálo ochoten učinit jen málokdo a mohlo by se potenciálně obrátit proti nim.

Za druhé, nevíte jistě, co by ti lovci odměn mohli udělat. Mohli by se rozhodnout říct celému světu, že ve vaší AI našli předsudky. Jeden předpokládá, že by to mohlo přijít o získání odměny, i když někteří by si mohli vychutnat pozornost nebo se zaměřit na posílení svého postavení pro získávání konzultačních koncertů a dalších možností generování příjmů. Možná by to mohlo být zcela altruistické. Může to být forma aktivismu AI. Mohu pokračovat.

Za třetí, celá záležitost by mohla mít záludný zvrat. Nájemný lovec, který tvrdí, že hledá předsudky umělé inteligence, může ďábelsky šťourat, aby našel způsoby, jak zaútočit na váš systém umělé inteligence. Celá věc je šaráda nakonec podniknout těžký kybernetický útok. Možná jste předpokládali, že se snaží pomoci, zatímco ve svých srdcích mají špatnost. Smutné, ale možné.

Začtvrté, v této záležitosti můžeme být ještě lstivě zkrouceni. Nájemný lovec najde nějaké trapné a potenciálně soudní předsudky AI. Odměna je nějaká částka v dolarech, kterou budeme nazývat X. Místo toho, aby si odměnu nárokoval, nájemný lovec dělá jakousi podivnou ransomwarovou provokaci. Pokud zaplatíte lovci odměn částku desetkrát X nebo možná nebeský limit, řekne vám o předsudcích AI. Na odpověď máte čas do nedělní půlnoci. Po tomto okamžiku budou předsudky AI odhaleny, aby je všichni viděli. Fuj, ošklivá svízelná situace.

Za páté, nejnovější jsou takzvaní „hack to return“ kybernetické podvodníky, kteří se poté, co ukradli spoustu online těsta, rozhodnou činit pokání a vrátit část neoprávněně nabyté kořisti, kterou ukořistili. Společnost, která dostane své peníze částečně vrácené, je pak ochotna považovat zbývající ukradenou částku za dodatečnou odměnu odměněnou zlodějům. Zdá se, že všichni „vyhráli“ v tom, že většina prostředků je vrácena a kybernetické podvodníky mezitím nejsou legálně pronásledovány a navíc dostanou pirátskou odměnu. Je to prozíravé nebo zákeřné udržování protiprávního jednání?

Uvědomuji si, že někteří z vás mohou říkat, že by nikdo neměl vydávat AI, která má v sobě nějaké zaujatosti. Zdá se, že to vyřešilo celé toto dilema, zda použít AI zaujaté lovce odměn nebo ne. Jen se nedostaňte do situace odměny. Ujistěte se, že vaši vývojáři AI dělají správnou věc a nedovolte, aby jejich systémy umělé inteligence byly zkresleny. Možná použijte konzultanty k provedení dvojité kontroly. V podstatě udělejte vše, co musíte udělat, abyste se vyhnuli přemýšlení o zaujatých lovcích odměn AI nebo o nich nežádali, aby přišli ke stolu.

Ano, to by se zdálo zcela rozumné. Problém je, že je to také trochu snové. Složitost mnoha systémů umělé inteligence je tak velká, že snaha zajistit, aby se neobjevila ani jedna unce zkreslení umělé inteligence, bude obtížné. Kromě toho jsou některé systémy umělé inteligence záměrně navrženy tak, aby se přizpůsobovaly a „učily se“ za pochodu. To znamená, že v určitém budoucím okamžiku AI, kterou jste vymysleli, a předstírejme, že byla zpočátku čistě čistá a bez předsudků, by mohla tíhnout ke ztělesnění předsudků (nemyslím to antropomorfním způsobem, jak vysvětlím dále, když pokračujte v tomto tématu).

Ti, kteří upřednostňují lov odměn za softwarové chyby, mají sklon tvrdit, že má smysl nabízet takové odměny. Můžeme zvážit jejich zdůvodnění a zjistit, zda to platí i pro oblast zkreslení AI.

Zastánci odměn za chyby zdůrazňují, že raději než se snažit předstírat, že ve vašem systému žádné díry nejsou, proč nepodporovat hledání děr, a to „kontrolovaným“ způsobem? Na rozdíl od toho, bez takového úsilí o odměnu byste mohli jen doufat a modlit se, aby náhodou nikdo nenašel díru, ale pokud místo toho nabízíte odměnu a říkáte těm, kteří díru najdou, že budou odměněni, nabízí šanci na to, abyste si tu díru upevnili sami a pak zabránili ostatním v tom, aby ji později tajně našli.

Totéž by se dalo říci v případě použití zkreslení AI. Pokud nabídnete dostatečnou odměnu, doufejme, že lovci odměn vás upozorní na odhalení předsudků AI. Pak se můžete vyrovnat s předsudky AI relativně tichým a uměřeným způsobem. To by mohlo později předejít mnohem většímu a skličujícímu problému, totiž že někdo jiný najde ve vaší AI zkreslení AI a křičí o tom do nebes.

Obecně platí, že firma, která si přeje umožnit odměňování za chyby, zavede politiku zpřístupnění zranitelnosti (VDP). VDP uvádí, jak se mají chyby najít a nahlásit firmě, spolu s tím, jak bude lovci poskytnuta odměna nebo odměna. VDP obvykle vyžaduje, aby lovec nakonec podepsal dohodu o mlčenlivosti (NDA), aby ostatním neprozradil, co našel.

Pojem používání NDA s lovci odměn má určitou kontroverzi. Ačkoli to možná dává smysl, aby společnost nabízející odměnu chtěla zachovat mamince nalezené expozice, také se říká, že to potlačuje celkové povědomí o takových chybách. Pokud by bylo dovoleno mluvit o softwarových chybách, pravděpodobně by to pomohlo bezpečnosti dalších systémů v jiných firmách, které by pak podpořily své expozice. Někteří lovci odměn nepodepíší NDA, částečně kvůli veřejné touze a částečně kvůli snaze udržet svou vlastní identitu skrytou. Mějte také na paměti, že aspekt NDA se obvykle neobjeví, dokud lovec neprohlásí, že našel chybu, místo aby to vyžadoval předem.

Někteří VDP stanoví, že NDA je pouze na omezenou dobu, což firmě umožňuje nejprve najít řešení zjevné díry a poté umožnit širší zveřejnění o ní. Jakmile je díra ucpaná, firma povolí uvolnění NDA, aby se o chybě mohl dozvědět zbytek světa. Typický čas do vyřešení pro chyby lovené odměnou je údajně kolem 15-20 dní, když je chce firma zapojit hned, zatímco v jiných případech se může protáhnout na 60-80 dní. Pokud jde o vyplácení lovci odměn, takzvaný čas na zaplacení, poté, co byla díra ověřena jako skutečně existující, výplaty odměn údajně bývají v rozmezí 15–20 dnů u menších případů a kolem 50–60 dnů pro větší případy (toto jsou neustále se měnící průmyslové indikace a jsou uvedeny pouze jako ilustrativní).

Měli by být lovci odměn také požádáni, aby se účastnili VDP a jednali s NDA?

Na tuto otázku můžete dostat ano a ne. Ano, některé firmy by měly jít touto cestou. Ne, nemusíte se nutně rozhodnout jít touto cestou. Mezi faktory patří velikost a povaha umělé inteligence, potenciál jakéhokoli vystavení se předsudkům AI a řada dalších etických, právních a obchodních aspektů, které přicházejí v úvahu.

Mohl bych dodat, že vytvoření úsilí o lov odměn za předsudky AI vaší AI je mnohem vyšší řád, než byste na první pohled mohli předpokládat.

Začneme hrozivou možností, že budete ohromeni lovci odměn s předsudky AI.

Právě teď byste jen těžko našli mnoho lidí, kteří by měli takovou vizitku. V okolí jich moc není. V tomto ohledu jsou to časy Divokého západu. Pokud se ale pojem předpojatosti umělé inteligence v lovu odměn zachytí, zvláště když jsou odměny bohaté a bohatě vyplácené, můžete se vsadit, že se do bazénu lovu předsudků ponoří každý.

Chcete ve svém systému umělé inteligence všemožné lumpárny pronásledující předsudky umělé inteligence? Získáte několik příjemců, kteří jsou na takové věci skutečně experty. Získáte další odběratele, kteří jsou amatéři a mohou dělat nepořádek nebo plakat vlka. Další věc, kterou víte, kdokoli, kdo umí hláskovat „Umělá inteligence“, přijde kopat do vašeho zlatého dolu systému umělé inteligence pro ty vzácné zlaté nugety předsudků umělé inteligence. Zlatá horečka je v plném proudu. To pro vás nemusí být dobré.

Budete muset prozkoumat příspěvky lovců odměn. V nahlášených nárocích bude hodně „šumu“ v tom smyslu, že mnoho z proklamovaných zkreslení AI neexistuje, ačkoliv lovec odměn trvá na tom, že nějaké našli. Představte si, kolik práce budou muset vaše vlastní týmy umělé inteligence prozkoumat žádosti o odměny, prozkoumat platnost každého z nich a pak se potenciálně poradit s lovcem odměn tam a zpět, zda bylo zlato objeveno nebo ne.

Někdo by namítl, že je to další důvod, proč to celé udělat sám. Možná nevyhnutelně zjistíte, že ta věc s odměnou je větší potíže, než by stálo za to.

Zde je další otázka k zamyšlení. Jak budou lovci odměn vědět, jak vypadá zaujatost AI? V podstatě bez zdání toho, co hledat, by se o jakémkoli lesklém kameni dalo tvrdit, že předvádí zaujatost AI v domnělém AI zlatém dole, který se hloubí.

Předpokládejme, že ve dnech starého západu jste nabídli odměnu za dopadení Billyho Kida (slavného psance). Pokud jste tak učinili a nepřidali jste obrázek toho, jak Billy vypadal, představte si množství lovců odměn, kteří by mohli do kanceláře šerifa zatáhnout někoho, o kom doufali nebo si mysleli, že je to Billy the Kid. Můžete být zaplaveni falešnými Billyho. To je špatné, protože byste se pravděpodobně museli podívat na každého z nich, klást zkoumavé otázky a pokusit se zjistit, zda ten člověk byl skutečně Billy nebo ne.

Jde o to, že pro nastavení odměny za zkreslení umělé inteligence by bylo moudré pokusit se objasnit, z čeho považujete zaujatosti AI. To vyžaduje kalibraci typu Zlatovláska. Nechcete být tak omezeni, aby lovci odměn přehlíželi předsudky AI jen proto, že neodpovídají vaší stanovené definici, a ani nechcete, aby křičeli „Heuréka!“ při každém kousku zaujatosti AI, kterou náhodou najdou.

Budete potřebovat správnou rovnováhu Zlatovláska v tom, z čeho se skládají předsudky umělé inteligence, a tak poskytnout pokud možno jasné směry.

Mnoho z těchto předsudků AI se zaměří na systémy strojového učení (ML) a hlubokého učení (DL) založené na umělé inteligenci. To dává smysl, protože nástup všudypřítomnosti ML/DL roste a navíc se zdá, že má některé z nejpravděpodobnějších problémů s zahrnutím nepřiměřených předsudků AI.

Tito výzkumníci identifikují, jak výrazné může být úsilí o odměňování zaujaté umělou inteligencí, zejména v kontextu ML/DL: „Postupem času si softwarové a bezpečnostní komunity vyvinuly „odměny za chyby“ ve snaze změnit podobnou dynamiku mezi vývojáři systémů a jejich kritiky. (nebo hackeři) směrem k interaktivnějším a produktivnějším cílům. Doufáme, že záměrným pozváním externích stran, aby našly softwarové nebo hardwarové chyby ve svých systémech, a často poskytnutím peněžních pobídek, aby tak učinily, se vyvine zdravější a rychleji reagující ekosystém. Je přirozené, že komunita ML zvažuje podobný přístup „objektivní odměny“ k včasnému objevení a opravě modelů a systémů se zaujatostí nebo jiným nežádoucím chováním. Namísto hledání chyb v softwaru jsou externí strany vyzvány, aby našly předsudky – například (demografické nebo jiné) podskupiny vstupů, na kterých trénovaný model nedosahuje výkonnosti – a jsou za to odměněny“ (v dokumentu „An Algorithmic Framework for Bias Bounties“ od Iry Globus-Harrise, Michaela Kearnse a Aarona Rotha).

Ve výzkumné práci autoři nastiňují navrhovaný přístup k tomu, jaké druhy zkreslení AI mohou lovci odměn hledat. Je zde také naznačeno, jak posoudit nároky lovců odměn spojené s údajnými zaujatostmi AI, které byly takto objeveny. Podle mých dřívějších poznámek zde, je pravděpodobné, že obdržíte nesmyslné nároky a budete muset oddělit AI zaujaté zrno od plev.

Než se pustíme do dalšího masa a brambor o divokých a vlněných úvahách, které jsou základem lovu zkreslení pomocí AI, pojďme si stanovit několik dalších základů k hluboce integrálním tématům. Musíme se krátce ponořit do etiky umělé inteligence a zejména do příchodu strojového učení (ML) a hlubokého učení (DL).

Možná si matně uvědomujete, že jeden z nejhlasitějších hlasů dnešní doby v oblasti umělé inteligence a dokonce i mimo ni spočívá v dožadování se většího zdání etické umělé inteligence. Pojďme se podívat na to, co znamená odkazovat se na etiku AI a etické AI. Kromě toho prozkoumáme, co mám na mysli, když mluvím o strojovém učení a hlubokém učení.

Jeden konkrétní segment nebo část etiky umělé inteligence, kterému se dostává velké pozornosti médií, se skládá z umělé inteligence, která vykazuje nepatřičné předsudky a nespravedlnosti. Možná si uvědomujete, že když začala nejnovější éra umělé inteligence, došlo k obrovskému výbuchu nadšení z toho, co někteří dnes nazývají AI pro dobro. Bohužel v patách toho tryskajícího vzrušení jsme začali být svědky AI pro špatné. Například bylo odhaleno, že různé systémy rozpoznávání obličeje založené na umělé inteligenci obsahují rasové a genderové předsudky, o kterých jsem mluvil na odkaz zde.

Snahy bránit se AI pro špatné aktivně probíhají. Kromě hlučného právní ve snaze omezit provinění na uzdě existuje také podstatný tlak na přijetí etiky umělé inteligence, aby se napravila odpornost umělé inteligence. Myšlenka je taková, že bychom měli přijmout a schválit klíčové etické principy umělé inteligence pro rozvoj a nasazení umělé inteligence, abychom podkopali AI pro špatné a současně ohlašovat a propagovat preferované AI pro dobro.

Pokud jde o související představu, jsem zastáncem pokusu o použití umělé inteligence jako součásti řešení problémů s umělou inteligencí a bojování ohně ohněm tímto způsobem myšlení. Mohli bychom například začlenit komponenty Etické umělé inteligence do systému umělé inteligence, který bude monitorovat, jak zbytek umělé inteligence dělá věci, a tak potenciálně v reálném čase zachytit jakékoli diskriminační snahy, viz moje diskuze na odkaz zde. Mohli bychom mít také samostatný systém AI, který funguje jako typ monitoru etiky AI. Systém umělé inteligence slouží jako dozorce, který sleduje a zjišťuje, kdy se jiná umělá inteligence dostává do neetické propasti (viz moje analýza takových schopností na odkaz zde).

Za chvíli se s vámi podělím o některé zastřešující principy, které jsou základem etiky umělé inteligence. Takových seznamů se tu a tam pohybuje spousta. Dalo by se říci, že zatím neexistuje jediný seznam univerzální přitažlivosti a souběžnosti. To je ta nešťastná zpráva. Dobrou zprávou je, že alespoň existují snadno dostupné seznamy etiky AI a bývají velmi podobné. Celkově to naznačuje, že formou odůvodněné konvergence svého druhu nacházíme cestu k obecné shodě toho, z čeho se skládá etika umělé inteligence.

Nejprve si stručně proberme některé z celkových etických zásad umělé inteligence, abychom ilustrovali, co by mělo být životně důležitým faktorem pro každého, kdo umělou inteligenci tvoří, využívá nebo používá.

Například, jak uvádí Vatikán v Řím vyzývá k etice umělé inteligence a jak jsem se podrobně věnoval odkaz zdeToto je jejich identifikovaných šest primárních etických principů AI:

  • Transparentnost: V zásadě musí být systémy umělé inteligence vysvětlitelné
  • zařazení: Potřeby všech lidských bytostí musí být brány v úvahu, aby každý mohl mít prospěch a všem jednotlivcům mohly být nabídnuty nejlepší možné podmínky k vyjádření a rozvoji.
  • Odpovědnost: Ti, kdo navrhují a nasazují použití AI, musí postupovat zodpovědně a transparentně
  • Nestrannost: Nevytvářejte ani nejednajte podle zaujatosti, a tím si zajistěte spravedlnost a lidskou důstojnost
  • Spolehlivost: Systémy umělé inteligence musí být schopny spolehlivě fungovat
  • Zabezpečení a soukromí: Systémy umělé inteligence musí fungovat bezpečně a respektovat soukromí uživatelů.

Jak uvedlo americké ministerstvo obrany (DoD) ve svém Etické zásady pro používání umělé inteligence a jak jsem se podrobně věnoval odkaz zde, toto je jejich šest primárních etických principů AI:

  • Odpovědný: Personál ministerstva obrany bude uplatňovat přiměřenou úroveň úsudku a péče, přičemž zůstane odpovědný za vývoj, nasazení a používání schopností AI.
  • Spravedlivý: Ministerstvo podnikne promyšlené kroky k minimalizaci nezamýšleného zkreslení schopností AI.
  • sledovatelné: Schopnosti AI ministerstva budou vyvinuty a rozmístěny tak, aby příslušní pracovníci měli odpovídající znalosti o technologii, vývojových procesech a provozních metodách použitelných pro schopnosti AI, včetně transparentních a auditovatelných metodologií, zdrojů dat a návrhových postupů a dokumentace.
  • Spolehlivý: Schopnosti umělé inteligence ministerstva budou mít explicitní, dobře definovaná použití a bezpečnost, zabezpečení a účinnost těchto schopností bude předmětem testování a zajištění v rámci těchto definovaných použití během celého životního cyklu.
  • ovladatelný: Ministerstvo navrhne a zkonstruuje schopnosti umělé inteligence tak, aby plnily zamýšlené funkce, přičemž bude mít schopnost detekovat a vyhnout se nezamýšleným následkům a schopnost odpojit nebo deaktivovat nasazené systémy, které vykazují nezamýšlené chování.

Diskutoval jsem také o různých kolektivních analýzách etických principů umělé inteligence, včetně toho, že jsem se zabýval souborem navrženým výzkumníky, kteří zkoumali a zhušťovali podstatu mnoha národních a mezinárodních zásad etiky umělé inteligence v dokumentu nazvaném „The Global Landscape Of AI Ethics Guidelines“ (publikováno v Příroda), a které mé pokrytí zkoumá na odkaz zde, což vedlo k tomuto klíčovému seznamu:

  • Průhlednost
  • Spravedlnost a férovost
  • Neškodlivost
  • Odpovědnost
  • Ochrana osobních údajů
  • Dobročinnost
  • Svoboda a autonomie
  • Věřte
  • udržitelnost
  • Důstojnost
  • Solidarita

Jak můžete přímo hádat, pokusit se určit specifika, která jsou základem těchto principů, může být extrémně obtížné. Snaha přeměnit tyto široké principy v něco zcela hmatatelného a dostatečně podrobného, ​​aby to bylo možné použít při vytváření systémů umělé inteligence, je navíc tvrdým oříškem. Celkově je snadné mávnout rukou nad tím, co jsou etická pravidla AI a jak by se měly obecně dodržovat, zatímco v kódování AI je mnohem složitější situace, kdy musí být opravdová guma, která splňuje silnici.

Principy AI etiky mají využívat vývojáři AI spolu s těmi, kteří řídí úsilí o vývoj AI, a dokonce i ti, kteří nakonec nasazují a provádějí údržbu systémů AI. Všechny zúčastněné strany během celého životního cyklu vývoje a používání AI jsou posuzovány v rámci dodržování zavedených norem etické AI. To je důležité upozornit, protože obvyklý předpoklad je, že „pouze kodéři“ nebo ti, kteří programují AI, podléhají dodržování etických pojmů AI. Jak již bylo řečeno, k vymýšlení a nasazení AI je zapotřebí vesnice a celá vesnice musí být zběhlá a dodržovat etická pravidla AI.

Pojďme se také ujistit, že jsme na stejné stránce ohledně povahy dnešní umělé inteligence.

Dnes neexistuje žádná AI, která by byla vnímavá. Tohle my nemáme. Nevíme, zda bude vnímající AI možná. Nikdo nemůže výstižně předpovědět, zda dosáhneme vnímající AI, ani zda se vnímající AI nějakým zázrakem spontánně objeví ve formě výpočetní kognitivní supernovy (obvykle označované jako singularita, viz moje pokrytí na odkaz zde).

Typ AI, na který se zaměřuji, se skládá z necítivé AI, kterou máme dnes. Pokud bychom chtěli divoce spekulovat o cítící AI, tato diskuse by se mohla ubírat radikálně jiným směrem. Vnímavá AI by měla mít lidské kvality. Měli byste vzít v úvahu, že vnímající AI je kognitivní ekvivalent člověka. Navíc, protože někteří spekulují, že bychom mohli mít superinteligentní AI, je možné, že taková AI by mohla být chytřejší než lidé (pro můj průzkum superinteligentní AI jako možnosti viz. pokrytí zde).

Nechme věci více při zemi a uvažujme o dnešní výpočetní necítivé umělé inteligenci.

Uvědomte si, že dnešní umělá inteligence není schopna „myslet“ žádným způsobem na stejné úrovni jako lidské myšlení. Když komunikujete s Alexou nebo Siri, konverzační schopnosti se mohou zdát podobné lidským schopnostem, ale skutečnost je taková, že jsou výpočetní a postrádají lidské poznání. Nejnovější éra umělé inteligence široce využívá strojové učení (ML) a hluboké učení (DL), které využívají porovnávání výpočetních vzorů. To vedlo k systémům umělé inteligence, které vypadají jako lidské sklony. Mezitím dnes neexistuje žádná umělá inteligence, která by měla zdání zdravého rozumu, ani žádný z kognitivních zázraků robustního lidského myšlení.

ML/DL je forma porovnávání výpočetních vzorů. Obvyklý přístup je takový, že shromažďujete data o úloze rozhodování. Data vkládáte do počítačových modelů ML/DL. Tyto modely se snaží najít matematické vzorce. Po nalezení takových vzorů, pokud jsou nalezeny, systém umělé inteligence tyto vzory použije, když narazí na nová data. Po předložení nových dat se pro vykreslení aktuálního rozhodnutí použijí vzory založené na „starých“ nebo historických datech.

Myslím, že můžete hádat, kam to směřuje. Pokud lidé, kteří se rozhodovali podle vzoru, začlenili nežádoucí předsudky, je pravděpodobné, že data to odrážejí jemnými, ale významnými způsoby. Počítačové porovnávání vzorů Machine Learning nebo Deep Learning se jednoduše pokusí odpovídajícím způsobem matematicky napodobit data. Neexistuje žádné zdání zdravého rozumu nebo jiných vnímavých aspektů modelování vytvořeného umělou inteligencí jako takového.

Kromě toho si vývojáři AI nemusí uvědomit, co se děje. Tajemná matematika v ML/DL může ztížit odhalení nyní skrytých předsudků. Oprávněně byste doufali a očekávali, že vývojáři umělé inteligence budou testovat potenciálně pohřbené předsudky, i když je to složitější, než by se mohlo zdát. Existuje solidní šance, že i přes poměrně rozsáhlé testování, že v modelech porovnávání vzorů ML/DL budou stále zakomponovány zkreslení.

Dalo by se tak trochu použít slavné nebo nechvalně známé pořekadlo o smetí-do odpadu-ven. Jde o to, že je to spíše podobné předsudkům – in, které se zákeřně prolínají, když se předsudky ponoří do AI. Algoritmus rozhodování (ADM) umělé inteligence je axiomaticky zatížen nerovnostmi.

Špatný.

Vraťme se nyní k tématu AI bias hunting.

Pro ty z vás, kteří uvažují o AI zaujatém lovu odměn, zde je mých doporučených sedm klíčových kroků, jak nejlépe postupovat:

1) Posoudit. Zhodnoťte vhodnost AI zaujatého lovu odměn pro vaše okolnosti a podle vašich systémů AI

2) Design. Navrhněte vhodný přístup AI zaujatý bounty hunting

3) Nářadí. Implementujte a propagujte své snahy o odměňování zaujatou AI

4) Pole. Podejte žádost o odměnu za zkreslení AI a podle toho zpracujte

5) Opravit. Opravte nebo upravte svou AI podle těchto objevených expozic zkreslení AI

6) Upravit. Podle potřeby upravte odměny za odměnu AI

7) Přestat. Přerušte AI zaujaté odměňování, když už to není potřeba

V mé sérii výše uvedených kroků uvádím, že pravděpodobně budete chtít opravit nebo upravit svou AI na základě zjištění, že tvrzené zkreslení AI ve vašem systému AI skutečně existuje. To dává smysl. Téměř jistě byste chtěli podpořit jakékoli zjištěné předsudky AI. Myslete na právní (a etické) důsledky, pokud tak neučiníte. Jedna věc je tvrdit, že jste nevěděli, že existuje zaujatost AI, a proto jste jí dovolili existovat, zatímco mnohem nejistější je mít v záznamech, že jste si byli vědomi zkreslení AI a nic jste s tím neudělali.

Povaha a stupeň opravy nebo úpravy AI by samozřejmě závisely na tom, jak významné byly zkreslení AI a jak hluboce jsou problémy zakořeněny. Pokud budete mít štěstí, možná skromné ​​množství změn v AI situaci napraví. Dalším potenciálem je, že možná budete muset provést kompletní přepsání AI. U AI typu ML/DL to může vyžadovat návrat k rýsovacímu prknu a začít znovu se zcela novou sadou dat a vyčištěným modelem ML/DL. Diskutoval jsem o nástupu degorgementu AI nebo destrukce AI jako potenciálního právního prostředku proti nechutné AI, viz. odkaz zde.

Jednou z otázek k zamyšlení je, zda byste chtěli, aby lovci odměn dělali více než jen identifikovali existenci předsudků AI. Můžete například osladit odměnu tím, že označíte, že navrhované opravy jsou také vítány. Předpojatost AI nalezeno lovcem odměn může být vyplacena jedna uvedená odměna nebo cena. Pokud může nájemný lovec také nabídnout životaschopné opravit k zaujatosti AI jim pak může být udělena další odměna.

Někteří tvrdí, že je to příliš daleko. Říká se, že byste měli udržet AI zaujaté lovce odměn výhradně zaměřené na hledání zaujatosti AI. Vyvoláte spoustu nežádoucích nepříznivých důsledků tím, že je vyzvete, aby také navrhli opravy. Udržujte věci jednoduché. Cílem je získat co nejvíce dalších pohledů na objevování zkreslení AI, abyste se mohli rozhodnout, co dál. Nekalte vody.

Ožehavý aspekt, který je třeba zjistit, zahrnuje velikost odměny nebo ceny pro lovce odměn, kteří skutečně odhalí předsudky umělé inteligence. Chcete, aby výplata byla demonstrativní. Bez dostatečně vysoké odměny nezískáte mnoho lovců odměn nebo nebudou zvlášť dychtiví hledat předsudky AI ve vašich systémech AI. Místo toho se mohou soustředit na jiné odměny za zkreslení AI.

Navíc, jak již bylo zmíněno, chcete se pokusit potlačit nutkání lovců odměn přeměnit své objevy zkreslení AI na jiné formy zlata. Pokud se vám zdá odměna mizerná, mohlo by to vyburcovat lovce odměn, aby hledali jiné vyšší odměny. Mohli by k vám zaujmout přístup ransomwaru. Mohli by prohlásit, že mají šťavnaté zkreslení umělé inteligence, o kterém by se konkurent rád dozvěděl a mohl by ho použít proti vaší firmě tím, že bude vychvalovat, že ve vaší AI existuje zkreslení AI. Zjištěné zkreslení AI tak prodají tomu, kdo nabídne nejvyšší nabídku. A tak dále.

Jeden předpokládá, že pokud nastavíte odměnu na extrémně vysoký rozsah, koledujete si také o potenciální potíže. To by mohlo přilákat všechny druhy bláznivých lovců odměn. Ti by na oplátku mohli zaplavit sociální média mlhavými tvrzeními, že nalezli velké množství předsudků AI, a to pro svou vlastní propagaci a aniž by ve skutečnosti zapíchli nějaké předsudky AI. V jistém smyslu vaše zvýšená odměna neúmyslně svítí na vaši AI a pobíjí spoustu neotesaných můr, aby byli zhoubně přitahováni zářícím světelným paprskem.

Další úvaha zahrnuje přístupnost vaší AI.

Chcete-li povolit možnost lovu odměn AI, musí lovci odměn získat dostatečný přístup k vaší AI. Pokud budou zcela uzamčeni, nebudou mít mnoho štěstí při hledání zkreslení AI. Nechcete se však vzdát své ochrany kybernetické bezpečnosti, protože by to mohlo zcela ohrozit váš systém umělé inteligence.

Můžete se pokusit nechat lovce odměn podepsat různá právně závazná prohlášení a poté jim poskytnout potřebný přístup. Některým lovcům odměn se takový přístup nebude líbit. Jejich názor je, že udělají pouze to, co jim umožňuje jakákoli veřejně dostupná a otevřená cesta. Jsou to svobodní jedinci, jak to bylo, a nemají rádi, když je někdo osedlává. Když je necháte podepsat na zastrašujících právních dokumentech, mnoho z nich se bude vyhýbat hledání zkreslení AI ve vaší AI. Nebo se mohou na vaši právní rukavici rozčílit a rozhodnout se, že uvidí, co mohou najít veřejnými prostředky, a udělají tak s možná pronikavým nutkáním ukázat vám, jak zranitelní ve skutečnosti jste.

Mám další úhel, ze kterého se vám může zatočit hlava.

Nájemný lovec se znalostí umělé inteligence se může rozhodnout vymyslet systém umělé inteligence, který dokáže prozkoumat vaši umělou inteligenci a případně odhalit předsudky umělé inteligence ve vaší umělé inteligenci. Jedná se o výrobce nástrojů, který se rozhodl vyrobit nástroj, který bude vykonávat danou práci, místo aby sám prováděl manuální práci. Místo pracného zkoumání vaší umělé inteligence tráví nájemný lovec s umělou inteligencí čas vymýšlením nástroje umělé inteligence, který dělá totéž. Poté použijí nástroj AI na vaší AI. Krása je také v tom, že mohou pravděpodobně znovu použít nástroj AI na kohokoli jiného, ​​kdo také nabízí příležitost k lovu odměn na jejich příslušné AI.

Vím, co si asi myslíš. Pokud lze vymyslet nástroj AI, aby prozkoumal zkreslení AI, měl by výrobce AI, u kterého se zkreslení AI prověřuje, buď takový nástroj AI vyrobit, nebo si jej koupit pro vlastní potřebu. Teoreticky pak nemusí bojovat s celým karnevalem lovců odměn, pro začátek. Stačí použít AI k nalezení jejich předsudků AI.

Ano, to je něco, co můžete očekávat, že postupně vznikne. Mezitím bude hlavní pilíř těchto snah pravděpodobně sestávat z vývojářů umělé inteligence, kteří budou lovit odměny. Mohou použít různé nástroje, které jim pomohou ve svém úsilí, ale v blízké budoucnosti je nepravděpodobné, že by jednoduše bezmyšlenkovitě nastavili nástroj AI na automatiku a zdřímli si tak, aby za ně nástroj provedl veškerou předpojatost AI.

Ještě tam nejsme.

Vsadil bych se, že v tomto okamžiku této závažné diskuse si přejete nějaké ilustrativní příklady, které by toto téma mohly předvést. Existuje speciální a jistě oblíbený soubor příkladů, které jsou mému srdci blízké. Víte, jako odborník na AI včetně etických a právních důsledků jsem často žádán, abych určil realistické příklady, které předvádějí dilemata etiky AI, aby bylo možné snáze pochopit poněkud teoretickou povahu tématu. Jednou z nejvíce sugestivních oblastí, která živě prezentuje tento etický problém umělé inteligence, je příchod skutečně samořídících vozů založených na umělé inteligenci. To poslouží jako praktický příklad použití nebo příklad pro rozsáhlou diskusi na dané téma.

Zde je pak pozoruhodná otázka, která stojí za zamyšlení: Osvětluje příchod skutečně samořídících aut na bázi umělé inteligence něco o používání odměn za odměnu s předpojatostí pomocí umělé inteligence, a pokud ano, co to ukazuje?

Dovolte mi chvíli rozbalit otázku.

Za prvé, všimněte si, že ve skutečném samořídícím autě není žádný lidský řidič. Mějte na paměti, že skutečně samořídící auta jsou řízena systémem AI. Není potřeba, aby za volantem byl lidský řidič, ani neexistuje ustanovení, aby vozidlo řídil člověk. Pro mé rozsáhlé a průběžné pokrytí Autonomních vozidel (AV) a zejména samořiditelných vozů viz odkaz zde.

Rád bych dále objasnil, co je míněno, když mluvím o skutečných samořídících autech.

Porozumění úrovním samořídících automobilů

Pro upřesnění, skutečná samořídící auta jsou ta, kde AI řídí auto zcela samo a při řízení není žádná lidská pomoc.

Tato vozidla bez řidiče jsou považována za úroveň 4 a úroveň 5 (viz mé vysvětlení na adrese odkaz zde), zatímco automobil, který vyžaduje, aby se na řízení společně podílel lidský řidič, se obvykle považuje za úroveň 2 nebo úroveň 3. Vozy, které spolu sdílejí úkol řízení, jsou popisovány jako poloautonomní a obvykle obsahují různé automatizované doplňky, které se označují jako ADAADA
S (pokročilé asistenční systémy řidiče).

Na úrovni 5 ještě není skutečné auto s vlastním řízením a ještě ani nevíme, zda toho bude možné dosáhnout, ani jak dlouho bude trvat, než se tam dostaneme.

Mezitím se úsilí úrovně 4 postupně snaží získat určitou trakci tím, že podstupují velmi úzké a selektivní testy na veřejných komunikacích, ačkoli existuje spor o to, zda by toto testování mělo být povoleno jako takové (všichni jsme pokusnými pokusnými králíky na život a na smrt odehrávající se na našich dálnicích a vedlejších cestách, někteří tvrdí, viz moje zpravodajství na odkaz zde).

Protože poloautonomní auta vyžadují řidiče, přijetí těchto typů automobilů se nebude výrazně lišit od řízení konvenčních vozidel, takže o tomto tématu není samo o sobě nic nového (jak vidíte, uvidíte) za okamžik jsou obecně použitelné následující body).

U poloautonomních automobilů je důležité, aby veřejnost musela být upozorněna na znepokojující aspekt, který se objevuje v poslední době, a to navzdory těm lidským řidičům, kteří neustále vysílají videa, která usínají za volantem auta úrovně 2 nebo 3 , všichni se musíme vyhnout tomu, aby byli uvedeni v omyl v přesvědčení, že řidič může odvrátit jejich pozornost od úkolu řízení při řízení poloautonomního automobilu.

Jste odpovědnou stranou za řízení vozidla, bez ohledu na to, kolik automatizace může být hodeno do úrovně 2 nebo úrovně 3.

Samořídící auta a AI zaujatý lov odměn

U vozidel s vlastním řízením úrovně 4 a 5 nebude do řízení zapojen lidský řidič.

Všichni cestující budou cestující.

AI řídí.

Jedním z aspektů, které je třeba okamžitě projednat, je skutečnost, že umělá inteligence zapojená do dnešních řídicích systémů umělé inteligence není vnímavá. Jinými slovy, AI je celkově kolektiv počítačového programování a algoritmů a nejspíše není schopen uvažovat stejným způsobem jako lidé.

Proč je tento dodatečný důraz na to, aby AI nebyla vnímavá?

Protože chci zdůraznit, že při diskusi o roli řídícího systému AI nepřičítám AI lidské vlastnosti. Uvědomte si, že v dnešní době existuje trvalá a nebezpečná tendence k antropomorfizaci AI. V zásadě lidé dnešní AI připisují lidskou vnímavost, a to navzdory nepopiratelné a nepopiratelné skutečnosti, že taková AI dosud neexistuje.

S tímto vysvětlením si můžete představit, že systém řízení AI nebude nativně nějak „vědět“ o aspektech řízení. Řízení a vše, co to obnáší, bude muset být naprogramováno jako součást hardwaru a softwaru samořízeného automobilu.

Pojďme se ponořit do nesčetných aspektů, které na toto téma hrají.

Zaprvé je důležité si uvědomit, že ne všechna samořídící auta s umělou inteligencí jsou stejná. Každá automobilka a technologická firma s vlastním řízením přistupuje k navrhování samořídících vozů. Jako takové je obtížné činit rozsáhlá prohlášení o tom, co budou či nebudou dělat řídicí systémy AI.

Kromě toho, kdykoli uvedou, že řídící systém AI nedělá nějakou konkrétní věc, může to později předběhnout vývojáři, kteří ve skutečnosti naprogramují počítač, aby udělal právě tuto věc. Krok za krokem se postupně zdokonalují a rozšiřují systémy řízení AI. Stávající omezení dnes již nemusí existovat v budoucí iteraci nebo verzi systému.

Doufám, že to poskytuje dostatečnou litanii upozornění, která podpoří to, co se chystám vylíčit.

Ve svých sloupcích jsem již dlouze diskutoval o použití lovců odměn zaměřených na chyby v oblasti autonomních vozidel a samořídících aut. K tomuto přístupu skutečně došlo v tomto výklenku. Probíhají obvyklé debaty o tom, zda je to dobrý nápad nebo ne. Úsilí bylo obvykle omezeného charakteru, často relativně tiché.

Podobný diskurs může nastat, když se pozornost přesune k hledání předsudků AI spíše než hledání systémových chyb jako takových. Někteří naznačují, že je to zatracené, pokud to děláte, zatracené, pokud si nelámete hlavu.

Zde je důvod.

Za prvé, aby bylo jasno, existuje mnoho způsobů, jak autonomní vozidla a samořídící auta budou vystavena zkreslení AI, viz moje pokrytí na odkaz zde a odkaz zde, abychom jmenovali alespoň některé. Výrobci automobilů a automobilky s vlastním řízením by se zdálo moudré pokusit se zabránit tomu, aby se tyto předsudky AI objevily v jejich systémech AI. Právní a etická bouře proti takovým firmám bude nepochybně intenzivní.

Je v tomto konkrétním kontextu vhodným přístupem použití AI zaujatého lovu odměn?

Jednou z odpovědí je, že ano, bude to užitečné a poskytne to spoustu „bezplatných“ sad nových očí, které se pokusí zachytit jakékoli předsudky zabudované AI samořídícího auta nebo podobně. Většina vývojářů umělé inteligence, kteří vyrábějí samořídící auta, je zaneprázdněna tvorbou umělé inteligence, která dokáže bezpečně řídit auto z bodu A do bodu B. Zabývají se touto základní schopností a nemají ani čas, ani pozornost vůči jakýmkoli předsudkům umělé inteligence, které by mohly být někde jinde. jejich AI.

Druhou odpovědí je, že ne, povolování lovu odměn za autonomní vozidla a samořídící auta na jakémkoli základě, ať už kvůli chybám nebo předpojatosti AI, by se prostě mělo zuřivě vyhnout. Argumentem je, že tato vozidla a jejich AI jsou kalibru na život a na smrt. Jakýkoli problém s umělou inteligencí by mohl být pro umělou inteligenci zničující a ovlivnit to, co dělá systém řízení umělé inteligence.

Protiargumentem k tomuto poslednímu bodu je, že lovci odměn by neměli být schopni změnit AI, kterou zkoumají. Nehrozí tedy, že by se s AI popletli a způsobili, že by se z AI v tomto kontextu rázem stal poblázněný AI řídicí systém. Lovci odměn mají přístup pouze pro čtení. Nechat je jít dále by byla velká hloupost a obrovská chyba.

Protiargumentem k tomuto protiargumentu je, že když dovolíte a povzbuzujete lovce odměn, aby prozkoumali vaši AI, celá záležitost se stává složitou. Tito lovci odměn by mohli přijít na způsoby, jak využít jakékoli nalezené chyby nebo předsudky. Tyto exploity zase mohou být pro nevyzpytatelné účely. Bylo by lepší, kdybyste si „lupiče“ do svého domu takříkajíc nezvali. Jakmile vyřadí kloub, budete mít nakonec velké potíže.

Pro ty, kteří mají systémy umělé inteligence o velikosti menší než život nebo smrt, panuje přesvědčení, že dopady nájezdu na lov odměn, který se nezdaří, jsou mnohem méně riskantní. Možná ano. Na druhou stranu, pokud firma nalila své peníze do systému AI, který se lovcům odměn podaří uzurpovat, můžete předpokládat, že poškození reputace a další potenciální škody budou stále bolet.

Neexistuje žádný oběd zdarma, pokud jde o AI zaujatý lov odměn.

Prozatím rychlá poznámka na závěr.

Když byl na Starém západě pátrán notoricky známý psanec Jesse James, byl vytištěn plakát „Wanted“, který nabízel odměnu 5,000 XNUMX dolarů za jeho dopadení (s nápisem „mrtvý nebo živý“). V té době to byla poměrně velká suma peněz. Jeden z členů jeho vlastního gangu se rozhodl Jesseho zastřelit a získat odměnu. Předpokládám, že to ukazuje, jak efektivní může být odměna.

Bude použití AI zaujatých lovců odměn dobrá věc, nebo to bude špatná věc?

Pokud se rozhodnete zahájit úsilí lovce odměn s předpojatostí AI, navrhoval bych, abyste měli oči dokořán a neustále se dívali přes rameno. Je to rozumné pro vás a vaši AI. Nikdy nevíte, co se může stát, včetně toho, že mazaný lovec odměn nějakým způsobem tajně vloží do vaší AI zaujatost AI a vykřikne do světa, že ve vaší AI našel bezohledné zkreslení AI. Možná to udělali v drzém a přehnaném pokusu o získání odměny a navíc se prohlásili za hrdinu, který v podstatě dostal vychvalovaného Jesseho Jamese.

Když se nad tím zamyslím, vnímající AI se pravděpodobně nebude líbit představě znepokojivého opatření mrtvého nebo živého, jak by se dalo váhavě spekulovat.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautious-assessing-with-offering-ai-biases-hunting-bounties-to-catch-and-nab- eticky-zlé-plně-autonomní-systémy-je-obezřetné-nebo-marné/