Etika umělé inteligence říká, že umělá inteligence by měla být nasazena zvláště tehdy, když je mnoho lidských předsudků

Lidé musí znát svá omezení.

Možná si vzpomenete na podobnou slavnou větu o poznání našich omezení, kterou odvážně pronesla postava Dirty Harry ve filmu z roku 1973 s názvem Magnum Force (podle mluvených slov herce Clinta Eastwooda v jeho nezapomenutelné roli inspektora Harryho Callahana). Celková představa je taková, že někdy máme tendenci přehlížet své vlastní limity a podle toho se dostat do horké vody. Ať už kvůli aroganci, egocentrismu nebo prostě slepým vůči našim vlastním schopnostem, pravidlo uvědomovat si a brát explicitně v úvahu naše sklony a nedostatky je nadmíru rozumné a užitečné.

Přidejme k šalvějové radě nový obrat.

Umělá inteligence (AI) poznala svá omezení.

Co mám na mysli tou variantou uctívané fráze?

Ukazuje se, že počáteční spěch, aby se moderní umělá inteligence začala používat jako nadějné řešení světových problémů, se poskvrnil a zcela zakalil zjištěním, že dnešní umělá inteligence má některá poměrně závažná omezení. Vyšli jsme z povznášejících titulků AI pro dobro a stále více jsme se utápěli AI pro špatné. Víte, mnoho systémů umělé inteligence bylo vyvinuto a nasazeno s nejrůznějšími rasovými a genderovými předsudky a nesčetnými dalšími tak otřesnými nespravedlnostmi.

Pro mé rozsáhlé a pokračující pokrytí etiky AI a etické AI viz odkaz zde a odkaz zde, Abychom jmenovali jen několik.

Předpojatosti objevené v těchto systémech umělé inteligence nejsou řekněme „záměrného“ typu, který bychom připisovali lidskému chování. Zmiňuji to, abych zdůraznil, že dnešní AI není vnímavá. Navzdory těm křiklavým titulkům, které naznačují opak, prostě nikde není žádná umělá inteligence, která by se dokonce blížila sentience. Navíc nevíme, jak dostat AI do skupiny vnímavosti, a navíc nikdo nemůže s jistotou říci, zda někdy dosáhneme AI sentience. Možná se to jednou stane, nebo možná ne.

Chci tedy říci, že nemůžeme konkrétně přiřadit záměr typu AI, který v současnosti vlastníme. Jak již bylo řečeno, můžeme hojně přiřadit záměr těm, kteří vytvářejí systémy AI. Někteří vývojáři umělé inteligence si nejsou vědomi skutečnosti, že vymysleli systém umělé inteligence, který obsahuje nechutné a možná ilegální předsudky. Mezitím si jiní vývojáři umělé inteligence uvědomují, že do svých systémů umělé inteligence vkládají předsudky a potenciálně tak činí účelově nesprávným způsobem.

V každém případě je výsledek stále neslušný a pravděpodobně nezákonný.

Probíhají intenzivní snahy o vyhlášení zásad etiky umělé inteligence, které osvětlí vývojáře umělé inteligence a poskytnou vhodné pokyny, jak se vyhnout začleňování předsudků do jejich systémů umělé inteligence. To pomůže dvojím způsobem. Zaprvé, ti, kdo vytvářejí AI, už nebudou mít připravenou výmluvu, že si prostě nebyli vědomi toho, jaká pravidla by se měla dodržovat. Zadruhé, ti, kteří se odchýlí od podmínek Etické umělé inteligence, budou snadněji zachyceni a ukázáni jako odvrácení toho, co byli předem varováni, aby dělali i nedělali.

Pojďme se na chvíli krátce zamyslet nad některými klíčovými etickými zásadami umělé inteligence, abychom ilustrovali, na co by měli tvůrci umělé inteligence myslet a co by měli důsledně dodržovat z etického postoje umělé inteligence.

Jak uvedl Vatikán v Řím vyzývá k etice umělé inteligence a jak jsem se podrobně věnoval odkaz zdeToto je jejich identifikovaných šest primárních etických principů AI:

  • Transparentnost: V zásadě musí být systémy umělé inteligence vysvětlitelné
  • zařazení: Potřeby všech lidských bytostí musí být brány v úvahu, aby každý mohl mít prospěch a všem jednotlivcům mohly být nabídnuty nejlepší možné podmínky k vyjádření a rozvoji.
  • Odpovědnost: Ti, kdo navrhují a nasazují použití AI, musí postupovat zodpovědně a transparentně
  • Nestrannost: Nevytvářejte ani nejednajte podle zaujatosti, a tím si zajistěte spravedlnost a lidskou důstojnost
  • Spolehlivost: Systémy umělé inteligence musí být schopny spolehlivě fungovat
  • Zabezpečení a soukromí: Systémy umělé inteligence musí fungovat bezpečně a respektovat soukromí uživatelů.

Jak uvedlo americké ministerstvo obrany (DoD) ve svém Etické zásady pro používání umělé inteligence a jak jsem se podrobně věnoval odkaz zde, toto je jejich šest primárních etických principů AI:

  • Odpovědný: Personál ministerstva obrany bude uplatňovat přiměřenou úroveň úsudku a péče, přičemž zůstane odpovědný za vývoj, nasazení a používání schopností AI.
  • Spravedlivý: Ministerstvo podnikne promyšlené kroky k minimalizaci nezamýšleného zkreslení schopností AI.
  • sledovatelné: Schopnosti AI ministerstva budou vyvinuty a rozmístěny tak, aby příslušní pracovníci měli odpovídající znalosti o technologii, vývojových procesech a provozních metodách použitelných pro schopnosti AI, včetně transparentních a auditovatelných metodologií, zdrojů dat a návrhových postupů a dokumentace.
  • Spolehlivý: Schopnosti umělé inteligence ministerstva budou mít explicitní, dobře definovaná použití a bezpečnost, zabezpečení a účinnost těchto schopností bude předmětem testování a zajištění v rámci těchto definovaných použití během celého životního cyklu.
  • ovladatelný: Ministerstvo navrhne a zkonstruuje schopnosti umělé inteligence tak, aby plnily zamýšlené funkce, přičemž bude mít schopnost detekovat a vyhnout se nezamýšleným následkům a schopnost odpojit nebo deaktivovat nasazené systémy, které vykazují nezamýšlené chování.

Diskutoval jsem také o různých kolektivních analýzách etických principů umělé inteligence, včetně toho, že jsem se zabýval souborem navrženým výzkumníky, kteří zkoumali a zhušťovali podstatu mnoha národních a mezinárodních zásad etiky umělé inteligence v dokumentu nazvaném „The Global Landscape Of AI Ethics Guidelines“ (publikováno v Příroda), a které mé pokrytí zkoumá na odkaz zde, což vedlo k tomuto klíčovému seznamu:

  • Průhlednost
  • Spravedlnost a férovost
  • Neškodlivost
  • Odpovědnost
  • Ochrana osobních údajů
  • Dobročinnost
  • Svoboda a autonomie
  • Věřte
  • udržitelnost
  • Důstojnost
  • Solidarita

Jak můžete přímo hádat, pokusit se určit specifika, která jsou základem těchto principů, může být extrémně obtížné. Snaha přeměnit tyto široké principy v něco zcela hmatatelného a dostatečně podrobného, ​​aby to bylo možné použít při vytváření systémů umělé inteligence, je navíc tvrdým oříškem. Celkově je snadné mávnout rukou nad tím, co jsou etická pravidla AI a jak by se měly obecně dodržovat, zatímco je mnohem složitější situace, kdy kódování AI musí být opravdovou gumou, která splňuje silnici.

Principy AI etiky mají využívat vývojáři AI spolu s těmi, kteří řídí úsilí o vývoj AI, a dokonce i ti, kteří nakonec nasazují a provádějí údržbu systémů AI. Všechny zúčastněné strany během celého životního cyklu vývoje a používání AI jsou brány v úvahu v rámci dodržování zavedených norem etické AI. To je důležité upozornit, protože obvyklý předpoklad je, že „pouze kodéři“ nebo ti, kteří programují AI, podléhají dodržování etických pojmů AI. Uvědomte si prosím, že vymyslet a postavit AI vyžaduje vesnici. Kvůli tomu musí celá vesnice držet palce ohledně etiky umělé inteligence.

Každopádně, teď, když jsem se dostal ke stolu, že umělá inteligence může obsahovat zkreslení, můžeme snad všichni souhlasit s těmito dvěma zjevnými fakty:

1. Lidé mohou mít řadu nežádoucích předsudků a mohou na ně reagovat

2. Umělá inteligence může mít řadu nežádoucích zkreslení a může na základě těchto zkreslení jednat

Poněkud se mi hnusí stavět lidi proti AI v tomto kontextu, protože by to mohlo nějak naznačovat, že AI má schopnosti vnímat na stejné úrovni jako lidé. To tak jistě není. K narůstajícím obavám z antropomorfizace AI se na chvíli vrátím o něco později v této diskusi.

Co je horší, lidé, kteří projevují nepatřičné předsudky, nebo AI, která tak činí?

Troufám si říci, že tato otázka představuje jednu z těch nejistých možností. Je to příslovečné menší ze dvou zel, dalo by se namítnout. Přáli bychom si, aby lidé neztělesňovali nepatřičné předsudky. Dále bychom si přáli, aby i když lidé měli nežádoucí předsudky, nejednali na základě těchto předsudků. Totéž by se dalo výstižně říci o AI. Přáli bychom si, aby umělá inteligence nevkládala nepatřičné zkreslení, a i když existují takové vnitřně zakódované zkreslení, AI by na ně alespoň nejednala.

Přání však nemusí nutně řídit svět (pro mou analýzu rostoucího a znepokojivého zdání tzv AI Splnění přání společností jako celek, viz odkaz zde).

Dobře, samozřejmě chceme, aby lidé znali svá omezení. Je důležité rozpoznat, kdy máte nežádoucí předsudky. Stejně důležité je snažit se zabránit tomu, aby tyto nepatřičné předsudky byly proniknuty do vašich činů a rozhodnutí. Firmy dnes zkouší nejrůznější přístupy, aby zabránily svým zaměstnancům, aby se dostali do strašlivých nástrah předsudků. Zaměstnancům se poskytuje specializované školení o tom, jak vykonávat svou práci eticky správným způsobem. Procesy jsou utvářeny kolem zaměstnanců, aby je upozornily, když se zdá, že projevují neetické mravy. A tak dále.

Dalším způsobem, jak se vyrovnat s lidmi a jejich nepatřičnými předsudky, by byla automatizace lidské práce. Ano, jednoduše odstraňte člověka ze smyčky. Nedovolte člověku, aby vykonával rozhodovací úkol, a pravděpodobně již nemáte žádné přetrvávající obavy o lidské chování vůči jakýmkoli nežádoucím předsudkům. Není zde zapojen člověk, a tak se zdá, že problém potenciálních lidských předsudků je vyřešen.

Uvádím to, protože jsme svědky postupného a masivního posunu směrem k používání AI způsobem rozhodování podle algoritmu (ADM). Pokud dokážete nahradit lidského pracovníka AI, je pravděpodobné, že z toho vznikne spousta výhod. Jak již bylo zmíněno, už byste si nedělali starosti s lidskými předsudky tohoto lidského pracovníka (toho, který již tuto práci nedělá). Je pravděpodobné, že AI bude celkově méně nákladná ve srovnání s dlouhodobým časovým horizontem. Zbavíte se všech dalších nejrůznějších obtíží, které přicházejí s lidskými pracovníky. Atd.

Zdá se, že návrh, který se prosazuje, je tento: Když se pokoušíte rozhodnout, kam nejlépe umístit umělou inteligenci, dívejte se nejprve na nastavení, která již s sebou nesou lidské předsudky ze strany vašich pracovníků a pro která tyto předsudky podkopávají nebo jinak nadměrně komplikují konkrétní rozhodovací úkoly.

Sečteno a podtrženo je, že by se zdálo prozíravé získat za své peníze co nejvíce peněz, pokud jde o investice do umělé inteligence, zaměřením se přímo na vysoce exponované lidské rozhodovací úkoly, které je obtížné kontrolovat z hlediska nepříznivé infuze předsudků. Odstraňte lidské pracovníky v této roli. Nahraďte je AI. Předpokládá se, že umělá inteligence nebude mít takové nežádoucí předsudky. Můžete si tedy dát svůj dort a také ho sníst, jmenovitě se chopit rozhodovacích úkolů a to bez etického a právního přízraku nepatřičných předsudků.

Když si to vyškrtnete, ROI (návratnost investic) by pravděpodobně učinila z přijetí AI jasnou volbu.

Zde je návod, jak to obvykle dopadá.

Prohlédněte si celou svou firmu a pokuste se identifikovat rozhodovací úkoly, které ovlivňují zákazníky. Které z těchto úkolů budou s největší pravděpodobností nevhodně ovlivněny, pokud pracovníci ztělesňují nepatřičné předsudky? Pokud jste se již pokusili ovládnout tyto předsudky, možná jste nechali věci tak, jak jsou. Na druhou stranu, pokud se předsudky stále znovu objevují a snaha o jejich odstranění je obtížná, zvažte vypuštění nějaké příslušné AI do této role. Nenechávejte dělníky v mixu, protože by mohli potlačit AI nebo zatlačit AI přímo zpět do propasti nepříznivých předsudků. Také se ujistěte, že umělá inteligence dokáže úkol provést zdatně a že jste dostatečně zachytili aspekty rozhodování potřebné k provedení úlohy.

Opláchněte a opakujte.

Uvědomuji si, že to vypadá jako přímočará představa, i když si uvědomuji, že existuje mnoho způsobů, jak nahradit lidské pracovníky umělou inteligencí. Mnoho společností toužilo po takových akcích a vědomě nezvažovaly, jak to udělat. V důsledku toho často nadělali mnohem horší nepořádek, než jaký měli na začátku.

Chci objasnit a zdůraznit, že AI není všelék.

Když už o tom mluvíme, je tu jeden obrovský háček ohledně čistoty zdánlivě vyhazování lidí zaujatých rozhodovacích pravomocí s údajně nezaujatou AI. Háček je v tom, že možná pouze nahrazujete jednu sadu nežádoucích předsudků jinou. Podle dřívějšího náznaku může AI obsahovat nežádoucí zkreslení a může na tyto zkreslení působit. Vytváření drzého předpokladu, že výměna zaujatých lidí za nezaujatou umělou inteligenci není všechno, co se zdá být.

Stručně řečeno, zde je dohoda, když se na věc díváte přísně z faktorů zkreslení:

  • Umělá inteligence nemá žádné nežádoucí předsudky, a proto je vhodné nasadit ADM na bázi AI
  • Umělá inteligence má stejné nežádoucí zaujatosti jako lidé, kteří jsou nahrazeni, a proto je ADM založený na AI znepokojující.
  • Umělá inteligence zavádí nové nepatřičné předsudky, které přesahují předsudky nahrazovaných lidí, a pravděpodobně podle toho situaci zhorší.
  • Umělá inteligence se nejprve zdá být v pořádku a pak se postupně zakolísá do nežádoucích zkreslení
  • Ostatní

Tyto možnosti můžeme krátce rozbalit.

První z nich je idealizovaná verze toho, co se může stát. AI nemá žádné nežádoucí předsudky. Umělou inteligenci umístíte na místo a svou práci odvede skvěle. Dobré pro tebe! Samozřejmě by se dalo doufat, že jste také nějakým obratným způsobem zvládli vysídlení lidských pracovníků kvůli začlenění AI.

V druhém případě umístíte AI a zjistíte, že AI vykazuje stejné nepatřičné předsudky, jaké měli lidští pracovníci. Jak to může být? Běžným způsobem, jak se dostat do této pasti, je použití strojového učení (ML) a hlubokého učení (DL), které jsou založeny na shromážděných datech o tom, jak se lidé v této roli dříve rozhodovali.

Dovolte mi to na chvíli vysvětlit.

ML/DL je forma porovnávání výpočetních vzorů. Obvyklý přístup je takový, že shromažďujete data o úloze rozhodování. Data vkládáte do počítačových modelů ML/DL. Tyto modely se snaží najít matematické vzorce. Po nalezení takových vzorů, pokud jsou nalezeny, systém umělé inteligence tyto vzory použije, když narazí na nová data. Po předložení nových dat se pro vykreslení aktuálního rozhodnutí použijí vzory založené na „starých“ nebo historických datech.

Myslím, že můžete hádat, kam to směřuje. Pokud lidé, kteří tu práci dělali roky a roky, začleňovali nepatřičné předsudky, je pravděpodobné, že data to odrážejí jemnými, ale významnými způsoby. Porovnání výpočetních vzorů Machine Learning nebo Deep Learning se jednoduše pokusí odpovídajícím způsobem matematicky napodobit data. Neexistuje žádné zdání zdravého rozumu nebo jiných vnímavých aspektů modelování jako takového.

Kromě toho si vývojáři AI nemusí uvědomit, co se děje. Tajemná matematika může ztížit odhalení nyní skrytých předsudků. Oprávněně byste doufali a očekávali, že vývojáři umělé inteligence budou testovat potenciálně pohřbené předsudky, i když je to složitější, než by se mohlo zdát. Existuje solidní šance, že i přes poměrně rozsáhlé testování, že v modelech porovnávání vzorů ML/DL budou stále zakomponovány zkreslení.

Sečteno a podtrženo, můžete se vrátit na začátek. Stejné nežádoucí předsudky lidí jsou nyní výpočetně zrcadleny v systému AI. Nevymýtili jste předsudky.

Ještě horší je, že si možná méně uvědomíte, že AI má předsudky. V případě lidí můžete být normálně ve střehu, že lidé mají nežádoucí předsudky. Toto je základní očekávání. Použití umělé inteligence může vůdce ukolébat k přesvědčení, že automatizace zcela odstranila jakýkoli druh lidské zaujatosti. Tím se staví k tomu, že se střelili do nohy. Zbavili se lidí se zdánlivě známými nežádoucími zaujatostmi, nahradila je umělá inteligence, o které se předpokládalo, že žádné takové zaujatosti nemá, a přesto nyní uvedli do provozu umělou inteligenci plnou stejných předsudků, o kterých se již vědělo, že existují.

To může věci pořádně zamávat. Možná jste odstranili další zábradlí používaná s lidskými pracovníky, která byla zřízena k odhalení a zabránění vzniku oněch již očekávaných lidských předsudků. AI má nyní volnou ruku. Není na místě nic, co by to zachytilo, než začnete jednat. Umělá inteligence by vás pak mohla začít vést po kruté cestě obrovského nahromadění zaujatých akcí.

A vy jste v trapné a možná odpovědné pozici, o které jste kdysi věděli o předsudcích a nyní jste dovolili, aby tyto předsudky způsobily zkázu. Jedna věc je možná, že jste se nikdy nesetkali s takovými nežádoucími zaujatostmi, a pak je náhle z ničeho nic AI odrazí. Můžete to zkusit omluvit distraktorem typu „kdo by to uhodl“ (možná nepříliš přesvědčivě). Ale mít nyní nastavenou AI, která dělá úplně stejné neobjektivní akce jako předtím, no, vaše výmluvy jsou čím dál tenčí a pochmurnější.

Zvrat v tom znamená, že AI projevuje nepatřičné zaujatosti, se kterými se dříve při plnění tohoto úkolu lidé nesetkali. Dalo by se říci, že je možná těžší tomu zabránit, protože se jedná o „nové“ předsudky, které firma dříve nehledala. Nakonec vám však výmluvy nemusí přinést velkou úlevu. Pokud se systém umělé inteligence odvážil na neetické i nezákonné území, může být vaše husa uvařená.

Jedním z dalších aspektů, které je třeba mít na paměti, je, že AI může začít v pohodě a pak se dostat do nežádoucích předsudků. To je zvláště pravděpodobné, když se strojové učení nebo hluboké učení využívá průběžně, aby byla AI aktuální. Ať už ML/DL pracuje v reálném čase nebo pravidelně provádí aktualizace, je třeba věnovat pozornost tomu, zda AI možná nezpracovává data, která nyní obsahují zkreslení a která dříve nebyla přítomna.

Vůdci, kteří si myslí, že mávnutím kouzelného proutku dostanou oběd zdarma, aby nahradili zaujaté lidské pracovníky AI, je čeká velmi hrubé probuzení. Podívejte se na mou diskusi o důležitosti posílení postavení lídrů s předpisy etiky AI na odkaz zde.

Vsadil bych se, že v tomto okamžiku této diskuse si přejete nějaké příklady ze skutečného světa, které by mohly ukázat hlavolam nahrazení (nebo ne) lidských nežádoucích předsudků nevhodnými předsudky založenými na umělé inteligenci.

Jsem rád, že ses zeptal.

Existuje speciální a jistě oblíbený soubor příkladů, které jsou mému srdci blízké. Víte, jako odborník na AI včetně etických a právních důsledků jsem často žádán, abych určil realistické příklady, které předvádějí dilemata etiky AI, aby bylo možné snáze pochopit poněkud teoretickou povahu tématu. Jednou z nejvíce sugestivních oblastí, která živě prezentuje tento etický problém umělé inteligence, je příchod skutečně samořídících aut založených na umělé inteligenci. To poslouží jako praktický příklad použití nebo příklad pro rozsáhlou diskusi na dané téma.

Zde je pak pozoruhodná otázka, která stojí za zamyšlení: Osvětluje příchod skutečně samořídících aut založených na umělé inteligenci něco o nežádoucích předsudcích v umělé inteligenci, a pokud ano, co to ukazuje?

Dovolte mi chvíli rozbalit otázku.

Za prvé, všimněte si, že ve skutečném samořídícím autě není žádný lidský řidič. Mějte na paměti, že skutečně samořídící auta jsou řízena systémem AI. Není potřeba, aby za volantem byl lidský řidič, ani neexistuje ustanovení, aby vozidlo řídil člověk. Pro mé rozsáhlé a průběžné pokrytí Autonomních vozidel (AV) a zejména samořiditelných vozů viz odkaz zde.

Rád bych dále objasnil, co je míněno, když mluvím o skutečných samořídících autech.

Porozumění úrovním samořídících automobilů

Pro objasnění platí, že skutečná samojízdná auta jsou ta, která AI řídí auto zcela sama a během řízení neexistuje žádná lidská asistence.

Tato vozidla bez řidiče jsou považována za úroveň 4 a úroveň 5 (viz mé vysvětlení na adrese odkaz zde), zatímco vůz, který vyžaduje, aby se na řízení společně podílel lidský řidič, se obvykle považuje za úroveň 2 nebo úroveň 3. Vozy, které spolu sdílejí úkol řízení, jsou popsány jako semi-autonomní a obvykle obsahují různé automatizované doplňky, které se označují jako ADAS (Advanced Driver-Assistance Systems).

Na úrovni 5 zatím není opravdové samonaváděcí auto, které ještě nevíme, jestli to bude možné dosáhnout, ani jak dlouho to bude trvat.

Mezitím se úsilí úrovně 4 postupně snaží získat určitou trakci tím, že podstupují velmi úzké a selektivní testy na veřejných komunikacích, ačkoli existuje spor o to, zda by toto testování mělo být povoleno jako takové (všichni jsme pokusnými pokusnými králíky na život a na smrt odehrávající se na našich dálnicích a vedlejších cestách, někteří tvrdí, viz moje zpravodajství na odkaz zde).

Protože poloautonomní auta vyžadují řidiče, přijetí těchto typů automobilů se nebude výrazně lišit od řízení konvenčních vozidel, takže o tomto tématu není samo o sobě nic nového (jak vidíte, uvidíte) za okamžik jsou obecně použitelné následující body).

U poloautonomních automobilů je důležité, aby veřejnost musela být upozorněna na znepokojující aspekt, který se objevuje v poslední době, a to navzdory těm lidským řidičům, kteří neustále vysílají videa, která usínají za volantem auta úrovně 2 nebo 3 , všichni se musíme vyhnout tomu, aby byli uvedeni v omyl v přesvědčení, že řidič může odvrátit jejich pozornost od úkolu řízení při řízení poloautonomního automobilu.

Jste odpovědnou stranou za řízení vozidla, bez ohledu na to, kolik automatizace může být hodeno do úrovně 2 nebo úrovně 3.

Samořídící auta a umělá inteligence s nežádoucími předsudky

U vozidel s vlastním řízením úrovně 4 a 5 nebude do řízení zapojen lidský řidič.

Všichni cestující budou cestující.

AI řídí.

Jedním z aspektů, které je třeba okamžitě projednat, je skutečnost, že umělá inteligence zapojená do dnešních řídicích systémů umělé inteligence není vnímavá. Jinými slovy, AI je celkově kolektiv počítačového programování a algoritmů a nejspíše není schopen uvažovat stejným způsobem jako lidé.

Proč je tento dodatečný důraz na to, aby AI nebyla vnímavá?

Protože chci zdůraznit, že při diskusi o roli řídícího systému AI nepřičítám AI lidské vlastnosti. Uvědomte si, že v dnešní době existuje trvalá a nebezpečná tendence k antropomorfizaci AI. V zásadě lidé dnešní AI připisují lidskou vnímavost, a to navzdory nepopiratelné a nepopiratelné skutečnosti, že taková AI dosud neexistuje.

S tímto vysvětlením si můžete představit, že systém řízení AI nebude nativně nějak „vědět“ o aspektech řízení. Řízení a vše, co to obnáší, bude muset být naprogramováno jako součást hardwaru a softwaru samořízeného automobilu.

Pojďme se ponořit do nesčetných aspektů, které na toto téma hrají.

Zaprvé je důležité si uvědomit, že ne všechna samořídící auta s umělou inteligencí jsou stejná. Každá automobilka a technologická firma s vlastním řízením přistupuje k navrhování samořídících vozů. Jako takové je obtížné činit rozsáhlá prohlášení o tom, co budou či nebudou dělat řídicí systémy AI.

Kromě toho, kdykoli uvedou, že řídící systém AI nedělá nějakou konkrétní věc, může to později předběhnout vývojáři, kteří ve skutečnosti naprogramují počítač, aby udělal právě tuto věc. Krok za krokem se postupně zdokonalují a rozšiřují systémy řízení AI. Stávající omezení dnes již nemusí existovat v budoucí iteraci nebo verzi systému.

Věřím, že to poskytne dostatečnou litanii námitek, které jsou základem toho, o čem se chystám vyprávět.

Nyní jsme připraveni se hluboce ponořit do samořídících aut a možností etické umělé inteligence, které zahrnují průzkum umělé inteligence a nežádoucích předsudků.

Použijme jednoduchý příklad. V ulicích vašeho sousedství jezdí auto s umělou inteligencí a zdá se, že jezdí bezpečně. Zpočátku jste věnoval zvláštní pozornost pokaždé, když se vám podařilo zahlédnout samořídící auto. Autonomní vozidlo vyniklo regálem elektronických senzorů, které zahrnovaly videokamery, radarové jednotky, zařízení LIDAR a podobně. Po mnoha týdnech samořídícího auta křižujícího kolem vaší komunity si toho nyní sotva všimnete. Pokud jde o vás, je to jen další auto na již tak frekventovaných veřejných komunikacích.

Abyste si nemysleli, že je nemožné nebo nepravděpodobné seznámit se se samořiditelnými auty, často jsem psal o tom, jak si místa, která jsou v rámci zkoušek samořiditelných aut, postupně zvykla na vyšperkovaná vozidla, viz moji analýzu na odkaz zde. Mnozí z místních nakonec přešli z uchváceného civění s otevřenými ústy k tomu, že nyní vydávali expanzivní zívání nudy, aby byli svědky těch klikatých samořídících aut.

Pravděpodobně hlavním důvodem, proč by si právě teď mohli všimnout autonomních vozidel, je faktor podráždění a podráždění. Řídicí systémy AI podle knihy zajišťují, že auta dodržují všechny rychlostní limity a pravidla silničního provozu. U hektických lidských řidičů v jejich tradičních lidsky řízených autech budete občas naštvaní, když uvíznete za přísně zákony dodržujícími samořídícími auty založenými na umělé inteligenci.

To je něco, na co si možná budeme muset všichni zvyknout, ať už oprávněně nebo neprávem.

Zpět k našemu příběhu.

Ukazuje se, že se začnou objevovat dvě nepatřičné obavy ohledně jinak neškodných a obecně vítaných samořídících aut založených na umělé inteligenci, konkrétně:

A. Tam, kde se umělá inteligence potuluje v samořiditelných autech za účelem vyzvednutí jízdy, se v komunitě jako celku stala úzkostným problémem

b. Jak AI zachází s čekajícími chodci, kteří nemají přednost v jízdě, je také rostoucí problém

Zpočátku AI řádila v samořízených autech po celém městě. Každý, kdo chtěl požádat o svezení v samořídícím autě, měl v podstatě stejnou šanci, že ho zavolá. Umělá inteligence postupně začala primárně udržovat samořídící auta v pohybu pouze v jedné části města. Tato sekce byla větším zdrojem peněz a systém umělé inteligence byl naprogramován tak, aby se pokusil maximalizovat výnosy jako součást využití v komunitě.

Členové komunity v chudých částech města měli menší pravděpodobnost, že se budou moci svézt samořídícím autem. Bylo to proto, že samořídící auta byla dále a pohybovala se v části s vyššími příjmy v lokalitě. Když přišla žádost ze vzdálené části města, měla by vyšší prioritu každá žádost z bližšího místa, která byla pravděpodobně ve „vážené“ části města. Nakonec bylo téměř nemožné získat auto s vlastním pohonem na jakémkoli jiném místě než v bohatší části města, což bylo k popukání pro ty, kdo žili v oblastech, kde nyní chybí zdroje.

Dalo by se tvrdit, že AI do značné míry přistála na formě zástupné diskriminace (také často označované jako nepřímá diskriminace). Umělá inteligence nebyla naprogramována tak, aby se vyhýbala těm chudším čtvrtím. Místo toho se to „naučilo“ pomocí ML/DL.

Jde o to, že lidští řidiči spolujízdy byli známí tím, že dělali totéž, i když ne nutně výhradně kvůli úhlu vydělávání peněz. Byli tu někteří lidští řidiči, kteří sdíleli jízdu, kteří měli nepříjemnou zaujatost sbírat jezdce v určitých částech města. To byl poněkud známý jev a město zavedlo monitorovací přístup, aby přistihlo lidské řidiče, kteří to dělají. Lidští řidiči by se mohli dostat do problémů kvůli provádění nechutných výběrových praktik.

Předpokládalo se, že AI nikdy nespadne do stejného druhu pohyblivého písku. Nebylo nastaveno žádné specializované monitorování, které by sledovalo, kam jela samořídící auta založená na umělé inteligenci. Teprve poté, co si členové komunity začali stěžovat, si představitelé města uvědomili, co se děje. Další informace o těchto typech celoměstských problémů, které budou představovat autonomní vozidla a samořídící auta, najdete v mém pokrytí na odkaz zde a který popisuje studii vedenou Harvardem, na které jsem se na toto téma podílel.

Tento příklad roamingových aspektů samořídících aut na bázi umělé inteligence ilustruje dřívější náznak toho, že mohou nastat situace, kdy lidé mohou mít nežádoucí zaujatosti, pro které jsou zavedeny kontroly, a že umělá inteligence nahrazující tyto lidské řidiče je ponechána na pozoru. volný, uvolnit. Umělá inteligence se pak bohužel může postupně utápět v podobných předsudcích a dělat to bez dostatečných zábradlí.

Druhý příklad zahrnuje AI určení, zda zastavit pro čekající chodce, kteří nemají právo přednosti přejít ulici.

Nepochybně jste jeli autem a setkali jste se s chodci, kteří čekali, až přejdou ulici, a přesto k tomu neměli přednost. To znamenalo, že jste měli možnost rozhodnout, zda zastavit a nechat je přejít. Mohli byste pokračovat, aniž byste je nechali překročit, a přesto se plně drželi zákonných pravidel řízení.

Studie o tom, jak se lidští řidiči rozhodují, zda zastavit nebo nezastavit pro takové chodce, naznačují, že někdy se lidští řidiči rozhodují na základě nežádoucích předsudků. Lidský řidič se může podívat na chodce a rozhodnout se nezastavit, i když by zastavil, kdyby měl chodec jiný vzhled, například na základě rasy nebo pohlaví. Zkoumal jsem to na odkaz zde.

Představte si, že samořídící auta založená na AI jsou naprogramována tak, aby se vypořádala s otázkou, zda zastavit nebo nezastavit pro chodce, kteří nemají přednost. Zde je návod, jak se vývojáři AI rozhodli naprogramovat tento úkol. Sbírali data z městských videokamer, které jsou rozmístěny po celém městě. Data ukazují lidské řidiče, kteří zastaví pro chodce, kteří nemají přednost, a lidské řidiče, kteří nezastaví. To vše je shromážděno do velkého souboru dat.

Pomocí strojového učení a hlubokého učení jsou data modelována výpočtově. Řídicí systém AI pak pomocí tohoto modelu rozhoduje, kdy zastavit nebo nezastavit. Obecně platí, že ať už se místní zvyk skládá z čehokoli, umělá inteligence řídí samořídící auto.

K překvapení vedení města a obyvatel se AI evidentně rozhodla zastavit nebo nezastavit na základě vzhledu chodce, včetně jeho rasy a pohlaví. Senzory samořídícího auta by naskenovaly čekajícího chodce, vložily tato data do modelu ML/DL a model by AI oznámil, zda má zastavit nebo pokračovat. Je smutné, že město již mělo v tomto ohledu mnoho lidských řidičských předsudků a AI nyní napodobovala totéž.

Dobrou zprávou je, že to vyvolává problém, o jehož existenci téměř nikdo dříve nevěděl. Špatnou zprávou bylo, že od té doby, co byla při tom přistižena AI, nese většinu viny. Tento příklad ilustruje, že systém umělé inteligence by mohl pouze duplikovat již dříve existující nežádoucí předsudky lidí.

Proč investovat do čističky vzduchu?

Existuje mnoho způsobů, jak se pokusit vyhnout se vymýšlení umělé inteligence, která má buď nepříznivé předsudky, nebo která v průběhu času předsudky sbírá. Jedním z přístupů je zajistit, aby si vývojáři AI byli vědomi této události, a proto je udržují ve střehu, aby naprogramovali AI tak, aby tomu zabránila. Další cesta spočívá v tom, že má AI samočinně monitorovat neetické chování (viz moje diskuse na odkaz zde) a/nebo mít další část AI, která monitoruje jiné systémy AI kvůli potenciálně neetickému chování (popsal jsem to na odkaz zde).

Abychom to zrekapitulovali, musíme si uvědomit, že lidé mohou mít nepatřičné předsudky a že nějakým způsobem potřebují znát svá omezení. Podobně může mít umělá inteligence nežádoucí zaujatosti a nějak musíme znát jejich omezení.

Pro ty z vás, kteří zaníceně přijímáte etiku umělé inteligence, bych právě teď rád zakončil další slavnou linii, kterou už musí každý znát. Konkrétně, nadále prosím používejte a sdílejte význam etické AI. A tím bych drze řekl toto: "Do toho, zpříjemněte mi den."

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-special-deployed-when-human-biases-are-aplenty/