Etika umělé inteligence zvoní na poplach o hrozivém spektru předsudků umělé inteligence v masivním globálním měřítku, zejména poháněných prostřednictvím hrozících plně autonomních systémů

Platón skvěle prohlásil, že dobré rozhodnutí je založeno na znalostech a ne na číslech.

Tento pronikavý pohled se zdá být úžasně prozíravý ohledně dnešní umělé inteligence (AI).

Víte, i přes křiklavé titulky, které v současnosti prohlašují, že umělá inteligence nějak dosáhla rozumu a ztělesňuje lidské vědění a uvažování, mějte prosím na paměti, že tato přehnaná hyperbola umělé inteligence je zákeřná předtucha, protože v dnešním rozhodování o algoritmech stále spoléháme na drcení čísel (ADM ), jak to provádějí systémy AI. Dokonce i vychvalované strojové učení (ML) a hluboké učení (DL) se skládají z porovnávání výpočetních vzorů, což znamená, že čísla jsou stále jádrem vznešeného používání ML/DL.

Nevíme, zda je AI dosažení sentience možné. Může být, nemusí být. Nikdo nemůže s jistotou říci, jak by to mohlo vzniknout. Někteří věří, že budeme postupně zlepšovat naše výpočetní AI úsilí tak, že se spontánně objeví určitá forma sentience. Jiní si myslí, že umělá inteligence by mohla přejít do jakési výpočetní supernovy a dosáhnout sentience v podstatě sama od sebe (typicky označovaná jako singularita). Další informace o těchto teoriích o budoucnosti umělé inteligence naleznete v mém zpravodajství na adrese odkaz zde.

Nedělejme si tedy legraci a falešně věřme, že současná umělá inteligence je schopna myslet jako lidé. Domnívám se, že se pak dostává do popředí otázka ohledně Platónovy poznámky, zda můžeme mít dobrá rozhodnutí založená na výpočetní AI spíše než na sentientní AI. Možná vás překvapí, že bych tvrdil, že každodenní systémy umělé inteligence mohou skutečně přijímat dobrá rozhodnutí.

Druhou stranou této mince je, že můžeme mít také každodenní systémy umělé inteligence, které dělají špatná rozhodnutí. Prohnilá rozhodnutí. Rozhodnutí, která jsou plná nežádoucích předsudků a nespravedlností. Možná si uvědomujete, že když začala nejnovější éra umělé inteligence, došlo k obrovskému výbuchu nadšení z toho, co někteří dnes nazývají AI pro dobro. Bohužel v patách toho tryskajícího vzrušení jsme začali být svědky AI pro špatné. Například bylo odhaleno, že různé systémy rozpoznávání obličeje založené na umělé inteligenci obsahují rasové a genderové předsudky, o kterých jsem mluvil na odkaz zde.

Snahy bránit se AI pro špatné aktivně probíhají. Kromě hlučného právní ve snaze omezit provinění na uzdě existuje také podstatný tlak na přijetí etiky umělé inteligence, aby se napravila odpornost umělé inteligence. Myšlenka je taková, že bychom měli přijmout a schválit klíčové etické principy umělé inteligence pro rozvoj a nasazení umělé inteligence, abychom podkopali AI pro špatné a současně ohlašovat a propagovat preferované AI pro dobro.

Moje rozsáhlé pokrytí etiky umělé inteligence a etické umělé inteligence naleznete na odkaz zde a odkaz zde, Abychom jmenovali jen několik.

V této diskusi bych rád upozornil na obzvláště znepokojivý aspekt AI, nad kterým si lidé v etické aréně AI oprávněně naříkají a snaží se o něm zvýšit informovanost. Vystřízlivění a znepokojující záležitost je vlastně docela jednoduché poukázat.

Tady je: Umělá inteligence má potenciál v reálném světě propagovat předsudky prostoupené umělou inteligencí v alarmujícím globálním měřítku.

A když říkám „v měřítku“, prokazatelně to znamená celosvětový masivní rozsah. Obrovské měřítko. Měřítko, které jde mimo váhu.

Než se ponořím do toho, jak bude toto škálování předsudků ponořených umělou inteligencí probíhat, ujistíme se, že všichni máme zdání, jak může umělá inteligence začlenit nepřiměřené předsudky a nespravedlnosti. Znovu si připomeňme, že se nejedná o vnímavou odrůdu. To vše je výpočetní kalibr.

Možná budete zmateni tím, jak umělá inteligence může nasytit stejné druhy nepříznivých předsudků a nespravedlností, které dělají lidé. Máme sklon považovat AI za zcela neutrální, nezaujatou, jednoduše za stroj, který nemá žádný emocionální vliv a odporné myšlení, jaké mohou mít lidé. Jedním z nejběžnějších způsobů, jak AI upadne do zaujatosti předsudků a nerovností, dochází při používání strojového učení a hlubokého učení, částečně v důsledku spoléhání se na shromážděná data o tom, jak se lidé rozhodují.

Dovolte mi chvíli na to, abych to rozvedl.

ML/DL je forma porovnávání výpočetních vzorů. Obvyklý přístup je takový, že shromažďujete data o úloze rozhodování. Data vkládáte do počítačových modelů ML/DL. Tyto modely se snaží najít matematické vzorce. Po nalezení takových vzorů, pokud jsou nalezeny, systém umělé inteligence tyto vzory použije, když narazí na nová data. Po předložení nových dat se pro vykreslení aktuálního rozhodnutí použijí vzory založené na „starých“ nebo historických datech.

Myslím, že můžete hádat, kam to směřuje. Pokud lidé, kteří se rozhodovali podle vzoru, začlenili nežádoucí předsudky, je pravděpodobné, že data to odrážejí jemnými, ale významnými způsoby. Porovnání výpočetních vzorů Machine Learning nebo Deep Learning se jednoduše pokusí odpovídajícím způsobem matematicky napodobit data. Neexistuje žádné zdání zdravého rozumu nebo jiných vnímavých aspektů modelování vytvořeného umělou inteligencí jako takového.

Kromě toho si vývojáři AI nemusí uvědomit, co se děje. Tajemná matematika v ML/DL může ztížit odhalení nyní skrytých předsudků. Oprávněně byste doufali a očekávali, že vývojáři umělé inteligence budou testovat potenciálně pohřbené předsudky, i když je to složitější, než by se mohlo zdát. Existuje solidní šance, že i přes poměrně rozsáhlé testování, že v modelech porovnávání vzorů ML/DL budou stále zakomponovány zkreslení.

Dalo by se tak trochu použít slavné nebo nechvalně známé pořekadlo o smetí-do odpadu-ven. Jde o to, že je to spíše podobné předsudkům – in, které se zákeřně prolínají, když se předsudky ponoří do AI. Rozhodování pomocí algoritmu neboli ADM AI je axiomaticky zatíženo nespravedlností.

Špatný.

To nás přivádí k otázce zkreslení prostoupených umělou inteligencí, když je v měřítku.

Nejprve se podívejme na to, jak mohou lidské předsudky vytvářet nespravedlnosti. Společnost, která poskytuje hypoteční úvěry, se rozhodne najmout makléře pro hypoteční úvěry. Agent má kontrolovat žádosti spotřebitelů, kteří chtějí získat úvěr na bydlení. Po posouzení žádosti agent rozhodne o poskytnutí půjčky nebo o zamítnutí půjčky. Snadno-peasy.

Pro diskusi si představme, že lidský úvěrový agent dokáže analyzovat 8 půjček denně, přičemž kontrola zabere přibližně jednu hodinu. Během pětidenního pracovního týdne provede agent asi 40 recenzí půjček. Ročně agent obvykle provede přibližně 2,000 XNUMX recenzí půjček, ať dá nebo vezme trochu.

Společnost chce zvýšit objem prověřování úvěrů, proto najímá dalších 100 úvěrových agentů. Předpokládejme, že všichni mají přibližně stejnou produktivitu a že to znamená, že nyní můžeme zpracovat přibližně 200,000 2,000 půjček ročně (při XNUMX XNUMX hodnocení půjček ročně na jednoho agenta). Zdá se, že jsme opravdu zrychlili zpracování žádostí o úvěr.

Ukázalo se, že společnost navrhuje systém umělé inteligence, který může v podstatě provádět stejné kontroly půjček jako lidští agenti. AI běží na počítačových serverech v cloudu. Prostřednictvím cloudové infrastruktury může společnost snadno přidat další výpočetní výkon, aby pokryla jakýkoli objem recenzí půjček, které mohou být potřeba.

Se stávající konfigurací AI mohou provést 1,000 24 recenzí půjček za hodinu. To se také může stát 7×9. AI nepotřebuje žádnou dovolenou. Žádné přestávky na oběd. Umělá inteligence funguje nepřetržitě a bez pokřikování o přepracovanosti. Řekněme, že tímto přibližným tempem dokáže AI zpracovat téměř XNUMX milionů žádostí o úvěr ročně.

Všimněte si, že jsme přešli ze 100 lidských agentů, kteří by mohli poskytnout 200,000 9 půjček ročně, a mnohonásobně jsme přeskočili na mnohem vyšší počet XNUMX milionů recenzí ročně prostřednictvím systému AI. Výrazně jsme rozšířili zpracování žádostí o úvěr. O tom není pochyb.

Připravte se na nakopávač, po kterém možná spadnete ze židle.

Předpokládejme, že někteří z našich lidských agentů dělají svá rozhodnutí o půjčkách na základě nežádoucích předsudků. Možná někteří dávají rasovým faktorům klíčovou roli při rozhodování o půjčce. Možná někteří používají gender. Jiní používají věk. A tak dále.

Kolik z 200,000 10 ročních hodnocení půjček je provedeno pod neoprávněným pohledem nepříznivých předsudků a nespravedlností? Možná 20,000 %, což je asi 50 100,000 žádostí o půjčku. Ještě horší je, že předpokládejme, že se jedná o XNUMX % žádostí o půjčku, v takovém případě je ročně celkem znepokojivých XNUMX XNUMX případů nesprávně rozhodnutých rozhodnutí o půjčce.

To je špatné. Ale musíme ještě zvážit ještě děsivější možnost.

Předpokládejme, že AI má skrytou zaujatost, která se skládá z faktorů, jako je rasa, pohlaví, věk a podobně. Pokud 10 % ročních analýz úvěrů podléhá této nevýhodě, máme 900,000 100 žádostí o úvěr, které jsou nesprávně vyřizovány. To je mnohem víc, než co by lidští agenti mohli udělat, především jednoduše kvůli objemovým aspektům. Těch 200,000 agentů, pokud by všichni dělali nespravedlivé hodnocení, by to mohlo udělat nanejvýš na 9,000,000 XNUMX ročních hodnoceních půjček. Umělá inteligence by mohla udělat totéž v mnohem velkém měřítku XNUMX XNUMX XNUMX ročních recenzí.

Yikes!

To je skutečně zaujatost pohlcená AI v obrovském měřítku.

Když jsou v systému umělé inteligence pohřbeny nepatřičné předsudky, stejné škálování, které se zdálo výhodné, je nyní postaveno na hlavu a stává se monstrózně okouzlujícím (a znepokojujícím) výsledkem škálování. Na jedné straně může umělá inteligence prospívat, aby zvládla více lidí, kteří požadují půjčky na bydlení. Navenek to vypadá ohromně AI pro dobro. Měli bychom se poplácat po ramenou, že pravděpodobně zvyšujeme šance lidí získat potřebné půjčky. Mezitím, pokud má umělá inteligence vestavěné předsudky, bude škálování nesmírně prohnilým výsledkem a my se ocitneme žalostně utápění v AI pro špatné, a to ve skutečně masivním měřítku.

Pověstný dvousečný meč.

AI může radikálně zvýšit přístup k rozhodování pro ty, kteří hledají požadované služby a produkty. Už žádné překážky pro lidskou práci. Vynikající! Druhou ostřím meče je, že pokud AI obsahuje špatnost, jako jsou skryté nerovnosti, stejné masivní škálování vyhlásí toto nevhodné chování v nepředstavitelném měřítku. Rozčilující, křivé, hanebné a nemůžeme dovolit, aby společnost spadla do tak ošklivé propasti.

Každý, kdo si lámal hlavu nad tím, proč potřebujeme lámat hlavu nad důležitostí etiky umělé inteligence, by si nyní měl uvědomit, že fenomén škálování umělé inteligence je zatraceně důležitým důvodem pro sledování etické umělé inteligence. Pojďme se na chvíli krátce zamyslet nad některými klíčovými etickými zásadami umělé inteligence, abychom ilustrovali, na co by se měl každý, kdo vyrábí, pracuje nebo používá umělou inteligenci, zaměřit zásadním způsobem.

Například, jak uvádí Vatikán v Řím vyzývá k etice umělé inteligence a jak jsem se podrobně věnoval odkaz zdeToto je jejich identifikovaných šest primárních etických principů AI:

  • Transparentnost: V zásadě musí být systémy umělé inteligence vysvětlitelné
  • zařazení: Potřeby všech lidských bytostí musí být brány v úvahu, aby každý mohl mít prospěch a všem jednotlivcům mohly být nabídnuty nejlepší možné podmínky k vyjádření a rozvoji.
  • Odpovědnost: Ti, kdo navrhují a nasazují použití AI, musí postupovat zodpovědně a transparentně
  • Nestrannost: Nevytvářejte ani nejednajte podle zaujatosti, a tím si zajistěte spravedlnost a lidskou důstojnost
  • Spolehlivost: Systémy umělé inteligence musí být schopny spolehlivě fungovat
  • Zabezpečení a soukromí: Systémy umělé inteligence musí fungovat bezpečně a respektovat soukromí uživatelů.

Jak uvedlo americké ministerstvo obrany (DoD) ve svém Etické zásady pro používání umělé inteligence a jak jsem se podrobně věnoval odkaz zde, toto je jejich šest primárních etických principů AI:

  • Odpovědný: Personál ministerstva obrany bude uplatňovat přiměřenou úroveň úsudku a péče, přičemž zůstane odpovědný za vývoj, nasazení a používání schopností AI.
  • Spravedlivý: Ministerstvo podnikne promyšlené kroky k minimalizaci nezamýšleného zkreslení schopností AI.
  • sledovatelné: Schopnosti AI ministerstva budou vyvinuty a rozmístěny tak, aby příslušní pracovníci měli odpovídající znalosti o technologii, vývojových procesech a provozních metodách použitelných pro schopnosti AI, včetně transparentních a auditovatelných metodologií, zdrojů dat a návrhových postupů a dokumentace.
  • Spolehlivý: Schopnosti umělé inteligence ministerstva budou mít explicitní, dobře definovaná použití a bezpečnost, zabezpečení a účinnost těchto schopností bude předmětem testování a zajištění v rámci těchto definovaných použití během celého životního cyklu.
  • ovladatelný: Ministerstvo navrhne a zkonstruuje schopnosti umělé inteligence tak, aby plnily zamýšlené funkce, přičemž bude mít schopnost detekovat a vyhnout se nezamýšleným následkům a schopnost odpojit nebo deaktivovat nasazené systémy, které vykazují nezamýšlené chování.

Diskutoval jsem také o různých kolektivních analýzách etických principů umělé inteligence, včetně toho, že jsem se zabýval souborem navrženým výzkumníky, kteří zkoumali a zhušťovali podstatu mnoha národních a mezinárodních zásad etiky umělé inteligence v dokumentu nazvaném „The Global Landscape Of AI Ethics Guidelines“ (publikováno v Příroda), a které mé pokrytí zkoumá na odkaz zde, což vedlo k tomuto klíčovému seznamu:

  • Průhlednost
  • Spravedlnost a férovost
  • Neškodlivost
  • Odpovědnost
  • Ochrana osobních údajů
  • Dobročinnost
  • Svoboda a autonomie
  • Věřte
  • udržitelnost
  • Důstojnost
  • Solidarita

Jak můžete přímo hádat, pokusit se určit specifika, která jsou základem těchto principů, může být extrémně obtížné. Snaha přeměnit tyto široké principy v něco zcela hmatatelného a dostatečně podrobného, ​​aby to bylo možné použít při vytváření systémů umělé inteligence, je navíc tvrdým oříškem. Celkově je snadné mávnout rukou nad tím, co jsou etická pravidla AI a jak by se měly obecně dodržovat, zatímco je mnohem složitější situace, kdy kódování AI musí být opravdovou gumou, která splňuje silnici.

Principy AI etiky mají využívat vývojáři AI spolu s těmi, kteří řídí úsilí o vývoj AI, a dokonce i ti, kteří nakonec nasazují a provádějí údržbu systémů AI. Všechny zúčastněné strany během celého životního cyklu vývoje a používání AI jsou brány v úvahu v rámci dodržování zavedených norem etické AI. To je důležité upozornit, protože obvyklý předpoklad je, že „pouze kodéři“ nebo ti, kteří programují AI, podléhají dodržování etických pojmů AI. Uvědomte si prosím, že vymyslet a postavit AI vyžaduje vesnici. Kvůli tomu musí celá vesnice držet palce ohledně etiky umělé inteligence.

Jak funguje škálování škálování AI-Steeped Biases

Nyní, když jsem si uvědomil, že umělá inteligence může obsahovat zkreslení, jsme připraveni prozkoumat některé z důvodů, proč je škálování umělé inteligence tak rušivé.

Zvažte tento základní seznam deseti základních důvodů:

  1. Snadno replikovatelné
  2. Minimální náklady na rozsah
  3. Příšerně konzistentní
  4. Nedostatek sebereflexe
  5. Slepá poslušnost
  6. Nenaklání ruku
  7. Příjemce nic netušící
  8. Má tendenci nepodněcovat provokaci
  9. Falešná aura spravedlnosti
  10. Těžko vyvrátit

Krátce prozkoumám každý z těchto klíčových bodů.

Když se pokusíte rozšířit lidskou práci, je pravděpodobné, že to bude nesmírně komplikované. Musíte najít a najmout lidi. Musíte je vycvičit, aby tuto práci zvládli. Musíte je zaplatit a vzít v úvahu lidské přání a potřeby. Porovnejte to se systémem AI. Vyvinete jej a použijete. Kromě určitého množství průběžné údržby AI si můžete sednout a nechat ji zpracovávat donekonečna.

To znamená, že AI se snadno replikuje. Můžete přidat více výpočetního výkonu, jak to může úkol a objem vyžadovat (nenajímáte ani nepropouštíte). Globální použití se provádí stisknutím tlačítka a je dosaženo celosvětovou dostupností internetu. Rozšiřování je minimální náklady ve srovnání s podobným postupem s lidskou prací.

Lidská práce je notoricky nekonzistentní. Když máte velké týmy, máte opravdovou bonboniéru, u které nikdy nevíte, co můžete mít na ruce. Systém umělé inteligence bude pravděpodobně vysoce konzistentní. Opakuje stále stejné činnosti, přičemž pokaždé je v podstatě stejná jako ta předchozí.

Normálně bychom měli rádi konzistenci AI. Pokud jsou lidé náchylní k předsudkům, budeme mít vždy nějakou část naší lidské práce, která bude sejít z cesty. AI, pokud je čistě nezaujatá ve svém konstrukčním a výpočetním úsilí, by byla mnohem konzistentnější. Problém však je, že pokud má AI skryté předsudky, konzistence je nyní bolestně ohavná. Je pravděpodobné, že zaujaté chování bude důsledně prováděno znovu a znovu.

Lidé by doufejme měli trochu tušení o sebereflexi a možná by se přistihli při zaujatých rozhodnutích. Neříkám, že by to udělali všichni. Také neříkám, že ti, kteří se přistihnou, nutně napraví své křivdy. V každém případě by se alespoň někteří lidé občas opravili.

Je nepravděpodobné, že AI bude mít nějakou formu výpočetní sebereflexe. To znamená, že AI prostě pokračuje v tom, co dělá. Zdánlivě by byla nulová šance, že by umělá inteligence zjistila, že je v rozporu s kapitálem. Jak již bylo řečeno, popsal jsem některé snahy se s tím vypořádat, jako je budování komponent AI etiky v rámci AI (viz odkaz zde) a vymýšlení umělé inteligence, která monitoruje jinou umělou inteligenci, aby rozpoznala neetické aktivity umělé inteligence (viz odkaz zde).

Bez jakékoli sebereflexe je AI také pravděpodobně v podstatě slepá poslušnost vůči všemu, co jí bylo nařízeno. Lidé možná nebudou tak poslušní. Je pravděpodobné, že někteří lidé, kteří plní nějaký úkol, se budou ptát, zda nejsou vedeni do oblasti nerovnosti. Měli by tendenci odmítat neetické příkazy nebo možná jít cestou informátorů (viz moje zpravodajství na odkaz zde). Nečekejte, že každodenní současná AI bude nějak zpochybňovat své programování.

Dále se zaměříme na ty, kteří používají AI. Pokud jste hledali půjčku na bydlení a mluvili s člověkem, možná jste ve střehu, zda vám ten člověk pořádně zatřese. Při používání systému AI se zdá, že většina lidí je méně podezřelá. Často předpokládají, že umělá inteligence je spravedlivá a ergo se tak rychle nerozčilují. Zdá se, že AI ukolébá lidi do transu typu „je to jen stroj“. Kromě toho může být těžké pokusit se protestovat proti AI. Naproti tomu protestovat proti tomu, jak s vámi zacházel lidský agent, je mnohem snazší a mnohem běžněji přijímáno a předpokládáno, že je to možné.

Celkově vzato, umělá inteligence, která je ponořená do předsudků, má nečestnou výhodu nad lidmi ponořenými do předsudků, konkrétně ve smyslu schopnosti přimět umělou inteligenci masivně nasadit tyto předsudky v gigantickém měřítku, aniž by byla snadno zachycena nebo měla spotřebitele. uvědomit si, co se znepokojivě děje.

Vsadil bych se, že v tomto okamžiku této diskuse si přejete nějaké další příklady, které by mohly předvést hlavolam předpojatosti ponořené AI v měřítku.

Jsem rád, že ses zeptal.

Existuje speciální a jistě oblíbený soubor příkladů, které jsou mému srdci blízké. Víte, jako odborník na AI včetně etických a právních důsledků jsem často žádán, abych určil realistické příklady, které předvádějí dilemata etiky AI, aby bylo možné snáze pochopit poněkud teoretickou povahu tématu. Jednou z nejvíce sugestivních oblastí, která živě prezentuje tento etický problém umělé inteligence, je příchod skutečně samořídících aut založených na umělé inteligenci. To poslouží jako praktický příklad použití nebo příklad pro rozsáhlou diskusi na dané téma.

Zde je pak pozoruhodná otázka, která stojí za zamyšlení: Osvětluje příchod skutečně samořídících aut na bázi umělé inteligence něco o předsudcích prostoupených umělou inteligencí, a pokud ano, co to ukazuje?

Dovolte mi chvíli rozbalit otázku.

Za prvé, všimněte si, že ve skutečném samořídícím autě není žádný lidský řidič. Mějte na paměti, že skutečně samořídící auta jsou řízena systémem AI. Není potřeba, aby za volantem byl lidský řidič, ani neexistuje ustanovení, aby vozidlo řídil člověk. Pro mé rozsáhlé a průběžné pokrytí Autonomních vozidel (AV) a zejména samořiditelných vozů viz odkaz zde.

Rád bych dále objasnil, co je míněno, když mluvím o skutečných samořídících autech.

Porozumění úrovním samořídících automobilů

Pro objasnění platí, že skutečná samojízdná auta jsou ta, která AI řídí auto zcela sama a během řízení neexistuje žádná lidská asistence.

Tato vozidla bez řidiče jsou považována za úroveň 4 a úroveň 5 (viz mé vysvětlení na adrese odkaz zde), zatímco vůz, který vyžaduje, aby se na řízení společně podílel lidský řidič, se obvykle považuje za úroveň 2 nebo úroveň 3. Vozy, které spolu sdílejí úkol řízení, jsou popsány jako semi-autonomní a obvykle obsahují různé automatizované doplňky, které se označují jako ADAS (Advanced Driver-Assistance Systems).

Na úrovni 5 zatím není opravdové samonaváděcí auto, které ještě nevíme, jestli to bude možné dosáhnout, ani jak dlouho to bude trvat.

Mezitím se úsilí úrovně 4 postupně snaží získat určitou trakci tím, že podstupují velmi úzké a selektivní testy na veřejných komunikacích, ačkoli existuje spor o to, zda by toto testování mělo být povoleno jako takové (všichni jsme pokusnými pokusnými králíky na život a na smrt odehrávající se na našich dálnicích a vedlejších cestách, někteří tvrdí, viz moje zpravodajství na odkaz zde).

Protože poloautonomní auta vyžadují řidiče, přijetí těchto typů automobilů se nebude výrazně lišit od řízení konvenčních vozidel, takže o tomto tématu není samo o sobě nic nového (jak vidíte, uvidíte) za okamžik jsou obecně použitelné následující body).

U poloautonomních automobilů je důležité, aby veřejnost musela být upozorněna na znepokojující aspekt, který se objevuje v poslední době, a to navzdory těm lidským řidičům, kteří neustále vysílají videa, která usínají za volantem auta úrovně 2 nebo 3 , všichni se musíme vyhnout tomu, aby byli uvedeni v omyl v přesvědčení, že řidič může odvrátit jejich pozornost od úkolu řízení při řízení poloautonomního automobilu.

Jste odpovědnou stranou za řízení vozidla, bez ohledu na to, kolik automatizace může být hodeno do úrovně 2 nebo úrovně 3.

Samořídící auta a umělá inteligence v měřítku

U vozidel s vlastním řízením úrovně 4 a 5 nebude do řízení zapojen lidský řidič.

Všichni cestující budou cestující.

AI řídí.

Jedním z aspektů, které je třeba okamžitě projednat, je skutečnost, že umělá inteligence zapojená do dnešních řídicích systémů umělé inteligence není vnímavá. Jinými slovy, AI je celkově kolektiv počítačového programování a algoritmů a nejspíše není schopen uvažovat stejným způsobem jako lidé.

Proč je tento dodatečný důraz na to, aby AI nebyla vnímavá?

Protože chci zdůraznit, že při diskusi o roli řídícího systému AI nepřičítám AI lidské vlastnosti. Uvědomte si, že v dnešní době existuje trvalá a nebezpečná tendence k antropomorfizaci AI. V zásadě lidé dnešní AI připisují lidskou vnímavost, a to navzdory nepopiratelné a nepopiratelné skutečnosti, že taková AI dosud neexistuje.

S tímto vysvětlením si můžete představit, že systém řízení AI nebude nativně nějak „vědět“ o aspektech řízení. Řízení a vše, co to obnáší, bude muset být naprogramováno jako součást hardwaru a softwaru samořízeného automobilu.

Pojďme se ponořit do nesčetných aspektů, které na toto téma hrají.

Zaprvé je důležité si uvědomit, že ne všechna samořídící auta s umělou inteligencí jsou stejná. Každá automobilka a technologická firma s vlastním řízením přistupuje k navrhování samořídících vozů. Jako takové je obtížné činit rozsáhlá prohlášení o tom, co budou či nebudou dělat řídicí systémy AI.

Kromě toho, kdykoli uvedou, že řídící systém AI nedělá nějakou konkrétní věc, může to později předběhnout vývojáři, kteří ve skutečnosti naprogramují počítač, aby udělal právě tuto věc. Krok za krokem se postupně zdokonalují a rozšiřují systémy řízení AI. Stávající omezení dnes již nemusí existovat v budoucí iteraci nebo verzi systému.

Věřím, že to poskytne dostatečnou litanii námitek, které jsou základem toho, o čem se chystám vyprávět.

Nyní jsme připraveni se hluboce ponořit do samořídících vozů a možností etické umělé inteligence, což znamená prozkoumání předsudků prostoupených umělou inteligencí, které jsou propagovány ve velkém měřítku.

Použijme jednoduchý příklad. V ulicích vašeho sousedství jezdí auto s umělou inteligencí a zdá se, že jezdí bezpečně. Zpočátku jste věnoval zvláštní pozornost pokaždé, když se vám podařilo zahlédnout samořídící auto. Autonomní vozidlo vyniklo regálem elektronických senzorů, které zahrnovaly videokamery, radarové jednotky, zařízení LIDAR a podobně. Po mnoha týdnech samořídícího auta křižujícího kolem vaší komunity si toho nyní sotva všimnete. Pokud jde o vás, je to jen další auto na již tak frekventovaných veřejných komunikacích.

Abyste si nemysleli, že je nemožné nebo nepravděpodobné seznámit se se samořiditelnými auty, často jsem psal o tom, jak si místa, která jsou v rámci zkoušek samořiditelných aut, postupně zvykla na vyšperkovaná vozidla, viz moji analýzu na odkaz zde. Mnozí z místních nakonec přešli z uchváceného civění s otevřenými ústy k tomu, že nyní vydávali expanzivní zívání nudy, aby byli svědky těch klikatých samořídících aut.

Pravděpodobně hlavním důvodem, proč by si právě teď mohli všimnout autonomních vozidel, je faktor podráždění a podráždění. Řídicí systémy AI podle knihy zajišťují, že auta dodržují všechny rychlostní limity a pravidla silničního provozu. U hektických lidských řidičů v jejich tradičních lidsky řízených autech budete občas naštvaní, když uvíznete za přísně zákony dodržujícími samořídícími auty založenými na umělé inteligenci.

To je něco, na co si možná budeme muset všichni zvyknout, ať už oprávněně nebo neprávem.

Zpět k našemu příběhu.

Ukazuje se, že se začnou objevovat dvě nepatřičné obavy ohledně jinak neškodných a obecně vítaných samořídících aut založených na umělé inteligenci, konkrétně:

A. Tam, kde se potuluje umělá inteligence, se rýsovala samořídící auta, aby se svezli.

b. Jak AI zachází s čekajícími chodci, kteří nemají přednost v jízdě, se stávalo naléhavým problémem

Zpočátku AI řádila v samořízených autech po celém městě. Každý, kdo chtěl požádat o svezení v samořídícím autě, měl v podstatě stejnou šanci, že ho zavolá. Umělá inteligence postupně začala primárně udržovat samořídící auta v pohybu pouze v jedné části města. Tato sekce byla větším zdrojem peněz a systém umělé inteligence byl naprogramován tak, aby se pokusil maximalizovat výnosy jako součást využití v komunitě.

Členové komunity v chudých částech města měli menší pravděpodobnost, že se budou moci svézt samořídícím autem. Bylo to proto, že samořídící auta byla dále a pohybovala se v části s vyššími příjmy v lokalitě. Když přišla žádost ze vzdálené části města, měla by vyšší prioritu každá žádost z bližšího místa, která byla pravděpodobně ve „vážené“ části města. Nakonec bylo téměř nemožné získat auto s vlastním pohonem na jakémkoli jiném místě než v bohatší části města, což bylo k popukání pro ty, kdo žili v oblastech, kde nyní chybí zdroje.

Dalo by se tvrdit, že AI do značné míry přistála na formě zástupné diskriminace (také často označované jako nepřímá diskriminace). Umělá inteligence nebyla naprogramována tak, aby se vyhýbala těm chudším čtvrtím. Místo toho se to „naučilo“ pomocí ML/DL.

Jde o to, že lidští řidiči spolujízdy byli známí tím, že dělali totéž, i když ne nutně výhradně kvůli úhlu vydělávání peněz. Byli tu někteří lidští řidiči, kteří sdíleli jízdu, kteří měli nepříjemnou zaujatost sbírat jezdce v určitých částech města. To byl poněkud známý jev a město zavedlo monitorovací přístup, aby přistihlo lidské řidiče, kteří to dělají. Lidští řidiči by se mohli dostat do problémů kvůli provádění nechutných výběrových praktik.

Předpokládalo se, že AI nikdy nespadne do stejného druhu pohyblivého písku. Nebylo nastaveno žádné specializované monitorování, které by sledovalo, kam jela samořídící auta založená na umělé inteligenci. Teprve poté, co si členové komunity začali stěžovat, si představitelé města uvědomili, co se děje. Další informace o těchto typech celoměstských problémů, které budou představovat autonomní vozidla a samořídící auta, najdete v mém pokrytí na odkaz zde a který popisuje studii vedenou Harvardem, na které jsem se na toto téma podílel.

Tento příklad roamingových aspektů samořídících aut na bázi umělé inteligence ilustruje dřívější náznak toho, že mohou nastat situace, kdy lidé mohou mít nežádoucí zaujatosti, pro které jsou zavedeny kontroly, a že umělá inteligence nahrazující tyto lidské řidiče je ponechána na pozoru. volný, uvolnit. Umělá inteligence se pak bohužel může postupně utápět v podobných předsudcích a dělat to bez dostatečných zábradlí.

To také ukazuje na zaujatost AI v měřítku.

V případě lidských řidičů jsme mohli mít několik tu či tam, kteří uplatňovali nějakou formu nespravedlnosti. U systému řízení AI je to obvykle jedna taková unifikovaná AI pro celou flotilu samořídících vozů. Mohli jsme tedy začít s řekněme padesáti samořiditelnými auty ve městě (všechny provozovány stejným kódem AI) a postupně narůstat na řekněme 500 samořídících aut (všechny provozovány stejným kódem AI). Vzhledem k tomu, že všech těchto pět set samořídících aut provozuje stejná umělá inteligence, všechna podléhají stejným odvozeným zaujatostem a nespravedlnostem, které jsou součástí umělé inteligence.

Škálování nás v tomto ohledu bolí.

Druhý příklad zahrnuje AI určení, zda zastavit pro čekající chodce, kteří nemají právo přednosti přejít ulici.

Nepochybně jste jeli autem a setkali jste se s chodci, kteří čekali, až přejdou ulici, a přesto k tomu neměli přednost. To znamenalo, že jste měli možnost rozhodnout, zda zastavit a nechat je přejít. Mohli byste pokračovat, aniž byste je nechali překročit, a přesto se plně drželi zákonných pravidel řízení.

Studie o tom, jak se lidští řidiči rozhodují, zda zastavit nebo nezastavit pro takové chodce, naznačují, že někdy se lidští řidiči rozhodují na základě nežádoucích předsudků. Lidský řidič se může podívat na chodce a rozhodnout se nezastavit, i když by zastavil, kdyby měl chodec jiný vzhled, například na základě rasy nebo pohlaví. Zkoumal jsem to na odkaz zde.

Představte si, že samořídící auta založená na AI jsou naprogramována tak, aby se vypořádala s otázkou, zda zastavit nebo nezastavit pro chodce, kteří nemají přednost. Zde je návod, jak se vývojáři AI rozhodli naprogramovat tento úkol. Sbírali data z městských videokamer, které jsou rozmístěny po celém městě. Data ukazují lidské řidiče, kteří zastaví pro chodce, kteří nemají přednost, a lidské řidiče, kteří nezastaví. To vše je shromážděno do velkého souboru dat.

Pomocí strojového učení a hlubokého učení jsou data modelována výpočtově. Řídicí systém AI pak pomocí tohoto modelu rozhoduje, kdy zastavit nebo nezastavit. Obecně platí, že ať už se místní zvyk skládá z čehokoli, umělá inteligence řídí samořídící auto.

K překvapení vedení města a obyvatel se AI evidentně rozhodla zastavit nebo nezastavit na základě vzhledu chodce, včetně jeho rasy a pohlaví. Senzory samořídícího auta by naskenovaly čekajícího chodce, vložily tato data do modelu ML/DL a model by AI oznámil, zda má zastavit nebo pokračovat. Je smutné, že město již mělo v tomto ohledu mnoho lidských řidičských předsudků a AI nyní napodobovala totéž.

Tento příklad ilustruje, že systém umělé inteligence by mohl pouze duplikovat již dříve existující nežádoucí předsudky lidí. Navíc tak činí v měřítku. Kterýkoli lidský řidič mohl být někdy naučen dělat tuto neobvyklou formu výběru nebo možná osobně vybrán k tomu, ale je pravděpodobné, že většina lidských řidičů to pravděpodobně nedělá masově.

Naproti tomu systém řízení AI, který se používá k řízení samořídících vozů, pravděpodobně bude ohavně konzistentně a jistě provádět odvozené zkreslení.

Proč investovat do čističky vzduchu?

Existuje mnoho způsobů, jak se pokusit a vyhnout se vymýšlení umělé inteligence, která má nepříznivé zaujatosti nebo která časem zaujatosti sbírá. Pokud je to možné, myšlenkou je zachytit problémy dříve, než zařadíte vysoký rychlostní stupeň a začnete škálovat. Doufejme, že předsudky se takříkajíc nedostanou ze dveří.

Předpokládejme však, že v AI vznikne tak či onak zkreslení. Jakmile budete s umělou inteligencí nasazeni v masovém měřítku, nemůžete jen udělat jeden z těch často proklamovaných technických nápadů „vypal a zapomeň“. Musíte pilně držet krok s tím, co AI dělá, a snažit se odhalit jakékoli nežádoucí předsudky, které je třeba napravit.

Jak již bylo zmíněno dříve, jeden přístup zahrnuje zajištění toho, aby si vývojáři umělé inteligence byli vědomi etiky umělé inteligence, a podnítili je tak, aby byli ve střehu a naprogramovali umělou inteligenci, aby těmto záležitostem zabránila. Další cesta spočívá v tom, že vlastní umělá inteligence monitoruje neetické chování a/nebo má další část umělé inteligence, která monitoruje jiné systémy umělé inteligence kvůli potenciálně neetickému chování. Ve svých spisech jsem pokryl řadu dalších možných řešení.

Zatím poslední úvaha. Poté, co jsme tuto diskusi zahájili Platónovým citátem, bylo by možná vhodné uzavřít diskurz dalším mazaným Platónovým výrokem.

Platón prohlásil, že není na škodu opakovat dobrou věc.

Snadné použití umělé inteligence je jistě životaschopným prostředkem k dosažení takové pozitivní aspirace, když je umělá inteligence nejlepší. AI pro dobro odrůda. Baví nás opakovat dobrou věc. Když je AI AI pro špatné a plni nežádoucích předsudků a nespravedlností bychom se mohli opřít o Platónovy poznámky a říci, že opakování špatné věci je hodně škodlivé.

Poslouchejme pozorně Platónova moudrá slova a podle toho vymýšlejme naši AI.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- globální-měřítko-zejména-poháněno-prostřednictvím rýsujících se-plně-autonomních-systémů/