Etika umělé inteligence Šokující odhalení, že trénování umělé inteligence, aby byla toxická nebo neobjektivní, může být přínosné, včetně těch, které se týkají autonomních aut s vlastním řízením

Zde je stará věta, kterou jste už určitě slyšeli.

Člověk potřebuje jednoho poznat.

Možná si neuvědomujete, že toto je výraz, který lze vysledovat do počátku 1900. století a byl obvykle používán, když se hovořilo o provinilcích (jiné varianty fráze sahají dále, například do 1600. století). Příklad toho, jak lze tento výrok použít, zahrnuje představu, že pokud chcete chytit zloděje, musíte k tomu použít zloděje. To ukazuje tvrzení, že je potřeba, aby člověk jednoho poznal. Mnoho filmů a televizních pořadů využilo této praktické moudrosti mudrců, často vykreslujících, že jediným schůdným prostředkem k dopadení podvodníka je najmout stejně zkorumpovaného podvodníka, aby pronásledoval pachatele.

Při řazení rychlostních stupňů by někteří mohli využít stejnou logiku k argumentu, že vhodným způsobem, jak rozpoznat, zda někdo ztělesňuje nepřiměřené předsudky a diskriminační přesvědčení, by bylo najít někoho, kdo již takové tendence má. Člověk, který je již zaujatý, bude pravděpodobně schopen snadněji vycítit, že tento druhý člověk je rovněž až po okraj naplněn toxicitou. Opět je potřeba, aby člověk věděl, že je to ona známá mantra.

Vaše prvotní reakce na možnost použití předpojaté osoby k vydírání jiné zaujaté osoby může být skeptická a nedůvěřivá. Nemůžeme zjistit, zda někdo zaujímá nepříznivé zaujatosti tím, že je pouze prozkoumáme a nebudeme se muset uchýlit k hledání někoho jiného podobného charakteru? Zdálo by se divné záměrně odhalit někoho, kdo je zaujatý, s cílem odhalit ostatní, kteří jsou také toxicky zaujatí.

Myslím, že to částečně závisí na tom, zda jste ochoten přijmout domnělý refrén, že je potřeba, abyste ho poznali. Všimněte si, že to neznamená, že jediný způsob, jak chytit zloděje, vyžaduje, abyste zloděje výhradně a vždy využívali. Dalo by se rozumně namítnout, že jde pouze o přidanou cestu, které lze věnovat náležitou pozornost. Možná jste někdy ochotni využít možnosti využít zloděje k dopadení zloděje, zatímco jiné okolnosti z toho mohou udělat nevyzpytatelnou taktiku.

Pro správné nastavení použijte správný nástroj, jak se říká.

Nyní, když jsem uvedl tyto základy, můžeme přistoupit k možná znervózňující a zdánlivě šokující části tohoto příběhu.

Jste připraveni?

Oblast umělé inteligence aktivně prosazuje stejné pravidlo, které někdy vyžaduje, abyste je poznali, a to zejména v případě snahy odhalit umělou inteligenci, která je zaujatá nebo jednající diskriminačním způsobem. Ano, mylná myšlenka je, že bychom mohli záměrně chtít vymyslet AI, která je plně a nestoudně zaujatá a diskriminační, abychom ji použili jako prostředek k objevení a odhalení jiné AI, která má stejné zdání toxicity. Jak za chvíli uvidíte, v pozadí této záležitosti je celá řada nepříjemných problémů etiky umělé inteligence. Pro mé celkové průběžné a rozsáhlé pokrytí etiky AI a etické AI viz odkaz zde a odkaz zde, Abychom jmenovali jen několik.

Myslím, že byste mohli toto použití toxické umělé inteligence vyjádřit jako příslovečnou koncepci boje proti ohni s ohněm (můžeme použít spoustu eufemismů a názorných metafor, abychom tuto situaci vykreslili). Nebo, jak již bylo zdůrazněno, můžeme skromně odkázat na tvrzení, že člověk potřebuje, aby ho poznal.

Zastřešující koncept spočívá v tom, že spíše než se pouze snažit zjistit, zda daný systém umělé inteligence obsahuje nepřiměřené zkreslení pomocí konvenčních metod, možná bychom se měli snažit použít i méně konvenční prostředky. Jedním takovým nekonvenčním prostředkem by bylo vymyslet AI, která obsahuje všechny ty nejhorší předsudky a společensky nepřijatelné toxicity, a pak tuto AI použít k tomu, aby pomohla vyřadit jinou AI, která má stejné sklony ke špatnosti.

Když se nad tím rychle zamyslíte, určitě se to zdá být naprosto rozumné. Mohli bychom se zaměřit na vybudování umělé inteligence, která je maximálně toxická. Tato toxická umělá inteligence se pak používá k odhalení jiné umělé inteligence, která je také toxická. U tehdy odhalené „špatné“ umělé inteligence se s ní můžeme vypořádat tak, že buď zrušíme toxicitu, AI úplně zahodíme (viz moje pokrytí degorgementem nebo destrukcí AI na odkaz zde), nebo uvěznění AI (viz moje zpravodajství o uvěznění AI na odkaz zde), nebo udělejte cokoliv jiného, ​​co se vám zdá vhodné.

Protiargumentem je, že bychom si měli nechat prozkoumat hlavu, že záměrně a dobrovolně vymýšlíme AI, která je toxická a plná předsudků. To je poslední věc, kterou bychom měli kdy zvažovat, někteří by nabádali. Zaměřte se na to, aby umělá inteligence sestávala výhradně z dobra. Nesoustřeďte se na vymýšlení umělé inteligence, která má špatnost a slabiny nepatřičných předsudků. Už jen samotná představa takového pronásledování se někomu zdá odpudivá.

Ohledně tohoto kontroverzního pátrání je více pochybností.

Možná, že mise vymýšlení toxické umělé inteligence pouze povzbudí ty, kteří chtějí vytvořit umělou inteligenci, která je schopna podkopat společnost. Je to, jako bychom říkali, že vytváření umělé inteligence, která má nevhodné a nechutné předsudky, je naprosto v pořádku. Žádné obavy, žádné váhání. Snažte se vymýšlet toxickou AI podle svých představ, hlasitě oznamujeme tvůrcům AI po celém světě. Je to (mrknutí-mrknutí) vše ve jménu dobra.

Kromě toho předpokládejme, že se tento druh toxické umělé inteligence zachytí. Je možné, že AI používá a znovu používá spousta dalších tvůrců AI. Nakonec se toxická AI skryje ve všech možných systémech AI. Dalo by se přirovnat k vymýšlení viru, který podkopává člověka, který unikne z pravděpodobně uzavřené laboratoře. Další věc, kterou víš, ta zatracená věc je všude a my jsme se vymazali.

Počkej chvíli, protiargumenty zazní, šílíš ze všech druhů šílených a nepodložených domněnek. Zhluboka se nadechnout. Uklidni se.

Můžeme bezpečně vyrobit AI, která je toxická, a udržet ji omezenou. Můžeme použít toxickou AI k nalezení a pomoci při snižování rostoucí prevalence AI, která má bohužel nepřiměřené zaujatosti. Jakékoli další z těchto nesmyslně divokých a nepodložených výkřiků jako sněhové koule jsou čistě trhavé reakce a bohužel pošetilé a vyloženě pošetilé. Nesnažte se vylít s vodou i dítě, jste varováni.

Přemýšlejte o tom takto, tvrdí zastánci. Správné vytváření a používání toxické umělé inteligence pro účely výzkumu, hodnocení a detektivního odhalování jiné společensky urážlivé umělé inteligence je důstojný přístup a měl by se při jeho pronásledování pořádně otřást. Nechte stranou své vyrážky. Pojď na zem a podívej se na to střízlivě. Náš zrak se zaměřuje na cenu, konkrétně na odhalení a odstranění přebytku neobjektivních systémů umělé inteligence a zajištění toho, abychom jako společnost nebyli zaplaveni toxickou umělou inteligencí.

Doba. Tečka.

Existují různé základní způsoby, jak se ponořit do této představy o využití toxické nebo neobjektivní umělé inteligence pro prospěšné účely, včetně:

  • Nastavení datových sad, které záměrně obsahují neobjektivní a zcela toxická data, která lze použít pro trénování umělé inteligence ohledně toho, co nedělat a/nebo na co si dát pozor
  • Použijte takové datové sady k trénování modelů strojového učení (ML) a hlubokého učení (DL) o zjišťování zkreslení a zjišťování výpočtových vzorců, které mají za následek společenskou toxicitu.
  • Aplikujte natrénovanou toxicitu ML/DL na jinou AI, abyste zjistili, zda je cílová AI potenciálně zaujatá a toxická
  • Zpřístupněte ML/DL vyškolené v toxicitě, abyste předvedli tvůrcům umělé inteligence, na co si dát pozor, aby mohli pohotově zkontrolovat modely a zjistit, jak vznikají předsudky ovlivněné algoritmy
  • Ukažte nebezpečí toxické umělé inteligence jako součást etiky umělé inteligence a etické povědomí o umělé inteligenci – vše řečeno prostřednictvím této série příkladů AI pro problém-dítě až do morku kostí.
  • Ostatní

Než se pustíme do podstaty těchto několika cest, pojďme si stanovit některé další základní údaje.

Možná si matně uvědomujete, že jeden z nejhlasitějších hlasů dnešní doby v oblasti umělé inteligence a dokonce i mimo oblast umělé inteligence spočívá v dožadování se většího zdání etické umělé inteligence. Pojďme se podívat na to, co znamená odkazovat se na etiku AI a etické AI. Kromě toho můžeme připravit půdu tím, že prozkoumáme, co mám na mysli, když mluvím o strojovém učení a hlubokém učení.

Jeden konkrétní segment nebo část etiky umělé inteligence, kterému se dostává velké pozornosti médií, se skládá z umělé inteligence, která vykazuje nepatřičné předsudky a nespravedlnosti. Možná si uvědomujete, že když začala nejnovější éra umělé inteligence, došlo k obrovskému výbuchu nadšení z toho, co někteří dnes nazývají AI pro dobro. Bohužel v patách toho tryskajícího vzrušení jsme začali být svědky AI pro špatné. Například bylo odhaleno, že různé systémy rozpoznávání obličeje založené na umělé inteligenci obsahují rasové a genderové předsudky, o kterých jsem mluvil na odkaz zde.

Snahy bránit se AI pro špatné aktivně probíhají. Kromě hlučného právní ve snaze omezit provinění na uzdě existuje také podstatný tlak na přijetí etiky umělé inteligence, aby se napravila odpornost umělé inteligence. Myšlenka je taková, že bychom měli přijmout a schválit klíčové etické principy umělé inteligence pro rozvoj a nasazení umělé inteligence, abychom podkopali AI pro špatné a současně ohlašovat a propagovat preferované AI pro dobro.

Pokud jde o související představu, jsem zastáncem pokusu o použití umělé inteligence jako součásti řešení problémů s umělou inteligencí a bojování ohně ohněm tímto způsobem myšlení. Mohli bychom například začlenit komponenty Etické umělé inteligence do systému umělé inteligence, který bude monitorovat, jak zbytek umělé inteligence dělá věci, a tak potenciálně v reálném čase zachytit jakékoli diskriminační snahy, viz moje diskuze na odkaz zde. Mohli bychom mít také samostatný systém AI, který funguje jako typ monitoru etiky AI. Systém umělé inteligence slouží jako dozorce, který sleduje a zjišťuje, kdy se jiná umělá inteligence dostává do neetické propasti (viz moje analýza takových schopností na odkaz zde).

Za chvíli se s vámi podělím o některé zastřešující principy, které jsou základem etiky umělé inteligence. Takových seznamů se tu a tam pohybuje spousta. Dalo by se říci, že zatím neexistuje jediný seznam univerzální přitažlivosti a souběžnosti. To je ta nešťastná zpráva. Dobrou zprávou je, že alespoň existují snadno dostupné seznamy etiky AI a bývají velmi podobné. Celkově to naznačuje, že formou odůvodněné konvergence svého druhu nacházíme cestu k obecné shodě toho, z čeho se skládá etika umělé inteligence.

Nejprve si stručně proberme některé z celkových etických zásad umělé inteligence, abychom ilustrovali, co by mělo být životně důležitým faktorem pro každého, kdo umělou inteligenci tvoří, využívá nebo používá.

Například, jak uvádí Vatikán v Řím vyzývá k etice umělé inteligence a jak jsem se podrobně věnoval odkaz zdeToto je jejich identifikovaných šest primárních etických principů AI:

  • Transparentnost: V zásadě musí být systémy umělé inteligence vysvětlitelné
  • zařazení: Potřeby všech lidských bytostí musí být brány v úvahu, aby každý mohl mít prospěch a všem jednotlivcům mohly být nabídnuty nejlepší možné podmínky k vyjádření a rozvoji.
  • Odpovědnost: Ti, kdo navrhují a nasazují použití AI, musí postupovat zodpovědně a transparentně
  • Nestrannost: Nevytvářejte ani nejednajte podle zaujatosti, a tím si zajistěte spravedlnost a lidskou důstojnost
  • Spolehlivost: Systémy umělé inteligence musí být schopny spolehlivě fungovat
  • Zabezpečení a soukromí: Systémy umělé inteligence musí fungovat bezpečně a respektovat soukromí uživatelů.

Jak uvedlo americké ministerstvo obrany (DoD) ve svém Etické zásady pro používání umělé inteligence a jak jsem se podrobně věnoval odkaz zde, toto je jejich šest primárních etických principů AI:

  • Odpovědný: Personál ministerstva obrany bude uplatňovat přiměřenou úroveň úsudku a péče, přičemž zůstane odpovědný za vývoj, nasazení a používání schopností AI.
  • Spravedlivý: Ministerstvo podnikne promyšlené kroky k minimalizaci nezamýšleného zkreslení schopností AI.
  • sledovatelné: Schopnosti AI ministerstva budou vyvinuty a rozmístěny tak, aby příslušní pracovníci měli odpovídající znalosti o technologii, vývojových procesech a provozních metodách použitelných pro schopnosti AI, včetně transparentních a auditovatelných metodologií, zdrojů dat a návrhových postupů a dokumentace.
  • Spolehlivý: Schopnosti umělé inteligence ministerstva budou mít explicitní, dobře definovaná použití a bezpečnost, zabezpečení a účinnost těchto schopností bude předmětem testování a zajištění v rámci těchto definovaných použití během celého životního cyklu.
  • ovladatelný: Ministerstvo navrhne a zkonstruuje schopnosti umělé inteligence tak, aby plnily zamýšlené funkce, přičemž bude mít schopnost detekovat a vyhnout se nezamýšleným následkům a schopnost odpojit nebo deaktivovat nasazené systémy, které vykazují nezamýšlené chování.

Diskutoval jsem také o různých kolektivních analýzách etických principů umělé inteligence, včetně toho, že jsem se zabýval souborem navrženým výzkumníky, kteří zkoumali a zhušťovali podstatu mnoha národních a mezinárodních zásad etiky umělé inteligence v dokumentu nazvaném „The Global Landscape Of AI Ethics Guidelines“ (publikováno v Příroda), a které mé pokrytí zkoumá na odkaz zde, což vedlo k tomuto klíčovému seznamu:

  • Průhlednost
  • Spravedlnost a férovost
  • Neškodlivost
  • Odpovědnost
  • Ochrana osobních údajů
  • Dobročinnost
  • Svoboda a autonomie
  • Věřte
  • udržitelnost
  • Důstojnost
  • Solidarita

Jak můžete přímo hádat, pokusit se určit specifika, která jsou základem těchto principů, může být extrémně obtížné. Snaha přeměnit tyto široké principy v něco zcela hmatatelného a dostatečně podrobného, ​​aby to bylo možné použít při vytváření systémů umělé inteligence, je navíc tvrdým oříškem. Celkově je snadné mávnout rukou nad tím, co jsou etická pravidla AI a jak by se měly obecně dodržovat, zatímco v kódování AI je mnohem složitější situace, kdy musí být opravdová guma, která splňuje silnici.

Principy AI etiky mají využívat vývojáři AI spolu s těmi, kteří řídí úsilí o vývoj AI, a dokonce i ti, kteří nakonec nasazují a provádějí údržbu systémů AI. Všechny zúčastněné strany během celého životního cyklu vývoje a používání AI jsou posuzovány v rámci dodržování zavedených norem etické AI. To je důležité upozornit, protože obvyklý předpoklad je, že „pouze kodéři“ nebo ti, kteří programují AI, podléhají dodržování etických pojmů AI. Jak již bylo řečeno, k vymýšlení a nasazení AI je zapotřebí vesnice a celá vesnice musí být zběhlá a dodržovat etická pravidla AI.

Pojďme se také ujistit, že jsme na stejné stránce ohledně povahy dnešní umělé inteligence.

Dnes neexistuje žádná AI, která by byla vnímavá. Tohle my nemáme. Nevíme, zda bude vnímající AI možná. Nikdo nemůže výstižně předpovědět, zda dosáhneme vnímající AI, ani zda se vnímající AI nějakým zázrakem spontánně objeví ve formě výpočetní kognitivní supernovy (obvykle označované jako singularita, viz moje pokrytí na odkaz zde).

Typ AI, na který se zaměřuji, se skládá z necítivé AI, kterou máme dnes. Pokud bychom chtěli divoce spekulovat o cítící AI, tato diskuse by se mohla ubírat radikálně jiným směrem. Vnímavá AI by měla mít lidské kvality. Měli byste vzít v úvahu, že vnímající AI je kognitivní ekvivalent člověka. Navíc, protože někteří spekulují, že bychom mohli mít superinteligentní AI, je možné, že taková AI by mohla být chytřejší než lidé (pro můj průzkum superinteligentní AI jako možnosti viz. pokrytí zde).

Nechme věci více při zemi a uvažujme o dnešní výpočetní necítivé umělé inteligenci.

Uvědomte si, že dnešní umělá inteligence není schopna „myslet“ žádným způsobem na stejné úrovni jako lidské myšlení. Když komunikujete s Alexou nebo Siri, konverzační schopnosti se mohou zdát podobné lidským schopnostem, ale skutečnost je taková, že jsou výpočetní a postrádají lidské poznání. Nejnovější éra umělé inteligence široce využívá strojové učení (ML) a hluboké učení (DL), které využívají porovnávání výpočetních vzorů. To vedlo k systémům umělé inteligence, které vypadají jako lidské sklony. Mezitím dnes neexistuje žádná umělá inteligence, která by měla zdání zdravého rozumu, ani žádný z kognitivních zázraků robustního lidského myšlení.

ML/DL je forma porovnávání výpočetních vzorů. Obvyklý přístup je takový, že shromažďujete data o úloze rozhodování. Data vkládáte do počítačových modelů ML/DL. Tyto modely se snaží najít matematické vzorce. Po nalezení takových vzorů, pokud jsou nalezeny, systém umělé inteligence tyto vzory použije, když narazí na nová data. Po předložení nových dat se pro vykreslení aktuálního rozhodnutí použijí vzory založené na „starých“ nebo historických datech.

Myslím, že můžete hádat, kam to směřuje. Pokud lidé, kteří se rozhodovali podle vzoru, začlenili nežádoucí předsudky, je pravděpodobné, že data to odrážejí jemnými, ale významnými způsoby. Počítačové porovnávání vzorů Machine Learning nebo Deep Learning se jednoduše pokusí odpovídajícím způsobem matematicky napodobit data. Neexistuje žádné zdání zdravého rozumu nebo jiných vnímavých aspektů modelování vytvořeného umělou inteligencí jako takového.

Kromě toho si vývojáři AI nemusí uvědomit, co se děje. Tajemná matematika v ML/DL může ztížit odhalení nyní skrytých předsudků. Oprávněně byste doufali a očekávali, že vývojáři umělé inteligence budou testovat potenciálně pohřbené předsudky, i když je to složitější, než by se mohlo zdát. Existuje solidní šance, že i přes poměrně rozsáhlé testování, že v modelech porovnávání vzorů ML/DL budou stále zakomponovány zkreslení.

Dalo by se tak trochu použít slavné nebo nechvalně známé pořekadlo o smetí-do odpadu-ven. Jde o to, že je to spíše podobné předsudkům – in, které se zákeřně prolínají, když se předsudky ponoří do AI. Algoritmus rozhodování (ADM) umělé inteligence je axiomaticky zatížen nerovnostmi.

Špatný.

Co jiného se s tím vším dá dělat?

Vraťme se k dříve uvedenému seznamu toho, jak se pokusit vypořádat s předsudky AI nebo toxickou AI pomocí poněkud nekonvenčního přístupu „je potřeba, aby člověk poznal jedno“. Připomeňme, že seznam sestával z těchto základních bodů:

  • Nastavení datových sad, které záměrně obsahují neobjektivní a zcela toxická data, která lze použít pro trénování umělé inteligence ohledně toho, co nedělat a/nebo na co si dát pozor
  • Použijte takové datové sady k trénování modelů strojového učení (ML) a hlubokého učení (DL) o zjišťování zkreslení a zjišťování výpočtových vzorců, které mají za následek společenskou toxicitu.
  • Aplikujte natrénovanou toxicitu ML/DL na jinou AI, abyste zjistili, zda je cílová AI potenciálně zaujatá a toxická
  • Zpřístupněte ML/DL vyškolené v toxicitě, abyste předvedli tvůrcům umělé inteligence, na co si dát pozor, aby mohli pohotově zkontrolovat modely a zjistit, jak vznikají předsudky ovlivněné algoritmy
  • Ukažte nebezpečí toxické umělé inteligence jako součást etiky umělé inteligence a etické povědomí o umělé inteligenci – vše vyprávěné prostřednictvím této série příkladů umělé inteligence pro problémové děti.
  • Ostatní

Podívejme se zblízka na první z těchto význačných bodů.

Nastavení datových sad toxických dat

Pozoruhodným příkladem pokusu o vytvoření datových sad, které obsahují nechutné společenské předsudky, je datová sada CivilComments ze sbírky WILDS.

Nejprve nějaké rychlé pozadí.

WILDS je open-source kolekce datových sad, které lze použít pro trénování ML/DL. Primárním účelem WILDS je to, že umožňuje vývojářům AI mít snadný přístup k datům, která představují distribuční směny v různých specifických doménách. Některé z aktuálně dostupných domén zahrnují oblasti, jako jsou živočišné druhy, nádory v živých tkáních, hustota hlávek pšenice a další oblasti, jako jsou CivilComments, které za chvíli popíšu.

Vypořádání se s distribučními směnami je klíčovou součástí správného vytváření systémů umělé inteligence ML/DL. Tady je dohoda. Někdy se data, která používáte pro trénování, ukáží být zcela odlišná od testovacích dat nebo dat „v divočině“, a proto je váš pravděpodobně trénovaný ML/DL unášen tím, jaký bude skutečný svět. Vychytralí tvůrci umělé inteligence by měli trénovat své ML/DL, aby se vyrovnali s takovými distribučními posuny. To by mělo být provedeno předem a nemělo by být překvapením, že později bude vyžadovat přepracování ML/DL jako takového.

Jak je vysvětleno v dokumentu, který představil WILDS: „Distribuční posuny – kde se distribuce školení liší od rozložení testů – mohou podstatně snížit přesnost systémů strojového učení (ML) nasazených ve volné přírodě. Navzdory jejich všudypřítomnosti v nasazení v reálném světě jsou tyto distribuční posuny nedostatečně zastoupeny v souborech dat široce používaných v dnešní komunitě ML. Abychom tuto mezeru vyřešili, představujeme WILDS, kurátorský benchmark 10 souborů dat odrážejících rozmanitou škálu distribučních posunů, které přirozeně vznikají v aplikacích v reálném světě, jako jsou posuny napříč nemocnicemi pro identifikaci nádorů; napříč fotopasti pro sledování divoké zvěře; a napříč časem a místem v satelitním zobrazování a mapování chudoby“ (v článku nazvaném „WILDS: A Benchmark of in-the-Wild Distribution Shifts“ od Pang Wei Koh, Shiori Sagawa, Henrik Marklund, Sang Xie, Marvin Zhang, Ashay Balsubramani , Weihua Hu a další).

Počet takových datových sad WILDS stále roste a povaha datových sad je obecně vylepšována, aby se zvýšila hodnota použití dat pro trénování ML/DL.

Datový soubor CivilComments je popsán takto: „Automatická kontrola textu vytvořeného uživatelem – např. zjišťování toxických komentářů – je důležitým nástrojem pro zmírnění velkého objemu textu napsaného na internetu. Bohužel předchozí práce ukázala, že takové klasifikátory toxicity zachycují zkreslení v tréninkových datech a falešně spojují toxicitu se zmínkou o určitých demografických údajích. Tyto typy falešných korelací mohou významně zhoršit výkon modelu na konkrétních subpopulacích. Tento problém studujeme prostřednictvím upravené varianty datového souboru CivilComments“ (jak je zveřejněno na webu WILDS).

Zvažte nuance nevhodných online příspěvků.

Nepochybně jste se setkali s toxickými komentáři při používání téměř jakéhokoli druhu sociálních médií. Zdálo by se téměř nemožné, abyste se magicky vyhnuli pohledu na štiplavý a propastný obsah, který se zdá být v těchto dnech všudypřítomný. Někdy je vulgární materiál jemný a možná budete muset číst mezi řádky, abyste pochopili podstatu zaujatého nebo diskriminačního tónu nebo významu. V jiných případech jsou slova očividně toxická a nepotřebujete mikroskop ani speciální dekodérový kroužek, abyste zjistili, co pasáže obnášejí.

CivilComments je datová sada, která byla sestavena, aby se pokusila navrhnout AI ML/DL, která dokáže výpočtově detekovat toxický obsah. Zde je to, na co se výzkumníci, na kterých se toto úsilí zaměřilo, zaměřili: „Nezamýšlené zkreslení ve strojovém učení se může projevit jako systémové rozdíly ve výkonu pro různé demografické skupiny, což může potenciálně zkombinovat stávající problémy se spravedlností ve společnosti jako celku. V tomto článku představujeme sadu prahově agnostických metrik, které poskytují nuancovaný pohled na toto nezamýšlené zkreslení tím, že zvážíme různé způsoby, jak se může rozložení skóre klasifikátoru lišit mezi určenými skupinami. Představujeme také velkou novou testovací sadu online komentářů s crowdsourcovanými anotacemi pro odkazy na identitu. Používáme to k tomu, abychom ukázali, jak lze naše metriky použít k nalezení nových a potenciálně jemných nezamýšlených zkreslení ve stávajících veřejných modelech“ (v článku nazvaném „Nuanced Metrics For Measuring Unintended Bias With Real Data for Test Classification“ od Daniela Borkana, Lucase Dixona, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Pokud této záležitosti věnujete široké kontemplativní uvažování, možná se začnete divit, jak proboha můžete rozeznat, co je toxický komentář od toho, co toxický komentář není. Lidé se mohou radikálně lišit v tom, co vykládají jako vysloveně toxické výrazy. Jedna osoba může být pobouřena konkrétní online poznámkou nebo komentářem zveřejněným na sociálních sítích, zatímco někoho jiného to vůbec nevzruší. Často se objevuje argument, že pojem toxický komentář je zcela vágní předpis. Je to jako umění, o umění se obvykle říká, že je chápáno pouze v oku pozorovatele, a podobně jsou zaujaté nebo toxické poznámky také pouze v oku pozorovatele.

Balderdashi, nějaká odpověď. Kdokoli s rozumnou myslí dokáže posoudit, zda je poznámka na internetu toxická nebo ne. Nemusíte být raketovým vědcem, abyste si uvědomili, kdy je nějaká zveřejněná žíravá urážka plná předsudků a nenávisti.

Společenské zvyklosti se samozřejmě v průběhu času mění a mění. To, co ještě před chvílí nebylo vnímáno jako urážlivé, lze dnes považovat za ohavně špatné. Navíc věci řečené před lety, které byly kdysi považovány za nepřiměřeně zaujaté, mohou být reinterpretovány ve světle změn ve významech. Mezitím jiní tvrdí, že toxický komentář je vždy toxický, bez ohledu na to, kdy byl původně vyhlášen. Dalo by se tvrdit, že toxicita není relativní, ale je absolutní.

Záležitost pokusit se zjistit, co je toxické, však může být docela obtížným rébusem. Tuto problematickou záležitost můžeme zdvojnásobit, pokud jde o pokus vymyslet algoritmy nebo AI, které dokážou zjistit, která je která. Pokud mají lidé potíže s prováděním takových hodnocení, programování počítače je pravděpodobně stejně nebo více problematické, říkají někteří.

Jeden přístup k nastavení datových sad, které obsahují toxický obsah, zahrnuje použití metody crowdsourcingu k hodnocení nebo posouzení obsahu, tedy poskytnutí lidského prostředku k určení toho, co je považováno za nevhodné, a zahrnutí označení do samotné datové sady. AI ML/DL pak může zkontrolovat data a související označení, které bylo označeno lidskými hodnotiteli. To zase může potenciálně sloužit jako prostředek pro výpočetní nalezení základních matematických vzorů. Voila, ML/DL by pak mohl být schopen předvídat nebo výpočetně posoudit, zda je daná poznámka pravděpodobně toxická nebo ne.

Jak je zmíněno v citovaném článku o jemných metrikách: „Toto označení žádá hodnotitele, aby ohodnotili toxicitu komentáře, a to z možností ‚Velmi toxický‘, ‚Toxický‘, ‚Těžko říci‘ a ‚Netoxický‘. Hodnotitelé byli také dotázáni na několik podtypů toxicity, ačkoli tato označení nebyla pro analýzu v této práci použita. Pomocí těchto hodnotících technik jsme vytvořili datový soubor 1.8 milionu komentářů pocházejících z online diskuzních fór, který obsahuje označení toxicity a identity. Zatímco všechny komentáře byly označeny z hlediska toxicity a podskupina 450,000 XNUMX komentářů byla označena z hlediska identity. Některé komentáře označené jako identita byly předem vybrány pomocí modelů vytvořených z předchozích iterací označování identity, aby bylo zajištěno, že hodnotitelé budou často vidět obsah identity“ (v citovaném článku Daniela Borkana, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Dalším příkladem snahy mít soubory dat, které obsahují ilustrativní toxický obsah, je úsilí o trénování konverzačních interaktivních systémů zpracování přirozeného jazyka (NLP) založené na umělé inteligenci. Pravděpodobně jste se setkali se systémy NLP, jako jsou Alexa a Siri. Popsal jsem některé potíže a omezení dnešního NLP, včetně zvláště znepokojivého případu, který se stal, když Alexa dětem nabídla nevhodnou a nebezpečnou radu, viz. odkaz zde.

Nedávná studie se snažila použít devět kategorií sociálních předsudků, které byly obecně založeny na seznamu chráněných demografických charakteristik EEOC (Equal Employment Opportunities Commission), včetně věku, pohlaví, národnosti, fyzického vzhledu, rasy nebo etnického původu, náboženství, zdravotního postižení, sexuálního orientace a socioekonomický status. Podle výzkumníků: „Je dobře zdokumentováno, že modely NLP se učí sociálním předsudkům, ale málo se pracovalo na tom, jak se tyto předsudky projevují v modelových výstupech pro aplikované úkoly, jako je odpovídání na otázky (QA). Představujeme Bias Benchmark for QA (BBQ), datový soubor sad otázek vytvořených autory, které zdůrazňují ověřené sociální předsudky vůči lidem patřícím do chráněných tříd v devíti sociálních dimenzích relevantních pro anglicky mluvící kontexty v USA“ (v článku nazvaném „BBQ : Hand-Built Benchmark for Question Answering” od Alicie Parrish, Angeliky Chen, Nikity Nangia, Vishhakh Padmakumara, Jasona Phanga, Jany Thompson, Phu Mon Htut, Samuela R. Bowmana).

Vytváření datových sad, které záměrně obsahují neobjektivní a zcela toxická data, je rostoucím trendem v AI a je obzvláště podněcováno příchodem etiky AI a touhou vytvářet etickou AI. Tyto datové soubory lze použít k trénování modelů strojového učení (ML) a hlubokého učení (DL) pro odhalování zkreslení a zjišťování výpočtových vzorců, které mají za následek společenskou toxicitu. Na druhé straně může být ML/DL natrénovaná toxicita uvážlivě zaměřena na jinou AI, aby se zjistilo, zda je cílová AI potenciálně zaujatá a toxická.

Kromě toho lze dostupné systémy ML/DL trénované na toxicitu použít k tomu, aby tvůrcům umělé inteligence předvedly, na co si dát pozor, aby mohli pohotově prohlížet modely, aby viděli, jak vznikají předsudky ovlivněné algoritmy. Celkově lze říci, že tyto snahy jsou schopny doložit nebezpečí toxické umělé inteligence jako součást etiky a etického povědomí o umělé inteligenci.

Vsadil bych se, že v tomto okamžiku této závažné diskuse si přejete nějaké další ilustrativní příklady, které by mohly toto téma předvést. Existuje speciální a jistě oblíbený soubor příkladů, které jsou mému srdci blízké. Víte, jako odborník na AI včetně etických a právních důsledků jsem často žádán, abych určil realistické příklady, které předvádějí dilemata etiky AI, aby bylo možné snáze pochopit poněkud teoretickou povahu tématu. Jednou z nejvíce sugestivních oblastí, která živě prezentuje tento etický problém umělé inteligence, je příchod skutečně samořídících vozů založených na umělé inteligenci. To poslouží jako praktický příklad použití nebo příklad pro rozsáhlou diskusi na dané téma.

Zde je pak pozoruhodná otázka, která stojí za zamyšlení: Osvětluje příchod skutečně samořídících aut na bázi umělé inteligence něco o užitečnosti datových sad pro vymýšlení toxické umělé inteligence, a pokud ano, co to ukazuje?

Dovolte mi chvíli rozbalit otázku.

Za prvé, všimněte si, že ve skutečném samořídícím autě není žádný lidský řidič. Mějte na paměti, že skutečně samořídící auta jsou řízena systémem AI. Není potřeba, aby za volantem byl lidský řidič, ani neexistuje ustanovení, aby vozidlo řídil člověk. Pro mé rozsáhlé a průběžné pokrytí Autonomních vozidel (AV) a zejména samořiditelných vozů viz odkaz zde.

Rád bych dále objasnil, co je míněno, když mluvím o skutečných samořídících autech.

Porozumění úrovním samořídících automobilů

Pro upřesnění, skutečná samořídící auta jsou ta, kde AI řídí auto zcela samo a při řízení není žádná lidská pomoc.

Tato vozidla bez řidiče jsou považována za úroveň 4 a úroveň 5 (viz mé vysvětlení na adrese odkaz zde), zatímco vůz, který vyžaduje, aby se na řízení společně podílel lidský řidič, se obvykle považuje za úroveň 2 nebo úroveň 3. Vozy, které spolu sdílejí úkol řízení, jsou popsány jako semi-autonomní a obvykle obsahují různé automatizované doplňky, které se označují jako ADAS (Advanced Driver-Assistance Systems).

Na úrovni 5 ještě není skutečné auto s vlastním řízením a ještě ani nevíme, zda toho bude možné dosáhnout, ani jak dlouho bude trvat, než se tam dostaneme.

Mezitím se úsilí úrovně 4 postupně snaží získat určitou trakci tím, že podstupují velmi úzké a selektivní testy na veřejných komunikacích, ačkoli existuje spor o to, zda by toto testování mělo být povoleno jako takové (všichni jsme pokusnými pokusnými králíky na život a na smrt odehrávající se na našich dálnicích a vedlejších cestách, někteří tvrdí, viz moje zpravodajství na odkaz zde).

Protože poloautonomní auta vyžadují řidiče, přijetí těchto typů automobilů se nebude výrazně lišit od řízení konvenčních vozidel, takže o tomto tématu není samo o sobě nic nového (jak vidíte, uvidíte) za okamžik jsou obecně použitelné následující body).

U poloautonomních automobilů je důležité, aby veřejnost musela být upozorněna na znepokojující aspekt, který se objevuje v poslední době, a to navzdory těm lidským řidičům, kteří neustále vysílají videa, která usínají za volantem auta úrovně 2 nebo 3 , všichni se musíme vyhnout tomu, aby byli uvedeni v omyl v přesvědčení, že řidič může odvrátit jejich pozornost od úkolu řízení při řízení poloautonomního automobilu.

Jste odpovědnou stranou za řízení vozidla, bez ohledu na to, kolik automatizace může být hodeno do úrovně 2 nebo úrovně 3.

Samořídící auta a řízení před toxickou AI

U vozidel s vlastním řízením úrovně 4 a 5 nebude do řízení zapojen lidský řidič.

Všichni cestující budou cestující.

AI řídí.

Jedním z aspektů, které je třeba okamžitě projednat, je skutečnost, že umělá inteligence zapojená do dnešních řídicích systémů umělé inteligence není vnímavá. Jinými slovy, AI je celkově kolektiv počítačového programování a algoritmů a nejspíše není schopen uvažovat stejným způsobem jako lidé.

Proč je tento dodatečný důraz na to, aby AI nebyla vnímavá?

Protože chci zdůraznit, že při diskusi o roli řídícího systému AI nepřičítám AI lidské vlastnosti. Uvědomte si, že v dnešní době existuje trvalá a nebezpečná tendence k antropomorfizaci AI. V zásadě lidé dnešní AI připisují lidskou vnímavost, a to navzdory nepopiratelné a nepopiratelné skutečnosti, že taková AI dosud neexistuje.

S tímto vysvětlením si můžete představit, že systém řízení AI nebude nativně nějak „vědět“ o aspektech řízení. Řízení a vše, co to obnáší, bude muset být naprogramováno jako součást hardwaru a softwaru samořízeného automobilu.

Pojďme se ponořit do nesčetných aspektů, které na toto téma hrají.

Zaprvé je důležité si uvědomit, že ne všechna samořídící auta s umělou inteligencí jsou stejná. Každá automobilka a technologická firma s vlastním řízením přistupuje k navrhování samořídících vozů. Jako takové je obtížné činit rozsáhlá prohlášení o tom, co budou či nebudou dělat řídicí systémy AI.

Kromě toho, kdykoli uvedou, že řídící systém AI nedělá nějakou konkrétní věc, může to později předběhnout vývojáři, kteří ve skutečnosti naprogramují počítač, aby udělal právě tuto věc. Krok za krokem se postupně zdokonalují a rozšiřují systémy řízení AI. Stávající omezení dnes již nemusí existovat v budoucí iteraci nebo verzi systému.

Doufám, že to poskytuje dostatečnou litanii upozornění, která podpoří to, co se chystám vylíčit.

Existuje mnoho potenciálů a jednoho dne pravděpodobně budou realizovány předsudky prostoupené umělou inteligencí, které budou čelit vzniku autonomních vozidel a samořídících automobilů, viz například moje diskuse na odkaz zde a odkaz zde. Jsme stále v rané fázi zavádění samořiditelných vozů. Dokud adopce nedosáhne dostatečného rozsahu a viditelnosti, mnoho z toxických aspektů umělé inteligence, o kterých jsem předpovídal, že se nakonec objeví, ještě nejsou zcela zjevné a ještě si nezískaly širokou pozornost veřejnosti.

Zvažte zdánlivě přímočarou záležitost související s řízením, která se na první pohled může zdát zcela neškodná. Konkrétně se podívejme, jak správně určit, zda zastavit kvůli čekajícím „necestným“ chodcům, kteří nemají přednost k přecházení ulice.

Nepochybně jste jeli autem a setkali jste se s chodci, kteří čekali, až přejdou ulici, a přesto k tomu neměli přednost. To znamenalo, že jste měli možnost rozhodnout, zda zastavit a nechat je přejít. Mohli byste pokračovat, aniž byste je nechali překročit, a přesto se plně drželi zákonných pravidel řízení.

Studie o tom, jak se lidští řidiči rozhodují, zda zastavit nebo nezastavit pro takové chodce, naznačují, že někdy se lidští řidiči rozhodují na základě nežádoucích předsudků. Lidský řidič se může podívat na chodce a rozhodnout se nezastavit, i když by zastavil, kdyby měl chodec jiný vzhled, například na základě rasy nebo pohlaví. Zkoumal jsem to na odkaz zde.

Jak budou naprogramovány řídicí systémy AI, aby učinily stejný druh rozhodnutí o zastavení nebo rozjetí?

Dalo by se prohlásit, že všechny řídicí systémy AI by měly být naprogramovány tak, aby vždy zastavily před čekajícími chodci. Tím se věc značně zjednodušuje. Opravdu není třeba učinit žádné zamotané rozhodnutí. Pokud chodec čeká na přechod, bez ohledu na to, zda má nebo nemá přednost, zajistěte, aby samořízené auto s umělou inteligencí zastavilo, aby mohl chodec přejít.

Snadné.

Zdá se, že život není nikdy tak snadný. Představte si, že všechna samořídící auta toto pravidlo dodržují. Chodci by si nevyhnutelně uvědomili, že řídicí systémy AI jsou, řekněme, posuny. Všichni chodci, kteří chtějí přejít ulici, to chtě nechtě udělají, kdykoli budou chtít a kdekoli budou.

Předpokládejme, že samořídící auto jede po rychlé ulici rychlostí 45 mil za hodinu. Chodec „ví“, že AI zastaví samořízené auto. Takže chodec vyrazí do ulice. Bohužel fyzika vítězí nad umělou inteligencí. Řídicí systém AI se pokusí samořídící auto zastavit, ale hybnost autonomního vozidla unese mnohatunové zařízení vpřed a narazí do svéhlavého chodce. Výsledkem je buď zranění nebo smrt.

Chodci obvykle tento typ chování nezkoušejí, když za volantem sedí lidský řidič. Jistě, v některých lokalitách probíhá oční válka. Chodec se dívá na řidiče. Řidič se dívá na chodce. V závislosti na okolnostech může řidič zastavit nebo řidič může uplatnit svůj nárok na vozovku a zdánlivě donutit chodce, aby se pokusil narušit jejich cestu.

Pravděpodobně nechceme, aby se umělá inteligence dostala do podobné války s očními bulvy, což je každopádně trochu náročné, protože za volantem samořídícího auta nesedí člověk ani robot (o budoucí možnosti robotů jsem mluvil ten pohon, viz odkaz zde). Přesto také nemůžeme dovolit chodcům, aby vždy stříleli. Výsledek by mohl být katastrofální pro všechny zúčastněné.

Pak byste mohli být v pokušení obrátit se na druhou stranu této mince a prohlásit, že systém řízení AI by se za takových okolností nikdy neměl zastavit. Jinými slovy, pokud chodec nemá řádnou přednost, aby mohl přejít ulici, AI by měla vždy předpokládat, že samořídící auto by mělo pokračovat bez omezení. Těm chodcům smůla.

Tak přísné a zjednodušující pravidlo nebude širokou veřejností dobře přijímáno. Lidé jsou lidé a nebude se jim líbit, když budou úplně vyloučeni z toho, že by mohli přejít ulici, přestože k tomu v různých prostředích ze zákona postrádají přednost. Dalo by se snadno předvídat značné pozdvižení ze strany veřejnosti a možná vidět odpor proti pokračujícímu přijímání samořídících vozů.

Zatraceně, pokud ano, a zatraceně, pokud ne.

Doufám, že vás to přivedlo k rozumné alternativě, že AI musí být naprogramována tak, aby bylo možné rozhodovat o tom, jak se s tímto problémem řízení vypořádat. Tvrdé a rychlé pravidlo nikdy nepřestat je neudržitelné a stejně tak je neudržitelné pevné a rychlé pravidlo vždy přestat. Umělá inteligence musí být navržena pomocí nějakého algoritmického rozhodování nebo ADM, aby se s touto záležitostí vypořádala.

Můžete zkusit použít datovou sadu spojenou s přístupem ML/DL.

Zde je návod, jak se vývojáři AI mohou rozhodnout tento úkol naprogramovat. Shromažďují data z videokamer, které jsou rozmístěny po celém konkrétním městě, kde bude autonomní auto použito. Data ukazují, kdy se řidiči rozhodnou zastavit kvůli chodcům, kteří nemají přednost. To vše se shromažďuje do datové sady. Pomocí strojového učení a hlubokého učení jsou data modelována výpočtově. Řídicí systém AI pak pomocí tohoto modelu rozhoduje, kdy zastavit nebo nezastavit.

Obecně platí, že ať už se místní zvyk skládá z čehokoli, umělá inteligence řídí samořídící auto. Problém je vyřešen!

Ale je to skutečně vyřešené?

Připomeňme, že jsem již uvedl, že existují výzkumné studie, které ukazují, že lidští řidiči mohou být zaujatí při volbě, kdy zastavit kvůli chodcům. Shromážděná data o konkrétním městě budou pravděpodobně obsahovat tyto předsudky. AI ML/DL založený na těchto datech bude pravděpodobně modelovat a odrážet tytéž předsudky. Řídicí systém AI bude pouze provádět stejné existující předsudky.

Abychom se s tímto problémem pokusili vypořádat, mohli bychom sestavit datovou sadu, která má ve skutečnosti takové předsudky. Buď takovou datovou sadu najdeme a pak označíme zkreslení, nebo synteticky vytvoříme datovou sadu, která pomůže při ilustraci věci.

Budou provedeny všechny dříve identifikované kroky, včetně:

  • Nastavte datovou sadu, která záměrně obsahuje toto konkrétní zkreslení
  • Pomocí datové sady můžete trénovat modely strojového učení (ML) a hlubokého učení (DL) o detekci tohoto specifického zkreslení
  • Aplikujte natrénovaný ML/DL na jinou AI, abyste se ujistili, zda je cílená AI potenciálně zaujatá podobným způsobem
  • Zpřístupněte předpojatostmi trénované ML/DL, aby předvedli tvůrcům umělé inteligence, na co si dát pozor, aby mohli své modely snadno zkontrolovat a zjistit, jak vznikají předsudky prostoupené algoritmy
  • Ukažte nebezpečí předpojaté umělé inteligence jako součást etiky a etického povědomí o umělé inteligenci prostřednictvím tohoto přidaného konkrétního příkladu
  • Ostatní

Proč investovat do čističky vzduchu?

Vraťme se k úvodní linii.

Člověk potřebuje jednoho poznat.

Někteří interpretují, že toto neuvěřitelně rozšířené rčení znamená, že pokud jde o vylučování toxické umělé inteligence, měli bychom dát patřičnou důvěru budování a používání toxické umělé inteligence k objevování a řešení další toxické umělé inteligence. Sečteno a podtrženo: Někdy je potřeba, aby zloděj chytil dalšího zloděje.

Vyjadřujeme obavy, že možná děláme vše pro to, abychom začali dělat zloděje. Chceme vymyslet AI, která je toxická? Nezdá se vám to jako bláznivý nápad? Někteří vehementně tvrdí, že bychom měli zakázat veškerou toxickou umělou inteligenci, včetně takové umělé inteligence, která byla vytvořena vědomě, i když údajně pro hrdiny nebo galanty. AI pro dobro účel.

Umlčte toxickou AI v jakékoli chytré nebo zákeřné podobě, která se může objevit.

Zatím poslední obrat na toto téma. Obecně předpokládáme, že tato slavná linie má co do činění s lidmi nebo věcmi, které dělají špatné nebo kyselé činy. Tak se dostáváme k představě, že k dopadení zloděje je potřeba zloděje. Možná bychom měli toto rčení obrátit na hlavu a udělat z něj spíše veselou tvář než smutnou.

Zde je návod.

Pokud chceme umělou inteligenci, která je nezaujatá a netoxická, je možné, že je potřeba, aby ji člověk poznal. Možná je zapotřebí toho největšího a nejlepšího, abychom poznali a zplodili další velikost a dobro. V této variantě moudrého moudra držíme svůj pohled na šťastné tváři a zaměřujeme se na vymýšlení AI pro dobro.

To by byl optimističtější a uspokojivě veselejší pohled na to, jak to člověk musí znát, jestli víš, co tím myslím.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- prospěšné-včetně-pro autonomní-samořídící-auta/