Etika umělé inteligence a hrozící debakl, když zákon New York City vyžadující audity pro předsudky umělé inteligence nastartuje rychlost

Někdy jsou ty nejlepší úmysly žalostně zmařeny vážným nedostatkem pozornosti k detailům.

Ukázkový příklad této moudré moudrosti stojí za prozkoumání.

Konkrétně se podívejme podrobně na nový zákon v New Yorku týkající se umělé inteligence (AI), který vstoupí v platnost 1. ledna 2023. Můžete snadno vyhrát značnou sázku, že se objeví nejrůznější zmatky, zděšení a problémy. jakmile zákon vstoupí v platnost. I když problémy nejsou záměrné, nepochybně k nim dojde v důsledku špatného návrhu nebo alespoň nedostatečného stanovení nezbytných detailů, které by měly a mohly být snadno vymyšleny a výslovně uvedeny.

Mám na mysli místní zákon přijatý loni 11. prosince 2021 v uctívaném městě New York, který má vstoupit v platnost začátkem roku 2023. V současnosti nás dělí jen několik měsíců od velkého probuzení, které tento nový zákon vzruší. Přál bych si, abych mohl říci, že ambiciózní zákon bude bez problémů dělat to, co dělat má, tedy řešit potenciální předsudky AI v oblasti rozhodování o zaměstnání. Bohužel, i když je záměr chvályhodný, provedu vás zejícími mezerami, opomenutími a nedostatkem specifičnosti, které podkopávají tento zákon a dohánějí zaměstnavatele k šílenství, když se snaží vyrovnat se s nezamýšlenými, ale docela nepříznivými důsledky.

Možná si řeknete, že jde o klasickou záležitost prosazování nedotaženého plánu. Uctívanou zásadou připisovanou Dwightu Eisenhowerovi bylo, že plán není nic, zatímco plánování je vším. Stručně řečeno, tento konkrétní zákon poskytne názorný příklad toho, jak mohou zákonodárci někdy zaostávat tím, že nedokážou dobře promyslet předem nezbytné náležitosti, aby zákon splnil své chvályhodné cíle a mohl být přijat zaručeně rozumnými a obezřetnými způsoby.

Čeká se debakl.

Výmluvy se už seřazují.

Někteří učenci řekli, že nikdy nemůžete úplně specifikovat zákon a musíte ho vidět v praxi, abyste věděli, jaké aspekty zákona je třeba vyladit (obecná pravda, která je v tomto případě překroucena). Kromě toho vášnivě argumentují, že tomu tak je zejména v případě nově vznikajících zákonů souvisejících s AI. Sakra, nabádají, umělá inteligence je hi-tech čarodějnictví, o kterém toho jako zákonodárci moc nevíme, takže logika říká, že mít něco na stránkách s právními předpisy je lepší, než tam nemít vůbec nic.

Na povrchu to jistě zní přesvědčivě. Ponořte se však hlouběji a uvědomíte si, že je to potenciálně špinavé, včetně a zvláště v případě tohoto specifického zákona. Tento zákon by mohl být snadno stanoven šikovněji a uvážlivě. Nepotřebujeme kouzelné lektvary. Nemusíme čekat, až nastanou zmatky. V době, kdy zákon vznikal, mohly být stanoveny správné formulace a podrobnosti.

Ujistime se také, že neslušná, vznášející se myšlenka, že aspekty adopce nelze předem odhadnout, je bolestně absurdní. Je to legální mumbo-jumbo mávání rukou toho nejprázdnějšího druhu. Existuje mnoho již známých úvah o řešení zkreslení AI a provádění auditů AI, které mohly být snadno zapracovány do tohoto zákona. Totéž lze říci o jakékoli jiné jurisdikci, která zvažuje vytvoření takového zákona. Nenechte se oklamat tím, že se musíme uchýlit pouze ke slepému házení legální šipky do divokého větru a trpět mukami. Hromada právnického myšlení v kombinaci s vhodným pochopením umělé inteligence je již proveditelná a není třeba chytat pouze stébla.

Mohu dodat, že je ještě čas to napravit. Hodiny stále tikají. Mohlo by být možné se probudit, než začnou zvonit poplašné zvony. Potřebná rada může být odvozena a zveřejněna. Času je málo, takže tomu musí být věnována náležitá priorita.

V každém případě se prosím ujistěte, že zde chápete důraz.

Dovolte mi, abych vroucně objasnil, že takový zákon týkající se zkreslení umělé inteligence má své opodstatnění. Za chvíli vysvětlím proč. Popíšu také, jaké jsou problémy s tímto novým zákonem, o kterém by mnozí řekli, že je vůbec prvním, který byl uveden do právních knih (existují i ​​jiné varianty, možná ne úplně jako tato).

Dá se totiž očekávat, že podobné zákony budou postupně vznikat po celé zemi. Jednou z pozoruhodných obav je, že pokud tento pokus o první krok v New Yorku dopadne špatně, může to způsobit, že zbytek země bude opatrný při přijímání takových zákonů. To není ta správná lekce. Správná poučka je, že pokud se chystáte sepsat takový zákon, udělejte to rozumně a s patřičnou rozvahou.

Zákony vhozené do knih bez dostatečného prověření mohou být značně znepokojivé a mohou způsobit nejrůznější potíže. V tomto smyslu prosím nevyhazujte dítě s vodou ve vaně (staré přísloví, pravděpodobně by mělo být v důchodu). Podstatou je, že takové zákony mohou být skutečně produktivní a ochranné, když jsou správně sestaveny.

Tento konkrétní to bohužel mimo bránu neudělá.

Všechny druhy panického vedení musí pocházet od zákonodárců a vymahačů zákona. Poznamenejte si do kalendářů konec ledna a únor 2023, abyste mohli sledovat, jak budou následovat tahanice. Ukazování prstů bude nesmírně intenzivní.

Nikdo teď zvlášť nekřičí, protože zákon ještě nedopadl na hlavu zaměstnavatelů, kteří budou novým zákonem zdrceni. Představte si, že jde o jakési metaforické zemětřesení, ke kterému dojde v prvních týdnech roku 2023. Málokdo se na zemětřesení připravuje. Mnozí ani nevědí, že zemětřesení je již zapsáno v kalendáři. Jak již bylo řečeno, jakmile dojde k zemětřesení, mnoho velmi udivených a šokovaných podniků se bude divit, co se stalo a proč muselo dojít k nepořádku.

To vše má pozoruhodně významné důsledky pro etiku umělé inteligence a nabízí praktické okno do získaných lekcí (dokonce ještě předtím, než k nim dojde), pokud jde o pokusy o uzákonění umělé inteligence. Co se týče mého trvalého a rozsáhlého pokrytí etiky umělé inteligence, etická umělá inteligence spolu se zákonem o umělé inteligenci v rámci právních aspektů řízení umělé inteligence naleznete na odkaz zde a odkaz zde, jen abychom jmenovali alespoň některé.

Tento právní příběh běda se vztahuje k dříve vznikajícím obavám o dnešní umělou inteligenci a zejména používání strojového učení (ML) a hlubokého učení (DL) jako formy technologie a způsobu jejich využívání. Víte, existují použití ML/DL, která mají tendenci zahrnovat antropomorfizaci AI širokou veřejností, věříc nebo rozhodnutí předpokládat, že ML/DL je buď vnímající AI, nebo blízko (není). Kromě toho může ML/DL obsahovat aspekty porovnávání výpočetních vzorů, které jsou nežádoucí nebo přímo nevhodné nebo nezákonné z etického nebo právního hlediska.

Mohlo by být užitečné nejprve objasnit, co mám na mysli, když mluvím o AI celkově, a také poskytnout stručný přehled o strojovém učení a hlubokém učení. Existuje velký zmatek v tom, co umělá inteligence znamená. Rád bych vám také představil zásady etiky umělé inteligence, které budou zvláště nedílnou součástí zbytku tohoto diskurzu.

Uvedení rekordu o AI

Ujistíme se, že jsme na stejné stránce ohledně povahy dnešní umělé inteligence.

Dnes neexistuje žádná AI, která by byla vnímavá.

Tohle my nemáme.

Nevíme, zda bude vnímající AI možná. Nikdo nemůže výstižně předpovědět, zda dosáhneme vnímající AI, ani zda se vnímající AI nějakým zázrakem spontánně objeví ve formě výpočetní kognitivní supernovy (obvykle označované jako The Singularity, viz moje zpravodajství na odkaz zde).

Uvědomte si, že dnešní umělá inteligence není schopna „myslet“ žádným způsobem na stejné úrovni jako lidské myšlení. Když komunikujete s Alexou nebo Siri, konverzační schopnosti se mohou zdát podobné lidským schopnostem, ale skutečnost je taková, že jsou výpočetní a postrádají lidské poznání. Nejnovější éra umělé inteligence široce využívá strojové učení a hluboké učení, které využívají porovnávání výpočetních vzorů. To vedlo k systémům umělé inteligence, které vypadají jako lidské sklony. Mezitím dnes neexistuje žádná umělá inteligence, která by měla zdání zdravého rozumu, ani žádný z kognitivních úžasů robustního lidského myšlení.

Součástí problému je naše tendence k antropomorfizaci počítačů a zejména AI. Když se zdá, že počítačový systém nebo umělá inteligence jedná způsobem, který si spojujeme s lidským chováním, existuje téměř zdrcující nutkání připsat systému lidské vlastnosti. Je to běžná mentální past, která dokáže chytit i toho nejneústupnějšího skeptika ohledně šancí dosáhnout rozumu.

To je do určité míry důvod, proč je etika a etická umělá inteligence tak zásadním tématem.

Předpisy etiky AI nás nutí zůstat ostražití. Technologové umělé inteligence mohou být občas zaneprázdněni technologií, zejména optimalizací špičkových technologií. Nezbytně nezvažují větší společenské důsledky. Mít etiku AI a dělat to nedílně pro vývoj a nasazení AI je životně důležité pro vytváření vhodné AI, včetně posouzení toho, jak je etika AI přijata firmami.

Kromě toho, že obecně používáme etické zásady AI, existuje odpovídající otázka, zda bychom měli mít zákony, které by řídily různá použití AI. Na federální, státní a místní úrovni se šíří nové zákony, které se týkají rozsahu a povahy toho, jak by měla být umělá inteligence navržena. Snaha navrhnout a přijmout takové zákony je postupná. Etika umělé inteligence slouží přinejmenším jako zvažovaná překážka a téměř jistě bude do určité míry přímo začleněna do těchto nových zákonů.

Uvědomte si, že někteří neústupně tvrdí, že nepotřebujeme nové zákony, které pokrývají AI, a že naše stávající zákony jsou dostatečné. Varují, že pokud uzákoníme některé z těchto zákonů AI, zabijeme zlatou husu tím, že potlačíme pokroky v AI, které nabízejí obrovské společenské výhody. Viz například moje pokrytí na odkaz zde.

V předchozích sloupcích jsem pokryl různé národní a mezinárodní snahy o vytvoření a uzákonění zákonů regulujících umělou inteligenci, viz odkaz zde, například. Zabýval jsem se také různými principy a směrnicemi etiky AI, které různé národy identifikovaly a přijaly, včetně například úsilí OSN, jako je soubor etiky AI UNESCO, který přijalo téměř 200 zemí, viz. odkaz zde.

Zde je užitečný základní seznam etických kritérií nebo charakteristik AI systémů AI, které jsem dříve podrobně prozkoumal:

  • Průhlednost
  • Spravedlnost a férovost
  • Neškodlivost
  • Odpovědnost
  • Ochrana osobních údajů
  • Dobročinnost
  • Svoboda a autonomie
  • Věřte
  • udržitelnost
  • Důstojnost
  • Solidarita

Předpokládá se, že tyto principy etiky AI budou vážně využívat vývojáři AI spolu s těmi, kteří řídí úsilí o vývoj AI, a dokonce i ti, kteří nakonec používají a provádějí údržbu systémů AI. Všechny zúčastněné strany během celého životního cyklu vývoje a používání AI jsou posuzovány v rámci dodržování zavedených norem etické AI. To je důležité upozornit, protože obvyklý předpoklad je, že „pouze kodéři“ nebo ti, kteří programují AI, podléhají dodržování etických pojmů AI. Jak bylo zdůrazněno výše, k vymýšlení a nasazení umělé inteligence je zapotřebí vesnice, přičemž celá vesnice musí být zběhlá a dodržovat etické předpisy AI.

Nechme věci při zemi a zaměřme se na dnešní výpočetní necítící AI.

ML/DL je forma porovnávání výpočetních vzorů. Obvyklý přístup je takový, že shromažďujete data o úloze rozhodování. Data vkládáte do počítačových modelů ML/DL. Tyto modely se snaží najít matematické vzorce. Po nalezení takových vzorů, pokud jsou nalezeny, systém umělé inteligence tyto vzory použije, když narazí na nová data. Po předložení nových dat se pro vykreslení aktuálního rozhodnutí použijí vzory založené na „starých“ nebo historických datech.

Myslím, že můžete hádat, kam to směřuje. Pokud lidé, kteří se rozhodovali podle vzoru, začlenili nežádoucí předsudky, je pravděpodobné, že data to odrážejí jemnými, ale významnými způsoby. Počítačové porovnávání vzorů Machine Learning nebo Deep Learning se jednoduše pokusí odpovídajícím způsobem matematicky napodobit data. Neexistuje žádné zdání zdravého rozumu nebo jiných vnímavých aspektů modelování vytvořeného umělou inteligencí jako takového.

Kromě toho si vývojáři AI nemusí uvědomit, co se děje. Tajemná matematika v ML/DL může ztížit odhalení nyní skrytých předsudků. Oprávněně byste doufali a očekávali, že vývojáři umělé inteligence budou testovat potenciálně pohřbené předsudky, i když je to složitější, než by se mohlo zdát. Existuje solidní šance, že i přes poměrně rozsáhlé testování, že v modelech porovnávání vzorů ML/DL budou stále zakomponovány zkreslení.

Dalo by se tak trochu použít slavné nebo nechvalně známé pořekadlo o smetí-do odpadu-ven. Jde o to, že je to spíše podobné předsudkům – in, které se zákeřně prolínají, když se předsudky ponoří do AI. Algoritmus rozhodování (ADM) umělé inteligence je axiomaticky zatížen nerovnostmi.

Špatný.

Věřím, že jsem nyní připravil půdu k tomu, abych dostatečně prodiskutoval roli umělé inteligence v rámci kategorie tichého ukončení.

AI, která se používá při rozhodování o zaměstnání

Zákon New York City se zaměřuje na téma rozhodování o zaměstnání.

Pokud jste se v poslední době pokusili ucházet o moderní práci téměř kdekoli na této zemi, pravděpodobně jste se v procesu rozhodování o zaměstnání setkali s prvkem založeným na umělé inteligenci. Samozřejmě nemusíte vědět, že tam je, protože by to mohlo být skryto v zákulisí a neměli byste žádný připravený způsob, jak rozeznat, že byl zapojen systém AI.

Běžnou frází používanou k odkazování na tyto systémy umělé inteligence je, že se o nich uvažuje Nástroje pro automatizované rozhodování o zaměstnání, zkráceně AEDT.

Podívejme se, jak zákon NYC definoval tyto nástroje nebo aplikace, které zahrnují rozhodování o zaměstnání:

  • „Pojem ‚automatizovaný nástroj pro rozhodování o zaměstnání‘ znamená jakýkoli výpočetní proces odvozený ze strojového učení, statistického modelování, analýzy dat nebo umělé inteligence, který vydává zjednodušený výstup, včetně skóre, klasifikace nebo doporučení, který se používá k podstatné pomoci nebo nahradit diskreční rozhodování při přijímání rozhodnutí o zaměstnání, která mají dopad na fyzické osoby. Pojem „automatizovaný nástroj pro rozhodování o zaměstnání“ nezahrnuje nástroj, který neautomatizuje, nepodporuje, podstatně nenapomáhá nebo nenahrazuje rozhodovací procesy podle vlastního uvážení a který nemá podstatný dopad na fyzické osoby, včetně, ale nejen, filtru nevyžádané pošty, firewall, antivirový software, kalkulačka, tabulka, databáze, datová sada nebo jiná kompilace dat“ (NYC, Int 1894-2020, podkapitola 25, oddíl 20-870).

Toto znění krátce prozkoumám, protože je zásadní pro celou povahu a rozsah zákona.

Zaprvé, jak jsem mnohokrát uvedl ve svých spisech, jedna z nejobtížnějších překážek při psaní zákonů o AI spočívá ve snaze adekvátně definovat, co AI znamená. Neexistuje žádný jednotný a plně dohodnutý právně neprůstřelný standard, na který by všichni přistáli. Existují všechny druhy definic. Některé jsou užitečné, některé ne. Viz moje analýzy na odkaz zde.

Můžete být v pokušení myslet si, že nezáleží na tom, jak bychom mohli definovat AI. Promiň, ale to by ses mýlil.

Problém je v tom, že pokud je definice umělé inteligence v daném zákoně uvedena vágně, umožňuje to těm, kteří vyvíjejí umělou inteligenci, pokusit se obejít zákon a zdánlivě prohlašovat, že jejich software nebo systém není AI. S velkou odvahou by argumentovali tím, že na jejich software se zákon nevztahuje. Podobně by někdo, kdo používá software, mohl tvrdit, že se ho zákon netýká, protože software nebo systém, který používá, nespadá do definice AI uvedené v zákoně.

Lidé jsou tak ošidní.

Jedním z nejchytřejších způsobů, jak se vyhnout tomu, aby vás napadl zákon, který vám nevyhovuje, je tvrdit, že se na vás zákon nevztahuje. V tomto případě byste se snažili po částech rozebrat definici AEDT. Vaším cílem, za předpokladu, že nechcete, aby byl zákon na vašich zádech, by bylo právně tvrdit, že definice uvedená v zákoně je chybná ohledně toho, co váš počítačový systém související se zaměstnáním je nebo dělá.

Zákonu tohoto druhu lze jak napomoci, tak i někdy podkopávat záměrné zahrnutí vylučujících ustanovení do definice.

Podívejte se znovu na definici AEDT, jak je uvedena v tomto zákoně. Snad jste si všimli, že existuje vylučující klauzule, která říká „…nezahrnuje nástroj, který neautomatizuje, nepodporuje, podstatně nenapomáhá nebo nenahrazuje rozhodovací procesy podle vlastního uvážení a který nemá materiální dopad na fyzické osoby…“.

Na jedné straně je základ pro zahrnutí takového vyloučení rozhodně užitečný.

Zdá se, že to naznačuje (podle mého laického názoru), že AEDT musí poskytovat konkrétní účel a být využívána věcným způsobem. Pokud je AEDT řekněme zběžné nebo okrajové, a pokud je rozhodnutí o zaměstnání stále spíše lidské ruční práce, možná by používaný softwarový systém neměl být vykládán jako AEDT. Také pokud software nebo systém „hmotně“ nezasahuje fyzické osoby (lidi), pak se nezdá být užitečné držet se jakoby u ohně.

Rozumně nechcete, aby zákon přehnal svůj rozsah a pohltil vše včetně kuchyňského dřezu. Takové jednání je v zásadě nespravedlivé a zatěžující pro ty, které zákon nezamýšlel zahrnout. Mohou uvíznout v bahně, které funguje jako jedna z těch univerzálních rybářských sítí. Pravděpodobně by si naše zákony měly dávat pozor, aby nevtahovaly do působnosti zákona nevinné.

Všechno je dobré a dobré.

Důvtipný právník si musí uvědomit, že vylučující klauzule může být druhem legální karty pro únik z vězení (ostatně tento konkrétní zákon stanoví občanskoprávní tresty, nikoli tresty trestní, takže dostat se z vězení poznámka je pouze metaforická a má výraznou chuť). Pokud by někdo tvrdil, že společnost používá AEDT při zpracování zaměstnání, jedním z prvních způsobů, jak se pokusit překonat toto tvrzení, by bylo tvrdit, že takzvaná AEDT byla ve skutečnosti ve sféře vyloučení. Můžete se pokusit ukázat, že tzv. AEDT ne automatizovat rozhodnutí o zaměstnání, nebo ne podpora rozhodnutí o zaměstnání, nebo ne podstatně pomáhat or nahradit diskreční rozhodovací procesy.

Poté se můžete vydat klikatou cestou identifikace toho, co v tomto kontextu znamenají slova „automatizovat“, „podporovat“, „podstatně pomáhat“ nebo „nahradit“. Je to docela šikovná legální králíkárna. Mohl by být předložen přesvědčivý případ, že software nebo systém, o kterém se tvrdí, že je AEDT, je součástí vylučujících označení. Proto žádná škoda, žádný faul, pokud jde o tento konkrétní zákon.

Je zřejmé, že takové záležitosti by měly být konzultovány s licencovanými právníky (zde není uvedeno žádné zdání právní rady a jedná se čistě o laický pohled).

Jde mi o to, že v tomto novém zákoně bude prostor pro vrtění. Místnost pro pohyb umožní některým zaměstnavatelům, kteří skutečně používají AEDT, najít mezeru, jak obejít používání AEDT. Druhou stranou této mince je, že mohou existovat firmy, které skutečně nepoužívají AEDT, které budou tímto zákonem chyceny. Je možné tvrdit, že cokoli, co používali, bylo skutečně AEDT, a budou muset najít způsob, jak prokázat, že jejich software nebo systémy nespadají do AEDT a do vylučujícího ustanovení.

Můžeme udělat tuto odvážnou předpověď:

  • Nepochybně se najdou zaměstnavatelé, kteří vědomě používají AEDT, kteří se potenciálně pokusí zbavit se svých právních povinností.
  • Nevyhnutelně se objeví zaměstnavatelé, kteří nepoužívají AEDT, zabřednou do tvrzení, že používají AEDT, což je donutí vynaložit „navíc“ úsilí, aby ukázali, že AEDT nepoužívají.

Až se v této diskusi dostaneme dále, budu tyto četné permutace a kombinace dále vysvětlovat. Máme mnohem více půdy, kam můžeme šlapat.

Používání AEDT samo o sobě není tou částí tohoto problému, která vyvolává demonstrativní obavy, je to způsob, jakým AEDT provádí své akce, které rozproudí právní rozhořčení. Jádrem je, že pokud AEDT také možná zavádí předsudky související s rozhodováním o zaměstnání, pak jste v potenciálně horké vodě (no, tak nějak).

Jak máme vědět, zda AEDT ve skutečnosti zavádí předsudky zatížené umělou inteligencí do úsilí o rozhodování o zaměstnání?

Odpověď podle tohoto zákona zní, že se má provést audit AI.

Dříve a často jsem se zabýval povahou auditů umělé inteligence a tím, co jsou, spolu s poukazem na existující nevýhody a špatně definované aspekty, jako je např. odkaz zde a odkaz zde, mezi mnoha jinými podobnými příspěvky. Jednoduše řečeno, představa je taková, že stejně jako byste mohli provést finanční audit firmy nebo technologický audit související s počítačovým systémem, můžete provést audit systému AI. Pomocí specializovaných auditorských technik, nástrojů a metod zkoumáte a hodnotíte, z čeho se skládá systém umělé inteligence, včetně například snahy zjistit, zda obsahuje předsudky toho či onoho druhu.

Toto je rostoucí oblast pozornosti.

Můžete očekávat, že tato podpole auditu, která se věnuje auditování AI, bude nadále růst. Je snadno zřejmé, že s tím, jak budeme mít na trh uváděno stále více systémů umělé inteligence, a tím pádem se bude stále více dožadovat auditů umělé inteligence. Nové zákony tomu pomohou. I bez těchto zákonů bude auditů AI spousta, protože lidé a společnosti tvrdí, že jim AI ublížila, a budou se snažit poskytnout hmatatelné zdokumentované náznaky, že škoda byla přítomna a souvisí s používanou AI.

Auditoři AI budou žhaví a žádaní.

Může to být vzrušující práce. Jeden možná vzrušující prvek znamená být ponořen do nejnovější a největší umělé inteligence. AI stále postupuje. Jak se to stane, bystrý auditor AI bude muset zůstat ve střehu. Pokud jste auditor, kterého už omrzelo provádění každodenních konvenčních auditů, slibuje vám okouzlující, stále nová aréna pro auditování AI (říkám to proto, abych částečně pozdvihl postavení auditorů, protože jsou často neohlášenými hrdiny pracujícími v zákopech a bývají pro své snahy opomíjeni).

Kromě toho jsem certifikovaným auditorem počítačových systémů (jedno takové označení je CISA) a během mnoha let jsem mnohokrát prováděl audity IT (informační technologie), včetně auditů AI. Většinou se vám za takové úsilí nedostane uznání, které si zaslouží. Asi tušíte proč. Celkově vzato mají auditoři tendenci nacházet věci, které jsou špatné nebo nefunkční. V tomto smyslu jsou docela nápomocní, i když to někteří mohou vnímat jako špatné zprávy a posel špatných zpráv se obvykle nestaví na piedestal.

Zpět k věci.

Pokud jde o zákon NYC, zde je to, co zákon říká o auditu AI a snaze odhalit předsudky AI:

  • „Pojem ‚předpojatý audit‘ znamená nestranné hodnocení nezávislým auditorem. Takový audit zkreslení zahrnuje, ale není omezen na testování automatizovaného nástroje pro rozhodování o zaměstnání, aby se posoudil rozdílný dopad tohoto nástroje na osoby jakékoli kategorie složky 1, které musí zaměstnavatelé hlásit podle pododdílu (c) oddílu 2000e-8 názvu 42 kodexu Spojených států, jak je uvedeno v části 1602.7 hlavy 29 kodexu federálních předpisů“ (NYC, Int 1894-2020, podkapitola 25, oddíl 20-870).

Pro rekapitulaci uveďme, kde jsme zatím v rozbalování tohoto zákona:

  • Zákon se vztahuje na nástroje pro automatizované rozhodování o zaměstnání (AEDT)
  • Je zahrnuta definice druhů, aby bylo možné identifikovat, co je AEDT
  • Definice AEDT také zmiňuje vylučující ustanovení
  • Podstatou je, že zákon chce odhalit zkreslení AI v AEDT
  • Chcete-li zjistit, zda jsou přítomny zkreslení AI, je třeba provést audit AI
  • Audit AI pravděpodobně odhalí jakékoli zkreslení AI

Dále se můžeme ponořit trochu více do zákona.

Z čeho se rozhodnutí o zaměstnání skládá:

  • „Pojem „rozhodnutí o zaměstnání“ znamená prověřovat uchazeče o zaměstnání nebo zaměstnance pro povýšení ve městě“ (NYC, Int 1894-2020, podkapitola 25, oddíl 20-870).

Všimněte si, že ohraničující aspekt „města“ naznačuje, že záležitost se zabývá pouze okolnostmi souvisejícími se zaměstnáním v NYC. Rovněž stojí za zmínku, že rozhodnutí o zaměstnání, jak je definováno, zahrnuje prověřování kandidátů, což je obvyklá konotace toho, co považujeme za rozhodnutí o zaměstnání, a navíc zahrnuje také povýšení.

To je dvojnásobná rána v tom smyslu, že firmy si budou muset uvědomit, že musí mít přehled o tom, jak se jejich AEDT (pokud nějaký používají) používá pro počáteční nastavení zaměstnání a také při povyšování v rámci firmy. Pravděpodobně můžete hádat nebo předpokládat, že mnoho firem si nebude plně uvědomovat, že prvek propagačních akcí je také součástí této rubriky. Nevyhnutelně přehlédnou tento dodatečný konstrukt na vlastní nebezpečí.

Dále poskytnu další klíčový výňatek ze zákona, který objasní podstatu toho, co je tímto zákonem vykládáno jako nezákonné:

  • „Požadavky na automatizované nástroje pro rozhodování o zaměstnání. A. Ve městě bude nezákonné, aby zaměstnavatel nebo pracovní agentura používala automatizovaný nástroj pro rozhodování o zaměstnání k prověřování kandidáta nebo zaměstnance pro rozhodnutí o zaměstnání, pokud: 1. Takový nástroj nebyl předmětem auditu zkreslení provedeného ne déle než jeden rok před použitím takového nástroje; a 2. Souhrn výsledků nejnovějšího auditu zkreslení takového nástroje, jakož i datum distribuce nástroje, na který se takový audit vztahuje, bylo zveřejněno na webových stránkách zaměstnavatele nebo agentury práce před použitím takový nástroj…“ (NYC, Int 1894-2020, podkapitola 25, sekce 20-871). Existují další články, které byste si mohli prohlédnout, pokud vás zajímá právní znění.

Skeptici a kritici tvrdili, že se to zdá poněkud vlažné, pokud jde o nezákonnou činnost, která je vyvolána.

Zákon se prý zaměřuje jen úzce a minimálně vedení audit AI a zveřejnění výsledky, spíše než na to, zda audit AI odhalil zkreslení AI a jaké důsledky to mělo při přijímání rozhodnutí o zaměstnání, která spadají do působnosti tohoto zákona. V podstatě je to zřejmě nezákonné ne rozhodnout se pro provedení takového auditu AI (je-li to možné, jak bylo uvedeno výše), navíc je také nezákonné v případě, že audit AI provádíte, ale ne zveřejnit to.

Zdá se, že zákon mlčí o otázce, zda byly předsudky AI detekovány a přítomny, nebo ne. Stejně tak mlčení o tom, zda předsudky AI ovlivnily někoho souvisejícího s hlavní činností při rozhodování o zaměstnání. Klíčem je zdánlivě jasně „pouze“ provést audit AI a říct o něm.

Nezachází tento zákon dostatečně daleko?

Část protiargumentu pro tvrzení, že je to zdánlivě uspokojivé, pokud jde o rozsah nebo rozsah toho, co tento zákon zahrnuje, je, že pokud audit AI zjistí zkreslení AI a pokud jsou tyto zkreslení AI spojeny s konkrétními případy rozhodování o zaměstnání, osoba nebo osoby takto poškozené by mohly zaměstnavatele stíhat pod ostatní zákony. Není tedy třeba tento aspekt zahrnout do tohoto konkrétního zákona.

Účelem tohoto zákona je údajně takové záležitosti vynést na světlo.

Jakmile vrhnou světlo světa na tyto nepatřičné praktiky, lze využít všechny možné další právní cesty, pokud existují předsudky AI a mají dopad na lidi. Bez tohoto zákona se argumentuje tím, že ti, kteří používají AEDT, by to dělali, zatímco by mohli být šílení a měli by potenciálně tuny zkreslení AI, o kterých by ti, kdo hledají zaměstnání nebo povýšení, nevěděli, že k nim dochází.

Vyneste je na povrch. Nechte je říct. Jděte pod kapotu. Podívejte se, co je uvnitř toho motoru. To je v tomto případě mantra. Z tohoto vynořování a vyprávění lze podniknout další akce.

Kromě hledání právních kroků v důsledku objasnění, že audit AI možná ukázal, že byly přítomny zkreslení AI, existuje také přesvědčení, že zveřejnění těchto výsledků bude mít dopady na reputaci. Zaměstnavatelé, kteří jsou předváděni jako uživatelé AEDT se zaujatostí AI, budou pravděpodobně trpět společenským hněvem, například prostřednictvím sociálních médií a podobně. Budou odhaleni za své zlé činy a zahanbeni napravit své chování a mohou se také ocitnout bez lidí, kteří tam chtějí pracovat, kvůli výčitkám, že předsudky AI brání najímání nebo uzurpování povýšení.

Uvedené sankce spojené s nezákonností jsou tyto:

  • „Penalty. A. Každá osoba, která poruší jakékoli ustanovení této podkapitoly nebo jakékoli pravidlo vyhlášené podle této podkapitoly, bude odpovědná za občanskoprávní pokutu nejvýše 500 USD za první porušení a každé další porušení, ke kterému dojde ve stejný den jako první porušení, a ne méně než 500 USD a více než 1,500 1894 USD za každé další porušení“ (NYC, Int 2020-25, podkapitola 20, oddíl 872-XNUMX). Existují další články, které byste si mohli prohlédnout, pokud vás zajímá právní znění.

Skeptici a kritici tvrdí, že tresty nejsou dostatečně tvrdé. Velká firma by se pravděpodobně vysmívala nebo smála nepatrným dolarovým pokutám, které s tím souvisí. Jiní poukazují na to, že pokuta by mohla být nakonec vyšší, než se zdá, takže pokud by firma měla každý den porušení za tisíc dolarů (pouze jeden scénář, existuje spousta dalších scénářů), roční hodnota by byla přibližně 365,000 XNUMX $, za předpokladu, že firma celý rok prostě ignorovala zákon a prošlo jí to (zdá se těžko představitelné, ale mohlo by se to stát a mohlo by to dokonce nastat déle nebo teoreticky za vyšší kulminaci denních pokut).

Mezitím se někteří obávají menších podniků a s tím spojených pokut. Pokud pokutu postihnou malý podnik, který sotva vydělává, a údajně tak neučinil z úmyslné motivace obcházet zákon, mohly by pokuty podstatně ovlivnit jejich balancující podnikání.

Problematické otázky Keystone v otázce

Mám na vás jednoduchou a přímočarou otázku.

Co přesně v kontextu tohoto zákona představuje audit AI?

Problémem je, že v narativu zákona neexistuje žádná definitivní indikace. Zdá se, že nám bylo řečeno pouze to, že „audit podjatosti“ má být prováděn „nestranným hodnocením nezávislým auditorem“ (ve znění zákona).

Tou zející dírou můžeš projet s náklaďákem Mac.

Zde je důvod.

Zvažte tento poněkud znepokojivý příklad. Podvodník kontaktuje firmu v NYC a vysvětlí, že poskytují takovou službu, že u své AEDT udělají takzvaný „zaujatý audit“. Slibují, že tak učiní „nestranně“ (ať už to znamená cokoli). Vystupují jako nezávislí auditoři a pomazali se jako jeden auditor. Není třeba žádného druhu účetního nebo auditorského školení, titulů, certifikací nebo čehokoli podobného. Možná si dají tu práci a vytisknou si nějaké vizitky nebo narychlo vytvoří webovou stránku, na které vychvalují své postavení nezávislého auditora.

Budou účtovat firmě mírný poplatek řekněme 100 USD. Jejich služba spočívá možná v položení několika otázek o AEDT a poté v prohlášení, že AEDT je ​​neobjektivní. Poté zašlou zprávu o velikosti jedné stránky a deklaruje „výsledky“ tzv. auditu. Firma to svědomitě zveřejňuje na svých webových stránkách.

Dodržela firma tento zákon?

To mi řekni ty.

Zdá se, že mají.

Můžete být okamžitě zaskočeni tím, že audit byl proveden zběžně (v tomto konkrétním scénáři je to zdvořilé a velkorysé). Možná vás znepokojuje, že detekce zkreslení (nebo její absence) byla možná v podstatě předem určena (voila, zdá se, že jste bez zkreslení). Můžete být naštvaní, že zveřejněné výsledky by mohly vzbudit dojem, že jste prošli přísným auditem zkušeným, vyškoleným, zkušeným a certifikovaným auditorem v dobré víře.

Ano, to se týká velikosti věcí.

Zaměstnavateli by se mohlo ulevit, že splnili tento „hloupý“ požadavek, a zatraceně šťastný, že ho to stálo jen ubohých 100 dolarů. Zaměstnavatel si možná vnitřně a v tichosti uvědomí, že nezávislý audit byla šaráda, ale to zdánlivě není na jeho bedrech, aby rozhodl. Byl jim předložen nárokovaný nezávislý auditor, auditor provedl práci, o které auditor prohlásil, že je v souladu, firma za to zaplatila, dostali výsledky a výsledky zveřejnili.

Někteří zaměstnavatelé to udělají a uvědomí si, že postupují v souladu se zákonem. Přesto budou věřit, že jsou plně v souladu.

Ostatní zaměstnavatelé mohou být podvedeni. Jediné, co vědí, je nutnost dodržovat zákon. Naštěstí pro ně (nebo to alespoň předpokládají) je kontaktuje „nezávislý auditor“ a slíbí, že audit stížnosti a výsledek lze provést za 100 dolarů. Aby společnost nedostala denní pokutu 500 dolarů nebo více, myslí si, že jí byl předán dar z nebes. Zaplatí 100 dolarů, provede se „audit“, dostanou zdarma zdravotní potvrzení o jejich nepřítomnosti zkreslení AI, zveřejní výsledky a zapomenou na to, dokud příště nebudou muset provést další takový audit. .

Jak má každá firma v NYC, která podléhá tomuto zákonu, vědět, co je v dobré víře dodržování zákona?

V případě, že se vám už tak trochu nezvedá žaludek, můžeme situaci ještě zhoršit. Doufám, že jste posledních pár hodin nejedli, protože příští zvrat bude těžké udržet nedotčený.

Jste připraveni?

Ukázalo se, že tento poskytovatel falešných služeb je větší kladivo, než jste si možná mysleli. Přimějí firmu, aby se přihlásila do služby v hodnotě 100 USD, aby provedla audit nestranného zkreslení jako nezávislý auditor. Hle, provádějí „audit“ a zjišťují, že v každém koutu a rohu AEDT jsou předsudky.

Mají předsudky AI jako napadení šváby.

Fuj, říká firma, co s tím můžeme dělat?

Žádný problém, říká se jim, můžeme za vás opravit ty zkreslení AI. Bude vás to stát pouhých 50 USD za každou takovou zjištěnou odchylku. Dobře, firma říká, prosím opravte je, díky za to. Poskytovatel služeb trochu prozkoumá kódování a řekne firmě, že opravili sto odchylek AI, a proto jim budou účtovat 5,000 50 $ (to je 100 $ za zkreslení AI, které má být opraveno, vynásobeno XNUMX nalezenými).

Au, firma se cítí sevřená, ale pořád je to lepší, než čelit porušení 500 dolarů nebo více za den, takže zaplatí „nezávislému auditorovi“ a pak dostanou novou zprávu, která ukazuje, že jsou nyní bez zaujatosti. Hrdě to zveřejňují na svých webových stránkách.

Netuší, že to byl podvod, podvod, podvod.

Můžete trvat na tom, že tento poskytovatel služeb by měl být potrestán za své podvody. Chytit a zastavit tyto podvodníky bude mnohem těžší, než si dokážete představit. Stejně jako jít za těmi zahraničními princi, kteří pro vás mají jmění, jsou pravděpodobně v nějaké cizí zemi mimo dosah práva Spojených států, totéž se může stát i v tomto případě.

Očekávejte, že se díky tomuto novému zákonu objeví domácký průmysl.

Budou existovat auditoři bona fide, kteří se budou snažit poskytovat tyto služby. Dobré pro ně. Po této práci budou útržkoví auditoři. Po této práci půjdou falešně proklamovaní auditoři.

Zmínil jsem se, že scénář poskytovatele služeb zahrnoval požadavek na 100 USD za provedení takzvaného auditu AI. To byl jen vymyšlený zástupný symbol. Možná si někteří budou účtovat 10 dolarů (zdá se útržkovité). Možná nějakých 50 dolarů (stále útržkovitě). Atd.

Předpokládejme, že poskytovatel služeb říká, že tato práce bude stát 10,000 XNUMX USD.

Nebo 100,000 XNUMX dolarů za to.

K tomu možná 1,000,000 XNUMX XNUMX $.

Někteří zaměstnavatelé nebudou mít ponětí, kolik by to mohlo nebo mělo stát. Marketing těchto služeb bude zdarma pro všechny. Toto je zákon o vydělávání peněz pro ty, kteří oprávněně provádějí tyto služby, a o vydělávání peněz pro ty, kteří jsou při tom také nepoctiví. Bude těžké zjistit, která je která.

Také vás požádám, abyste se zamysleli nad další zející dírou.

Co přesně v kontextu tohoto zákona představuje zkreslení AI?

Kromě zmínky o kodexu federálních předpisů Spojených států (toto nijak zvlášť neodpovídá na otázku zkreslení umělé inteligence a ergo neslouží jako brzda nebo řešení v této záležitosti), těžko byste tvrdili, že tento nový zákon poskytuje jakýkoli podstatný údaj o tom, co jsou zkreslení AI. Opět to bude zcela otevřené široce nesourodým interpretacím a nebudete zvláště vědět, co se hledalo, co bylo nalezeno atd. Také práce, kterou vykonávají i bona fide auditoři AI, bude téměř pravděpodobně nesrovnatelná s jinou, takže každý bude mít tendenci používat své vlastní definice a přístupy.

Stručně řečeno, můžeme s obavami a obavami sledovat, s čím se zaměstnavatelé setkají v důsledku tohoto volně formulovaného, ​​i když dobře míněného zákona:

  • Někteří zaměstnavatelé budou o zákonech vědět a budou se vážně a plně řídit podle svých nejlepších schopností
  • Někteří zaměstnavatelé budou vědět o zákonech a okrajově se budou řídit tou nejtenčí, nejlevnější a možná i nechutnou cestou, kterou najdou nebo která se k nim dostane.
  • Někteří zaměstnavatelé budou o zákoně vědět a budou se domnívat, že se na ně zákon nevztahuje, takže s tím nic neudělají (i když se ukázalo, že by se na ně mohl vztahovat)
  • Někteří zaměstnavatelé budou o zákonu vědět a rozhodně se ho rozhodnou ignorovat, třeba v domnění, že si toho nikdo nevšimne, nebo že zákon nebude vymáhán, nebo že zákon bude shledán nevymahatelným atd.
  • Někteří zaměstnavatelé nebudou o zákonu vědět a budou přistiženi jako plochá noha, která se snaží vyhovět
  • Někteří zaměstnavatelé nebudou vědět o zákonech a budou bídně podvedeni podvodníky
  • Někteří zaměstnavatelé se o zákonu nedozví, nespadají do jeho působnosti, ale stejně jsou podvedeni podvodníky, kteří je přesvědčují, že se na ně vztahují
  • Někteří zaměstnavatelé o zákonech nebudou vědět a neudělají s tím nic, a přitom se jako zázrakem nikdy nenechají chytit nebo nebudou za svůj dohled uškrceni
  • Ostatní

Jedním ze zásadních aspektů, které je třeba mít na paměti, je velikost nebo škálování spojené s tímto novým zákonem.

Podle různých statistik týkajících se počtu podniků v New Yorku se počet obvykle uvádí někde kolem 200,000 XNUMX podniků (použijme to jako řádovou hodnotu). Za předpokladu, že se jedná o rozumnou aproximaci, pravděpodobně tyto podniky jako zaměstnavatelé podléhají tomuto novému zákonu. Vezměme si tedy výše zmíněných několik způsobů, jak budou zaměstnavatelé reagovat na tento zákon, a zamyslete se nad tím, kolik jich bude v každém z různých kýblů, které jsem právě zmínil.

Je to poměrně ohromující problém škálování.

Navíc, podle hlášených statistik, existují v New Yorku možná 4 miliony pracovních míst v soukromém sektoru plus odhadovaný počet asi 300,000 XNUMX vládních pracovníků zaměstnaných vládou NYC (opět je použijte jako řádové, nikoli přesné počty). Vezmete-li v úvahu, že nově přijatí zaměstnanci zdánlivě spadají do působnosti tohoto nového zákona, spolu s povýšením spojeným se všemi těmi stávajícími a budoucími pracovníky, počet zaměstnanců, kterých se tento zákon tak či onak dotkne, je upřímně řečeno ohromující. .

Velké jablko má nový zákon, který se na první pohled jeví jako neškodný a zdánlivě zanedbatelný nebo všední, ale když si uvědomíte, jaké škálovací faktory s tím souvisí, může se vám z toho zatočit hlava.

Proč investovat do čističky vzduchu?

Na začátku této diskuze jsem zmínil, že jde o dobře míněný nový zákon.

Vše, co jsem právě popsal jako potenciální mezery, opomenutí, mezery, problémy a podobně, lze snadno předvídat. To není žádná raketová věda. Mohl bych dodat, že tento zákon má ještě více inherentních obav a matoucích aspektů, které jsem zde kvůli prostorovým omezením nezmínil.

Najdete je stejně snadno, jako můžete střílet ryby v sudu.

Zákony tohoto druhu by měly být pečlivě vytvořeny, aby se pokusily zabránit těmto druhům záludných end-aroundů. Předpokládám, že seriózní skladatelé se snažili napsat zákon, o kterém se domnívali, že je poměrně železný a že by v nejhorším případě mohl mít tu či tam nějaké malinké malé kapky. Bohužel je to stříkačka kapek. Bude potřeba hodně lepicí pásky.

Mohl být zákon napsán srozumitelněji, aby zacelil tyto zdánlivé mezery a související problémy?

Ano, v hojné míře.

Nyní, když tomu tak je, můžete rozhořčeně nabádat, že takový zákon by byl nepochybně mnohem delší. Vždy existuje kompromis mezi zákonem, který pokračuje a pokračuje, stává se nepraktickým, oproti tomu, že je stručný a kompaktní. Nechcete však získat stručnost při ztrátě toho, co by bylo podstatné a záslužné jasnosti a konkrétnosti. Krátký zákon, který umožňuje podvody, je častým problémem. Delší zákon, i když zdánlivě složitější, by byl obvykle cenným kompromisem, pokud by se vyhnul, odvrátil nebo alespoň minimalizoval následné problémy ve fázi přijetí.

Svatý Augustin řekl: „Zdá se mi, že nespravedlivý zákon není žádným zákonem.

Mohli bychom poskytnout důsledek, že spravedlivý zákon, který se skládá z problematického jazyka, je zákonem, který vyvolává nepříjemné problémy. Zdá se, že v tomto případě nám zbyla moudrá slova velkého právníka Olivera Wendella Holmese Jr., totiž že stránka historie stojí za libru logiky.

Sledujte, jak se brzy budou psát dějiny.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/09/23/ai-ethics-and-the-looming-debacle-when-that-new-york-city-law-requiring-ai- biases-audits-kopy-do-gear/