Odpovědná umělá inteligence se těší mimořádnému nárůstu prostřednictvím etického prohlášení AI od nejvyšší profesionální společnosti ACM

Viděli jste nebo slyšeli zprávy?

Nově byla vyhlášena další sada etických zásad AI.

Bouřlivý potlesk, chcete-li.

Pak znovu, můžete ne všimli jsme si toho díky tomu, že už nějakou dobu koluje tolik dalších etických dekretů AI. Někteří říkají, že zdánlivě nepřetržité prosakování etických proklamací AI začíná být poněkud otupující. Kolik jich potřebujeme? Dokáže s nimi někdo držet krok? Který je nejlepší? Přeháníme snad principy etiky AI? A tak dále.

No, v tomto konkrétním případě říkám, že bychom měli obzvlášť uvítat tento nejnovější přírůstek do klubu.

Za chvíli srozumitelně vysvětlím proč.

Za prvé, pro upřesnění, mám na mysli etické pravidlo AI, které je nyní oficiálně známé jako „Prohlášení o zásadách pro odpovědné algoritmické systémy“ který byl nedávno zveřejněn Radou pro technologickou politiku ACM dne 26. října 2022. Sláva patří týmům odborníků, které daly tento ceněný dokument dohromady, včetně spoluautorů Jeanny Matthews (Clarkson University) a Ricarda Baeza-Yates (Universitat Pompeu Fabra ).

Ti z vás, kteří to vědí, by si při bližším prozkoumání mohli uvědomit, že tento dokument se zdá být lehce povědomý.

Dobré oko!

Tato nejnovější inkarnace je v podstatě aktualizovanou a rozšířenou variantou dřívějšího společného „Prohlášení o algoritmické transparentnosti a odpovědnosti“, které bylo vyhlášeno Výborem pro technologickou politiku ACM USA a Výborem pro technologickou politiku ACM Europe v roce 2017. Věrní čtenáři mých sloupků si možná vzpomenou, že Čas od času jsem zmínil vyhlášku z roku 2017 ve svém sloupci, který pokrývá klíčové aspekty etiky a zákona o umělé inteligenci.

Pro mé rozsáhlé a průběžné hodnocení a analýzy trendů etiky AI a práva AI viz odkaz zde a odkaz zde, Abychom jmenovali jen několik.

Toto poslední prohlášení ACM je zvláště důležité z několika zásadních důvodů.

Zde je důvod.

ACM, což je šikovná zkratka pro Asociace pro výpočetní stroje, je považována za největší světovou asociaci zaměřenou na výpočetní techniku. ACM, která zahrnuje odhadem 110,000 1947 členů, je dlouholetým průkopníkem v oblasti výpočetní techniky. ACM produkuje některé z nejlepších vědeckých výzkumů v oblasti výpočetní techniky a rovněž poskytuje profesionální sítě a oslovuje také odborníky v oblasti výpočetní techniky. Jako taková je ACM důležitým hlasem reprezentujícím obecně ty, kteří jsou high-tech a vytrvale se snaží o pokrok v počítačové oblasti (ACM byla založena v roce XNUMX).

K tomu bych mohl přidat i trochu osobní poznámky. Když jsem se poprvé dostal k počítačům na střední škole, připojil jsem se k ACM a účastnil jsem se jejich vzdělávacích programů, zejména vzrušující šance soutěžit v jejich každoroční soutěži v počítačovém programování (takové soutěže jsou dnes velmi běžné a obvykle se označují jako hackathons). Zůstal jsem zapojen do ACM, zatímco jsem byl na vysoké škole prostřednictvím své místní univerzitní pobočky a dostal jsem příležitost dozvědět se o vedení tím, že jsem se stal důstojníkem studentské kapitoly. Po vstupu do průmyslu jsem vstoupil do profesní kapitoly a znovu převzal vedoucí roli. Později, když jsem se stal profesorem, jsem sloužil v komisích a redakčních radách ACM a sponzoroval jsem studentskou kapitolu. I dnes jsem aktivní v ACM, včetně působení v ACM US Technology Policy Committee.

Vychutnávám si roztomilou a trvalou vizi ACM celoživotního vzdělávání a kariérního rozvoje.

V každém případě, pokud jde o nejnovější prohlášení o etice AI, skutečnost, že toto bylo vydáno ACM, má velkou váhu. Můžete rozumně tvrdit, že etické zásady umělé inteligence jsou souhrnem nebo kolektivním hlasem celosvětové skupiny počítačových profesionálů. To tam něco říká.

Je zde také aspekt, že ostatní v počítačové oblasti budou inspirováni k tomu, aby se vzchopili a naslouchali ve smyslu náležitého zvážení toho, co prohlášení deklarují jejich kolegové z počítače. Tedy i ti, kteří nejsou v ACM nebo nevědí vůbec nic o uctívané skupině, doufejme, že budou mít velký zájem zjistit, o čem prohlášení je.

Mezitím ti, kteří jsou venku z oblasti výpočetní techniky by toto prohlášení mohlo být přitahováno jako jakýsi zákulisní zasvěcený pohled na to, co ti, kdo jsou v počítačích, říkají o Etické umělé inteligenci. Chtěl bych však zdůraznit, že toto prohlášení je určeno všem, nejen těm z počítačové komunity, a proto mějte na paměti, že etické zásady AI jsou takříkajíc plošné.

Nakonec je tu další zvrat, o kterém by uvažoval jen málokdo.

Někdy lidé zvenčí vnímají asociace s počítačem jako po kolena v technologii a nejsou si příliš vědomy společenských dopadů počítačů a umělé inteligence. Můžete být v pokušení předpokládat, že takové profesionální subjekty se starají pouze o nejnovější a nejžhavější objevy v hardwaru nebo softwaru. Veřejností jsou vnímáni jednoduše řečeno drsným způsobem jako techie pitomci.

Abych to uvedl na pravou míru, byl jsem ponořen do sociálních dopadů výpočetní techniky od chvíle, kdy jsem se poprvé dostal k počítačům, a podobně se ACM také těmito tématy hluboce zabývá.

Pro kohokoli, koho překvapilo, že toto prohlášení o etických předpisech AI bylo sestaveno a zveřejněno ACM, nevěnuje pozornost dlouhodobému výzkumu a práci, která v těchto záležitostech probíhá. Rád bych také vyzval, aby si zájemci dobře prohlédli ACM Etický kodex, pronikavý profesionální etický kodex, který se vyvíjel v průběhu let a zdůrazňuje, že vývojáři systémů si musí být vědomi etických důsledků svých snah a zboží, musí je dodržovat a být obezřetní.

Umělá inteligence rozdmýchává oheň tím, že je informována o počítačové etice.

Viditelnost etických a právních úvah v oblasti výpočetní techniky se s nástupem dnešní umělé inteligence nesmírně zvýšila. Pracovníci této profese jsou informováni a občas se o nich bubnuje, aby věnovali náležitou pozornost etice AI a otázkám práva AI. Zákonodárci si stále více uvědomují aspekty etiky a zákonů AI. Společnosti si uvědomují, že umělá inteligence, kterou vymýšlejí nebo používají, je výhodná, ale někdy také otevírá obrovská rizika a potenciální nevýhody.

Pojďme rozbalit to, co se dělo v posledních několika letech, aby bylo možné vytvořit vhodný kontext, než se pustíme do této nejnovější sady etických zásad AI.

Rostoucí povědomí o etické AI

Nedávná éra umělé inteligence byla zpočátku považována za bytí AI pro dobro, což znamená, že bychom mohli použít AI pro zlepšení lidstva. Na patách AI pro dobro došlo k poznání, že jsme také ponořeni AI pro špatné. Patří sem umělá inteligence, která je navržena nebo sama upravena tak, aby byla diskriminační a provádí výpočetní volby, které jsou nepatřičné předsudky. Někdy je AI postavena tímto způsobem, zatímco v jiných případech se obrací do tohoto neznámého území.

Chci se ujistit, že jsme na stejné stránce ohledně povahy dnešní umělé inteligence.

Dnes neexistuje žádná AI, která by byla vnímavá. Tohle my nemáme. Nevíme, zda bude vnímající AI možná. Nikdo nemůže výstižně předpovědět, zda dosáhneme vnímající AI, ani zda se vnímající AI nějakým zázrakem spontánně objeví ve formě výpočetní kognitivní supernovy (obvykle označované jako singularita, viz moje pokrytí na odkaz zde).

Typ AI, na který se zaměřuji, se skládá z necítivé AI, kterou máme dnes. Pokud bychom chtěli divoce spekulovat o vnímavé AI, mohla by se tato diskuse ubírat radikálně jiným směrem. Vnímavá AI by měla mít lidské kvality. Měli byste vzít v úvahu, že vnímající AI je kognitivní ekvivalent člověka. Navíc, protože někteří spekulují, že bychom mohli mít superinteligentní AI, je možné si představit, že taková AI by mohla být chytřejší než lidé (pro můj průzkum superinteligentní AI jako možnosti viz. pokrytí zde).

Důrazně bych navrhoval, abychom věci drželi při zemi a zvážili dnešní výpočetní necitlivou AI.

Uvědomte si, že dnešní umělá inteligence není schopna „myslet“ žádným způsobem na stejné úrovni jako lidské myšlení. Když komunikujete s Alexou nebo Siri, konverzační schopnosti se mohou zdát podobné lidským schopnostem, ale skutečnost je taková, že jsou výpočetní a postrádají lidské poznání. Nejnovější éra umělé inteligence široce využívá strojové učení (ML) a hluboké učení (DL), které využívají porovnávání výpočetních vzorů. To vedlo k systémům umělé inteligence, které vypadají jako lidské sklony. Mezitím dnes neexistuje žádná umělá inteligence, která by měla zdání zdravého rozumu, ani žádný z kognitivních zázraků robustního lidského myšlení.

Buďte velmi opatrní při antropomorfizaci dnešní AI.

ML/DL je forma porovnávání výpočetních vzorů. Obvyklý přístup je takový, že shromažďujete data o úloze rozhodování. Data vkládáte do počítačových modelů ML/DL. Tyto modely se snaží najít matematické vzorce. Po nalezení takových vzorů, pokud jsou nalezeny, systém umělé inteligence tyto vzory použije, když narazí na nová data. Po předložení nových dat se pro vykreslení aktuálního rozhodnutí použijí vzory založené na „starých“ nebo historických datech.

Myslím, že můžete hádat, kam to směřuje. Pokud lidé, kteří se rozhodovali podle vzoru, začlenili nežádoucí předsudky, je pravděpodobné, že data to odrážejí jemnými, ale významnými způsoby. Počítačové porovnávání vzorů Machine Learning nebo Deep Learning se jednoduše pokusí odpovídajícím způsobem matematicky napodobit data. Neexistuje žádné zdání zdravého rozumu nebo jiných vnímavých aspektů modelování vytvořeného umělou inteligencí jako takového.

Kromě toho si vývojáři AI nemusí uvědomit, co se děje. Tajemná matematika v ML/DL může ztížit odhalení nyní skrytých předsudků. Oprávněně byste doufali a očekávali, že vývojáři umělé inteligence budou testovat potenciálně pohřbené předsudky, i když je to složitější, než by se mohlo zdát. Existuje solidní šance, že i přes poměrně rozsáhlé testování, že v modelech porovnávání vzorů ML/DL budou stále zakomponovány zkreslení.

Dalo by se tak trochu použít slavné nebo nechvalně známé pořekadlo o smetí-do odpadu-ven. Jde o to, že je to spíše podobné předsudkům – in, které se zákeřně prolínají, když se předsudky ponoří do AI. Algoritmus rozhodování (ADM) umělé inteligence je axiomaticky zatížen nerovnostmi.

Špatný.

To vše má pozoruhodně významné důsledky pro etiku umělé inteligence a nabízí praktické okno do získaných lekcí (dokonce ještě předtím, než k nim dojde), pokud jde o pokusy o uzákonění umělé inteligence.

Kromě toho, že obecně používáme etické zásady AI, existuje odpovídající otázka, zda bychom měli mít zákony, které by řídily různá použití AI. Na federální, státní a místní úrovni se šíří nové zákony, které se týkají rozsahu a povahy toho, jak by měla být umělá inteligence navržena. Snaha navrhnout a přijmout takové zákony je postupná. Etika umělé inteligence slouží přinejmenším jako zvažovaná překážka a téměř jistě bude do určité míry přímo začleněna do těchto nových zákonů.

Uvědomte si, že někteří neústupně tvrdí, že nepotřebujeme nové zákony, které pokrývají AI, a že naše stávající zákony jsou dostatečné. Varují, že pokud uzákoníme některé z těchto zákonů AI, zabijeme zlatou husu tím, že potlačíme pokroky v AI, které nabízejí obrovské společenské výhody.

V předchozích sloupcích jsem pokryl různé národní a mezinárodní snahy o vytvoření a uzákonění zákonů regulujících umělou inteligenci, viz odkaz zde, například. Zabýval jsem se také různými principy a směrnicemi etiky AI, které různé národy identifikovaly a přijaly, včetně například úsilí OSN, jako je soubor etiky AI UNESCO, který přijalo téměř 200 zemí, viz. odkaz zde.

Zde je užitečný základní seznam etických kritérií nebo charakteristik AI systémů AI, které jsem dříve podrobně prozkoumal:

  • Průhlednost
  • Spravedlnost a férovost
  • Neškodlivost
  • Odpovědnost
  • Ochrana osobních údajů
  • Dobročinnost
  • Svoboda a autonomie
  • Věřte
  • udržitelnost
  • Důstojnost
  • Solidarita

Předpokládá se, že tyto zásady etiky AI budou vážně využívat vývojáři AI spolu s těmi, kteří řídí úsilí o vývoj AI, a dokonce i ti, kteří nakonec používají a provádějí údržbu systémů AI.

Všechny zúčastněné strany během celého životního cyklu vývoje a používání AI jsou posuzovány v rámci dodržování zavedených norem etické AI. To je důležité upozornit, protože obvyklý předpoklad je, že „pouze kodéři“ nebo ti, kteří programují AI, podléhají dodržování etických pojmů AI. Jak již bylo zdůrazněno v tomto dokumentu, vymyslet a nasadit AI je zapotřebí vesnice, v níž se celá vesnice musí orientovat a dodržovat etické předpisy AI.

Nedávno jsem také zkoumal Listina práv AI což je oficiální název oficiálního dokumentu vlády USA s názvem „Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People“, který byl výsledkem celoročního úsilí Úřadu pro politiku vědy a technologie (OSTP ). OSTP je federální entita, která slouží k poradenství americkému prezidentovi a výkonnému úřadu USA v různých technologických, vědeckých a inženýrských aspektech národního významu. V tomto smyslu lze říci, že tato listina práv AI je dokument schválený a schválený stávajícím Bílým domem USA.

V listině práv AI je pět základních kategorií:

  • Bezpečné a efektivní systémy
  • Algoritmické diskriminační ochrany
  • ochranu osobních údajů
  • Upozornění a vysvětlení
  • Lidské alternativy, ohleduplnost a záložní řešení

Pečlivě jsem si ty předpisy prošel, viz odkaz zde.

Nyní, když jsem položil užitečný základ na tato související témata etiky AI a práva AI, jsme připraveni skočit do nedávno vydaného ACM „Statement On Principles For Responsible Algorithmic Systems“ (mimochodem, protože název dokumentu odkazuje na odpovědný algoritmické systémy, možná se budete chtít podívat na můj odhad toho, co to znamená mluvit Důvěryhodná AI, Viz odkaz zde).

Připravte se na cestu k této nejnovější sadě etických zásad AI.

Zaostřeno na etické zásady AI deklarované ACM

Prohlášení ACM o etické AI se skládá z těchto devíti základních kamenů:

  • Legitimita a kompetence
  • Minimalizace škod
  • Bezpečnost a soukromí
  • Průhlednost
  • Interpretovatelnost a vysvětlitelnost
  • Udržitelnost
  • Spornost a auditovatelnost
  • Zodpovědnost a zodpovědnost
  • Omezení dopadů na životní prostředí

Pokud porovnáte tuto nejnovější sadu s jinými pozoruhodně dostupnými sadami, je mezi nimi velká podobnost nebo podobná korespondence.

Na jednu stranu to můžete brát jako dobré znamení.

Obecně bychom mohli doufat, že přehršel etických principů AI, které se vznášejí kolem, se všechny spojují směrem ke stejnému celkovému pokrytí. Když vidíte, že jedna sada je poněkud srovnatelná s jinou, získáte zdání sebevědomí, že tyto sady jsou ve stejném parku a nejsou nějak mimo záhadné levé pole.

Někteří si mohou stěžovat na to, že tyto různé soubory se zdají být zhruba stejné, což pak možná vytváří zmatek nebo přinejmenším zděšení kvůli pochybám, že bychom neměli mít četné zdánlivě duplicitní seznamy. Nemůže tam být jen jeden seznam? Problém je samozřejmě v tom, že neexistuje jednoduchý způsob, jak zajistit, aby všechny takové seznamy byly jednotně přesně stejné. Různé skupiny a různé entity k tomu přistupovaly různými způsoby. Dobrou zprávou je, že téměř všichni dospěli ke stejnému zastřešujícímu závěru. Můžeme si ulevit, že sety nemají velké rozdíly, což by nás možná zneklidnilo, kdyby nepanoval celkový konsenzus.

Protistrana by mohla nabádat, že shodnost těchto seznamů je znepokojující, a argumentovat tím, že možná probíhá skupinové myšlení. Možná všechny tyto nesourodé skupiny uvažují stejným způsobem a nejsou schopny se dívat za hranice normy. Všichni padáme do stejné pasti. Seznamy zdánlivě ukotvují naše myšlení a nejsme schopni vidět dál, než za vlastní nos.

Dívat se za naše nosy je nepochybně záslužná věc.

Jsem samozřejmě otevřen tomu, abych slyšel, co říkají protiklady. Někdy zachytí něco, co má Titánský míří k obřímu ledovci. Mohlo by se nám hodit pár vyhlídek z orlího oka. Ale v otázce těchto etických zásad AI nebylo odpůrci definitivně vyjádřeno nic, co by zjevně podkopávalo nebo vzbuzovalo obavy z nepatřičné shody. Myslím, že se máme dobře.

V této sadě ACM je několik zvláště pozoruhodných nebo výjimečných bodů, o kterých si myslím, že si zaslouží zvláštní pozornost.

Za prvé, líbí se mi frázování na nejvyšší úrovni, které je poněkud odlišné od normy.

Například s odkazem na legitimitu a kompetence (první položka s odrážkou) evokuje zdání důležitosti návrhářských a manažerských kompetencí spojených s AI. Kromě toho, legitimnost catchphrase skončí tím, že nás zavede do etiky AI a Oblast práva AI. Říkám to proto, že mnoho etických předpisů AI se téměř výhradně soustředí na etické důsledky, ale zdá se, že opomíjejí nebo se ostýchají poznamenat i právní důsledky. V právní oblasti jsou etické úvahy často nabízeny jako „měkké zákony“, zatímco zákony v knihách jsou vykládány jako „tvrdé zákony“ (což znamená, že nesou váhu právních soudů).

Jeden z mých nejoblíbenějších výroků všech dob pronesl slavný právník Earl Warren: „V civilizovaném životě se právo vznáší v moři etiky.“

Musíme se ujistit, že etické zásady AI také zahrnují a zdůrazňují tvrdou právní stránku věcí, jako je navrhování, přijímání a vymáhání zákonů AI.

Za druhé oceňuji, že seznam obsahuje soutěživost a auditovatelnost.

Opakovaně jsem psal o hodnotě schopnosti bojovat nebo vztyčit červenou vlajku, když podléháte systému AI, viz. odkaz zde. Kromě toho budeme stále častěji svědky nových zákonů, které nutí k auditu systémů AI, o kterých jsem dlouze diskutoval o zákonu New York City (NYC) o auditu zkreslení systémů AI používaných pro najímání a povyšování zaměstnanců, viz. odkaz zde. Bohužel, a jak jsem otevřeně kritizoval nový zákon NYC, pokud jsou tyto zákony o auditovatelnosti chybné, pravděpodobně vytvoří více problémů, než vyřeší.

Zatřetí, dochází k postupnému probouzení, že umělá inteligence může naplňovat problémy udržitelnosti, a jsem rád, že životního prostředí téma získalo nejvyšší úroveň účtování v těchto etických předpisech AI (viz poslední odrážka seznamu).

Samotný akt vytvoření systému umělé inteligence může spotřebovat spoustu výpočetních zdrojů. Tyto výpočetní zdroje mohou být přímo nebo nepřímo uzurpátory udržitelnosti. Je třeba zvážit kompromis, pokud jde o výhody, které AI poskytuje, oproti nákladům, které s AI přicházejí. Poslední z položek ACM s odrážkami upozorňuje na udržitelnost a ekologické aspekty, které s AI vznikají. Mé pokrytí problémů uhlíkové stopy souvisejících s umělou inteligencí viz odkaz zde.

Nyní, když jsme se podívali do nebeských výšin na seznam ACM etických zásad AI, zasuneme prsty hlouběji do vod.

Zde jsou oficiální popisy každého z etických zásad AI na vysoké úrovni (citováno z formálního prohlášení):

1. "Legitimita a kompetence: Návrháři algoritmických systémů by měli mít řídící pravomoc a výslovné oprávnění takové systémy budovat a zavádět. Musí mít také odborné znalosti v oblasti aplikací, vědecký základ pro zamýšlené použití systémů a zúčastněné strany, kterých se systém dotýká, je obecně považují za sociálně legitimní. Je třeba provést právní a etická posouzení, aby se potvrdilo, že všechna rizika, která systémy zavedou, budou úměrná řešeným problémům a že všechny relevantní zainteresované strany chápou jakékoli kompromisy mezi přínosy a poškozením.“

2. "Minimalizace škod: Manažeři, návrháři, vývojáři, uživatelé a další zainteresované strany algoritmických systémů by si měli být vědomi možných chyb a zkreslení souvisejících s jejich návrhem, implementací a používáním a potenciální škody, které může systém způsobit jednotlivcům a společnosti. Organizace by měly běžně provádět hodnocení dopadů na systémy, které používají, aby určily, zda by systém mohl způsobit újmu, zejména diskriminační, a aby uplatňovaly vhodná zmírnění. Pokud je to možné, měli by se poučit z měření skutečného výkonu, nikoli pouze ze vzorců minulých rozhodnutí, která sama o sobě mohla být diskriminační.“

3. "Zabezpečení a soukromí: Riziko ze strany se zlými úmysly lze zmírnit zavedením osvědčených postupů v oblasti zabezpečení a ochrany soukromí v každé fázi životního cyklu systémů, včetně robustních kontrol ke zmírnění nových zranitelností, které se objevují v kontextu algoritmických systémů.“

4. "Transparentnost: Vývojářům systémů se doporučuje, aby jasně zdokumentovali způsob, jakým byly konkrétní datové sady, proměnné a modely vybrány pro vývoj, školení, validaci a testování, a také konkrétní opatření, která byla použita k zajištění kvality dat a výstupu. Systémy by měly uvádět svou úroveň důvěry v každý výstup a lidé by měli zasáhnout, když je důvěra nízká. Vývojáři by také měli zdokumentovat přístupy, které byly použity k prozkoumání potenciálních zkreslení. U systémů s kritickým dopadem na život a pohodu by měly být vyžadovány postupy nezávislého ověřování a validace. Veřejná kontrola dat a modelů poskytuje maximální příležitost k nápravě. Vývojáři by proto měli ve veřejném zájmu usnadnit testování třetími stranami.

5. "Interpretovatelnost a vysvětlitelnost: Manažeři algoritmických systémů se vyzývají, aby produkovali informace týkající se jak postupů, které použité algoritmy dodržují (interpretovatelnost), tak konkrétních rozhodnutí, která dělají (vysvětlitelnost). Vysvětlitelnost může být stejně důležitá jako přesnost, zejména v kontextu veřejné politiky nebo v jakémkoli prostředí, ve kterém existují obavy z toho, jak by mohly být algoritmy zkresleny tak, aby prospívaly jedné skupině nad druhou bez uznání. Je důležité rozlišovat mezi vysvětleními a následnými racionalizacemi, které neodrážejí důkazy nebo rozhodovací proces použitý k dosažení vysvětlovaného závěru.“

6. "Udržitelnost: Důkazy o spolehlivosti všech algoritmických systémů by měly být shromažďovány během jejich životního cyklu, včetně dokumentace systémových požadavků, návrhu nebo implementace změn, testovacích případů a výsledků a protokolu nalezených a opravených chyb. Správná údržba může vyžadovat přeškolení systémů s novými tréninkovými daty a/nebo výměnu použitých modelů.“

7. "Sporitelnost a auditovatelnost: Regulátoři by měli podporovat přijetí mechanismů, které jednotlivcům a skupinám umožní zpochybňovat výsledky a hledat nápravu nepříznivých účinků vyplývajících z rozhodnutí založených na základě algoritmů. Manažeři by měli zajistit, aby data, modely, algoritmy a rozhodnutí byly zaznamenávány, aby mohly být auditovány a výsledky replikovány v případech, kdy je podezření nebo údajné poškození. Auditní strategie by měly být zveřejněny, aby jednotlivcům, organizacím veřejného zájmu a výzkumníkům umožnily přezkoumat a doporučit zlepšení.“

8. "Zodpovědnost a zodpovědnost: Veřejné a soukromé subjekty by měly nést odpovědnost za rozhodnutí učiněná algoritmy, které používají, i když není možné podrobně vysvětlit, jak tyto algoritmy přinesly výsledky. Tyto orgány by měly být odpovědné za celé systémy, jak jsou rozmístěny v jejich specifických kontextech, nikoli pouze za jednotlivé části, které daný systém tvoří. Když jsou zjištěny problémy v automatizovaných systémech, organizace odpovědné za nasazení těchto systémů by měly zdokumentovat konkrétní akce, které podniknou k nápravě problému, a za jakých okolností by mělo být používání takových technologií pozastaveno nebo ukončeno.

9. "Omezení dopadů na životní prostředí: Algoritmické systémy by měly být navrženy tak, aby podávaly zprávy o odhadech dopadů na životní prostředí, včetně emisí uhlíku ze školení a provozních výpočtů. Systémy umělé inteligence by měly být navrženy tak, aby zajistily, že jejich emise uhlíku jsou přiměřené vzhledem k míře přesnosti, kterou vyžaduje kontext, ve kterém jsou nasazeny.“

Věřím, že každé z těchto zásadních předpisů etiky umělé inteligence si pečlivě a dříve přečtete. Prosím, vezměte si je k srdci.

Proč investovat do čističky vzduchu?

Existuje jemná, ale stejně zásadní část prohlášení ACM, kterou, jak věřím, by mnozí mohli neúmyslně přehlédnout. Dovolte mi, abych vás na to upozornil.

Narážím na část, která pojednává o mučivém hlavolamu nutnosti zvažovat kompromisy spojené s etickými předpisy AI. Víte, většina lidí při čtení etických principů umělé inteligence často bezmyšlenkovitě pokyvuje hlavou a předpokládá, že všechny předpisy mají stejnou váhu a všem předpisům bude vždy dána stejná optimální podoba úcty a hodnoty.

Ne ve skutečném světě.

Jakmile se guma setká s vozovkou, jakýkoli druh umělé inteligence, který je byť jen trochu složitý, ošklivě otestuje etické zásady umělé inteligence, pokud jde o některé prvky, které jsou dostatečně dosažitelné oproti jiným principům. Uvědomuji si, že možná hlasitě křičíte, že veškerá umělá inteligence musí maximalizovat všechna pravidla etiky umělé inteligence, ale to není příliš realistické. Pokud chcete zaujmout toto stanovisko, troufám si říci, že byste pravděpodobně museli říct většině nebo téměř všem výrobcům a uživatelům umělé inteligence, aby zavřeli obchod a AI úplně opustili.

Aby se umělá inteligence dostala ze dveří, je třeba dělat kompromisy. Jak již bylo řečeno, neobhajuji ostříhání, která porušují etická pravidla AI, ani nenaznačuji, že by měly porušovat zákony AI. Musí být splněno určité minimum, nad které je cílem se více snažit. Nakonec je třeba pečlivě zvážit rovnováhu. Tento akt vyvažování musí být proveden s rozmyslem, explicitně, zákonně as etikou AI jako bona fide a upřímně zastávanou vírou (možná byste chtěli vidět, jak společnosti využívají rady pro etiku AI, aby se pokusily získat tento slavnostní přístup, viz odkaz zde).

Zde jsou některé body s odrážkami, které prohlášení ACM zmiňuje o složitosti kompromisů (citováno z formálního dokumentu):

  • "Řešení by měla být úměrná řešenému problému, i když to ovlivňuje složitost nebo cenu (např. odmítnutí použití veřejného video dohledu pro jednoduchý předpovědní úkol)."
  • „Měla by být zvážena široká škála výkonnostních metrik, které mohou být váženy odlišně v závislosti na doméně aplikace. Například v některých zdravotnických aplikacích mohou být účinky falešně negativních výsledků mnohem horší než falešně pozitivní, zatímco v trestním soudnictví mohou být důsledky falešných pozitivních výsledků (např. uvěznění nevinné osoby) mnohem horší než falešně negativní. Nejžádanější nastavení operačního systému je zřídka to s maximální přesností.“
  • „Obavy ohledně soukromí, ochrany obchodních tajemství nebo odhalení analýz, které by mohly umožnit zlomyslným aktérům hrát se systémem, mohou ospravedlnit omezení přístupu na kvalifikované jednotlivce, ale neměly by být používány k ospravedlnění omezování kontroly třetí stranou nebo k omluvě vývojářů z povinnosti. uznat a opravit chyby."
  • „Transparentnost musí být spojena s procesy odpovědnosti, které umožňují zúčastněným stranám ovlivněným algoritmickým systémem hledat smysluplnou nápravu způsobených škod. Transparentnost by se neměla používat k legitimizaci systému nebo k přenášení odpovědnosti na jiné strany.
  • „Pokud je dopad systému vysoký, může být vhodnější vysvětlitelný systém. V mnoha případech neexistuje žádný kompromis mezi vysvětlitelností a přesností. V některých kontextech však mohou být nesprávná vysvětlení ještě horší než žádné vysvětlení (např. ve zdravotnických systémech může symptom odpovídat mnoha možným nemocem, nejen jedné).“

Ti, kteří vyvíjejí nebo používají AI, si nemusí zjevně uvědomovat kompromisy, kterým čelí. Vrcholní lídři firmy mohou naivně předpokládat, že umělá inteligence splňuje maxima všech etických zásad AI. Buď tomu věří, protože o AI nemají ponětí, nebo tomu chtějí věřit a možná na to mrknou, aby si AI snadno osvojili.

Je pravděpodobné, že neschopnost věcně a otevřeně čelit kompromisům skončí s AI, která způsobí škodu. Tyto škody na oplátku pravděpodobně otevřou společnost potenciálně rozsáhlým závazkům. Kromě toho mohou pro možné trestné činy spojené s AI platit konvenční zákony, spolu s novějšími zákony zaměřenými na AI, které na to také zasahují. Tuna cihel čeká nad hlavami těch, kteří si myslí, že mohou obejít kompromisy nebo kteří si hluboce neuvědomují, že kompromisy existují (nevyhnutelně na ně dopadne zdrcující poznání).

Na toto téma dám prozatím poslední slovo závěrečnému aspektu prohlášení ACM, protože si myslím, že odvádí robustní práci při vysvětlování toho, co tyto etické předpisy AI makroskopicky mají přinést:

  • „Předchozí doporučení se zaměřují na odpovědný návrh, vývoj a používání algoritmických systémů; odpovědnost musí být stanovena zákonem a veřejným pořádkem. Rostoucí síla algoritmických systémů a jejich použití v životně kritických a následných aplikacích znamená, že při jejich používání je třeba věnovat velkou pozornost. Těchto devět základních principů má být inspirativní při zahajování diskusí, zahajování výzkumu a vývoji metod řízení, které přinesou výhody širokému spektru uživatelů a zároveň budou podporovat spolehlivost, bezpečnost a odpovědnost. V konečném důsledku je to konkrétní kontext, který definuje správný návrh a použití algoritmického systému ve spolupráci se zástupci všech dotčených zainteresovaných stran“ (citováno z formálního dokumentu).

Jak nám moudrá slova prozíravě říkají, cesta dlouhá tisíc mil začíná prvním krokem.

Vyzývám vás, abyste se seznámili s etikou AI a zákonem o AI, udělali jakýkoli první krok, který vám pomůže nastartovat, a poté pomohli pokračovat v těchto zásadních snahách. Krása je, že jsme stále v plenkách sbírání, jak zvládnout a společensky se s AI vyrovnat, takže se dostáváte do přízemí a vaše úsilí může prokazatelně utvářet vaši budoucnost a budoucnost nás všech.

Cesta AI právě začala a životně důležité první kroky stále probíhají.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-esteemed-computing- profesní-sdružení-acm/