Etika AI a zákon o AI objasňující, co je ve skutečnosti AI důvěryhodná

Důvěra je všechno, jak se říká.

Významný filozof Lao Tzu řekl, že kdo dostatečně nedůvěřuje, tomu nebude důvěřováno. Ernest Hemingway, vážený romanopisec, prohlásil, že nejlepší způsob, jak zjistit, zda můžete někomu věřit, je věřit mu.

Mezitím se zdá, že důvěra je drahocenná i křehká. Důvěra, kterou člověk má, se může zhroutit jako domeček z karet nebo náhle prasknout jako prasklý balónek.

Starořecký tragéd Sofokles tvrdil, že důvěra umírá, ale nedůvěra kvete. Francouzský filozof a matematik Descartes tvrdil, že je rozumné nikdy zcela nedůvěřovat těm, kteří nás byť jen jednou oklamali. Výjimečný miliardář obchodní investor Warren Buffett nabádal, že vybudování důvěryhodné pověsti trvá dvacet let a její zničení trvá pět minut.

Možná vás překvapí, že všechny tyto různé pohledy a provokativní názory na důvěru jsou zásadní pro příchod umělé inteligence (AI).

Ano, existuje něco, o čem se mluví důvěryhodná AI která si v dnešní době neustále získává zatraceně velkou pozornost, včetně ručních výkřiků z oblasti umělé inteligence a také bouřlivých výbuchů ze strany lidí mimo sféru umělé inteligence. Celková představa znamená, zda společnost bude nebo nebude ochotna důvěřovat systémům umělé inteligence.

Pravděpodobně, pokud společnost nebude nebo nemůže věřit AI, je pravděpodobné, že systémy AI selžou při získávání trakce. Umělá inteligence, jak ji v současnosti známe, bude odsunuta stranou a bude pouze sbírat prach. Šokující je, že umělá inteligence mohla skončit na hromadě odpadu, historicky odsunutá k ničemu jinému než k zoufale vyzkoušenému, ale spektakulárně neúspěšnému experimentu v oblasti špičkových technologií. Jakékoli snahy o oživení umělé inteligence by potenciálně čelily obrovské bitvě a byly by zastaveny všemi možnými námitkami a přímými protesty. Zdánlivě kvůli nedostatku důvěry v AI.

Která to bude, máme věřit AI, nebo nemáme věřit AI?

V podstatě budeme mít skutečně důvěryhodnou AI?

To jsou dávné a nevyřešené otázky. Pojďme to rozbalit.

Etika umělé inteligence a boj o důvěryhodnou umělou inteligenci

Mnoho lidí v AI věří, že vývojáři systémů AI mohou získat důvěru v AI tím, že vhodně navrhnou AI, která je důvěryhodná. Podstatou je, že nemůžete doufat, že získáte důvěru, pokud AI není na začátku zdánlivě důvěryhodná. Vytvořením systémů umělé inteligence způsobem, který je vnímán jako důvěryhodný, existuje solidní šance, že lidé přijmou umělou inteligenci a osvojí si její využití.

Jednou z výčitek, které již naráží na toto důvěryhodné uvažování o AI, je, že jsme již mohli být v a deficit důvěry veřejnosti pokud jde o AI. Dalo by se říci, že umělá inteligence, kterou jsme již viděli, vykopala díru a rozvrátila důvěru v obrovském množství. Místo toho, aby začínala na nějakém dostatečném základu důvěryhodnosti, bude tedy AI muset překvapivě vylézt z deficitu a získat každou požadovanou unci přidané důvěry, která bude potřeba k přesvědčení lidí, že AI je ve skutečnosti důvěryhodná.

Do této výzvy přichází etika a právo umělé inteligence.

Etika umělé inteligence a právo umělé inteligence se mocně potýkají s tím, jak zjistit, co je potřeba k tomu, aby byla AI důvěryhodná. Někteří naznačují, že existuje vzorec nebo pevné zákony, které dostanou AI do důvěryhodného nebe. Jiní naznačují, že získat vychvalovanou důvěru společnosti bude vyžadovat tvrdou práci a důsledné a neúnavné dodržování etiky a zákonů AI.

Současná hádanka o důvěře v AI není sama o sobě nijak nová.

Můžete se snadno vrátit do konce 1990. let a vysledovat vznik hledané touhy po „důvěryhodném počítači“ z těch dob. Šlo o rozsáhlou snahu technologického průmyslu zjistit, zda lze všechny počítače vyrobit způsobem, který by společnost považoval za důvěryhodný.

Klíčové otázky se skládaly z:

  • Mohl by být počítačový hardware vyroben tak, aby byl důvěryhodný?
  • Mohl by být software vytvořen tak, aby byl důvěryhodný?
  • Mohli bychom zavést globální síťové počítače, které by byly důvěryhodné?
  • A tak dále.

Tehdy převládal názor, který přetrvává dodnes, že důvěryhodná výpočetní technika zůstává typem svatého grálu, který bohužel stále není zcela na dosah (jak je uvedeno v článku nazvaném „Důvěryhodná AI“ v Komunikace ACM). Můžete přesvědčivě namítnout, že umělá inteligence je další složkou důvěryhodnosti výpočetní techniky, ale díky umělé inteligenci je hledání důvěry ještě náročnější a nejistější. Umělá inteligence se stala potenciálním spoilerem v boji o dosažení důvěryhodných počítačů. Možná nejslabší článek řetězu, jak to bylo.

Pojďme se v rychlosti podívat na to, proč nás umělá inteligence vzbudila v tom, že jsme méně důvěryhodní. Kromě toho prozkoumáme principy etiky umělé inteligence, které, jak doufáme, pomohou podpořit již tak polopodvodní vnímanou důvěru (nebo bublající nedůvěru) dnešní umělé inteligence. Pro mé pokračující a rozsáhlé pokrytí etiky AI viz odkaz zde a odkaz zde, Abychom jmenovali jen několik.

Jeden konkrétní segment nebo část etiky umělé inteligence, kterému se dostává velké pozornosti médií, se skládá z umělé inteligence, která vykazuje nepatřičné předsudky a nespravedlnosti. Možná si uvědomujete, že když začala nejnovější éra umělé inteligence, došlo k obrovskému výbuchu nadšení z toho, co někteří dnes nazývají AI pro dobro. Bohužel v patách toho tryskajícího vzrušení jsme začali být svědky AI pro špatné. Například bylo odhaleno, že různé systémy rozpoznávání obličeje založené na umělé inteligenci obsahují rasové a genderové předsudky, o kterých jsem mluvil na odkaz zde.

Snahy bránit se AI pro špatné aktivně probíhají. Kromě hlučného právní ve snaze omezit provinění na uzdě existuje také podstatný tlak na přijetí etiky umělé inteligence, aby se napravila odpornost umělé inteligence. Myšlenka je taková, že bychom měli přijmout a schválit klíčové etické principy umělé inteligence pro rozvoj a nasazení umělé inteligence, abychom podkopali AI pro špatné a současně ohlašovat a propagovat preferované AI pro dobro.

Pokud jde o související představu, jsem zastáncem pokusu o použití umělé inteligence jako součásti řešení problémů s umělou inteligencí a bojování ohně ohněm tímto způsobem myšlení. Mohli bychom například začlenit komponenty Etické umělé inteligence do systému umělé inteligence, který bude monitorovat, jak zbytek umělé inteligence dělá věci, a tak potenciálně v reálném čase zachytit jakékoli diskriminační snahy, viz moje diskuze na odkaz zde. Mohli bychom mít také samostatný systém AI, který funguje jako typ monitoru etiky AI. Systém umělé inteligence slouží jako dozorce, který sleduje a zjišťuje, kdy se jiná umělá inteligence dostává do neetické propasti (viz moje analýza takových schopností na odkaz zde).

Za chvíli se s vámi podělím o některé zastřešující principy, které jsou základem etiky umělé inteligence. Takových seznamů se tu a tam pohybuje spousta. Dalo by se říci, že zatím neexistuje jediný seznam univerzální přitažlivosti a souběžnosti. To je ta nešťastná zpráva. Dobrou zprávou je, že alespoň existují snadno dostupné seznamy etiky AI a bývají velmi podobné. Celkově to naznačuje, že formou odůvodněné konvergence svého druhu nacházíme cestu k obecné shodě toho, z čeho se skládá etika umělé inteligence.

Nejprve si stručně proberme některé z celkových etických zásad umělé inteligence, abychom ilustrovali, co by mělo být životně důležitým faktorem pro každého, kdo umělou inteligenci tvoří, využívá nebo používá.

Například, jak uvádí Vatikán v Řím vyzývá k etice umělé inteligence a jak jsem se podrobně věnoval odkaz zdeToto je jejich identifikovaných šest primárních etických principů AI:

  • Transparentnost: V zásadě musí být systémy umělé inteligence vysvětlitelné
  • zařazení: Potřeby všech lidských bytostí musí být brány v úvahu, aby každý mohl mít prospěch a všem jednotlivcům mohly být nabídnuty nejlepší možné podmínky k vyjádření a rozvoji.
  • Odpovědnost: Ti, kdo navrhují a nasazují použití AI, musí postupovat zodpovědně a transparentně
  • Nestrannost: Nevytvářejte ani nejednajte podle zaujatosti, a tím si zajistěte spravedlnost a lidskou důstojnost
  • Spolehlivost: Systémy umělé inteligence musí být schopny spolehlivě fungovat
  • Zabezpečení a soukromí: Systémy umělé inteligence musí fungovat bezpečně a respektovat soukromí uživatelů.

Jak uvedlo americké ministerstvo obrany (DoD) ve svém Etické zásady pro používání umělé inteligence a jak jsem se podrobně věnoval odkaz zde, toto je jejich šest primárních etických principů AI:

  • Odpovědný: Personál ministerstva obrany bude uplatňovat přiměřenou úroveň úsudku a péče, přičemž zůstane odpovědný za vývoj, nasazení a používání schopností AI.
  • Spravedlivý: Ministerstvo podnikne promyšlené kroky k minimalizaci nezamýšleného zkreslení schopností AI.
  • sledovatelné: Schopnosti AI ministerstva budou vyvinuty a rozmístěny tak, aby příslušní pracovníci měli odpovídající znalosti o technologii, vývojových procesech a provozních metodách použitelných pro schopnosti AI, včetně transparentních a auditovatelných metodologií, zdrojů dat a návrhových postupů a dokumentace.
  • Spolehlivý: Schopnosti umělé inteligence ministerstva budou mít explicitní, dobře definovaná použití a bezpečnost, zabezpečení a účinnost těchto schopností bude předmětem testování a zajištění v rámci těchto definovaných použití během celého životního cyklu.
  • ovladatelný: Ministerstvo navrhne a zkonstruuje schopnosti umělé inteligence tak, aby plnily zamýšlené funkce, přičemž bude mít schopnost detekovat a vyhnout se nezamýšleným následkům a schopnost odpojit nebo deaktivovat nasazené systémy, které vykazují nezamýšlené chování.

Diskutoval jsem také o různých kolektivních analýzách etických principů umělé inteligence, včetně toho, že jsem se zabýval souborem navrženým výzkumníky, kteří zkoumali a zhušťovali podstatu mnoha národních a mezinárodních zásad etiky umělé inteligence v dokumentu nazvaném „The Global Landscape Of AI Ethics Guidelines“ (publikováno v Příroda), a které mé pokrytí zkoumá na odkaz zde, což vedlo k tomuto klíčovému seznamu:

  • Průhlednost
  • Spravedlnost a férovost
  • Neškodlivost
  • Odpovědnost
  • Ochrana osobních údajů
  • Dobročinnost
  • Svoboda a autonomie
  • Věřte
  • udržitelnost
  • Důstojnost
  • Solidarita

Jak můžete přímo hádat, pokusit se určit specifika, která jsou základem těchto principů, může být extrémně obtížné. Snaha přeměnit tyto široké principy v něco zcela hmatatelného a dostatečně podrobného, ​​aby to bylo možné použít při vytváření systémů umělé inteligence, je navíc tvrdým oříškem. Celkově je snadné mávnout rukou nad tím, co jsou etická pravidla AI a jak by se měly obecně dodržovat, zatímco v kódování AI je mnohem složitější situace, kdy musí být opravdová guma, která splňuje silnici.

Principy AI etiky mají využívat vývojáři AI spolu s těmi, kteří řídí úsilí o vývoj AI, a dokonce i ti, kteří nakonec nasazují a provádějí údržbu systémů AI. Všechny zúčastněné strany během celého životního cyklu vývoje a používání AI jsou posuzovány v rámci dodržování zavedených norem etické AI. To je důležitý bod, protože obvyklý předpoklad je, že „pouze kodéři“ nebo ti, kteří programují AI, podléhají etickému pojetí AI. Jak již bylo řečeno, k vymýšlení a nasazení AI je zapotřebí vesnice a celá vesnice musí být zběhlá a dodržovat etická pravidla AI.

Pojďme se také ujistit, že jsme na stejné stránce ohledně povahy dnešní umělé inteligence.

Dnes neexistuje žádná AI, která by byla vnímavá. Tohle my nemáme. Nevíme, zda bude vnímající AI možná. Nikdo nemůže výstižně předpovědět, zda dosáhneme vnímající AI, ani zda se vnímající AI nějakým zázrakem spontánně objeví ve formě výpočetní kognitivní supernovy (obvykle označované jako singularita, viz moje pokrytí na odkaz zde).

Typ AI, na který se zaměřuji, se skládá z necítivé AI, kterou máme dnes. Pokud bychom chtěli divoce spekulovat o cítící AI, tato diskuse by se mohla ubírat radikálně jiným směrem. Vnímavá AI by měla mít lidské kvality. Měli byste vzít v úvahu, že vnímající AI je kognitivní ekvivalent člověka. Navíc, protože někteří spekulují, že bychom mohli mít superinteligentní AI, je možné, že taková AI by mohla být chytřejší než lidé (pro můj průzkum superinteligentní AI jako možnosti viz. pokrytí zde).

Nechme věci více při zemi a uvažujme o dnešní výpočetní necítivé umělé inteligenci.

Uvědomte si, že dnešní umělá inteligence není schopna „myslet“ žádným způsobem na stejné úrovni jako lidské myšlení. Když komunikujete s Alexou nebo Siri, konverzační schopnosti se mohou zdát podobné lidským schopnostem, ale skutečnost je taková, že jsou výpočetní a postrádají lidské poznání. Nejnovější éra umělé inteligence široce využívá strojové učení (ML) a hluboké učení (DL), které využívají porovnávání výpočetních vzorů. To vedlo k systémům umělé inteligence, které vypadají jako lidské sklony. Mezitím dnes neexistuje žádná umělá inteligence, která by měla zdání zdravého rozumu, ani žádný z kognitivních zázraků robustního lidského myšlení.

ML/DL je forma porovnávání výpočetních vzorů. Obvyklý přístup je takový, že shromažďujete data o úloze rozhodování. Data vkládáte do počítačových modelů ML/DL. Tyto modely se snaží najít matematické vzorce. Po nalezení takových vzorů, pokud jsou nalezeny, systém umělé inteligence tyto vzory použije, když narazí na nová data. Po předložení nových dat se pro vykreslení aktuálního rozhodnutí použijí vzory založené na „starých“ nebo historických datech.

Myslím, že můžete hádat, kam to směřuje. Pokud lidé, kteří se rozhodovali podle vzoru, začlenili nežádoucí předsudky, je pravděpodobné, že data to odrážejí jemnými, ale významnými způsoby. Počítačové porovnávání vzorů Machine Learning nebo Deep Learning se jednoduše pokusí odpovídajícím způsobem matematicky napodobit data. Neexistuje žádné zdání zdravého rozumu nebo jiných vnímavých aspektů modelování vytvořeného umělou inteligencí jako takového.

Kromě toho si vývojáři AI nemusí uvědomit, co se děje. Tajemná matematika v ML/DL může ztížit odhalení nyní skrytých předsudků. Oprávněně byste doufali a očekávali, že vývojáři umělé inteligence budou testovat potenciálně pohřbené předsudky, i když je to složitější, než by se mohlo zdát. Existuje solidní šance, že i přes poměrně rozsáhlé testování, že v modelech porovnávání vzorů ML/DL budou stále zakomponovány zkreslení.

Dalo by se tak trochu použít slavné nebo nechvalně známé pořekadlo o smetí-do odpadu-ven. Jde o to, že je to spíše podobné předsudkům – in, které se zákeřně prolínají, když se předsudky ponoří do AI. Algoritmus rozhodování (ADM) umělé inteligence je axiomaticky zatížen nerovnostmi.

Špatný.

Spojme to s otázkou o důvěryhodné umělé inteligenci

Rozhodně se nezdá, že bychom byli ochotni věřit AI, která předvádí nepříznivé předsudky a diskriminační akce. V takovém případě bychom se domnívali, že taková AI rozhodně není důvěryhodná, takže bychom se přiklonili k aktivní nedůvěře AI. Aniž bychom to přehnali s antropomorfním srovnáním (o antropomorfizaci umělé inteligence řeknu více za chvíli), člověk, který projevoval nepatřičné zaujatosti, by byl také hodnocen jako nedůvěryhodný.

Kopání do důvěry a důvěryhodnosti

Možná bychom se měli podívat na to, co máme na mysli, když tvrdíme, že někomu nebo něčemu věříme nebo nevěříme. Nejprve se zamyslete nad několika každodenními slovníkovými definicemi důvěry.

Příklady toho, co definitivně znamená důvěra, jsou:

  • Zaručená spoléhání se na charakter, schopnosti, sílu nebo pravdu někoho nebo něčeho (Merriam-Webster online slovník).
  • Spoléhání se na integritu, sílu, schopnosti, jistotu atd. osoby nebo věci (Dictionary.com)
  • Pevná víra ve spolehlivost, pravdu, schopnosti nebo sílu někoho nebo něčeho (online slovník Oxfordských jazyků).

Rád bych zdůraznil, že všechny tyto definice odkazují na „někoho“ a podobně odkazují na „něco“ jako na potenciálně důvěryhodné. To je pozoruhodné, protože někteří mohou trvat na tom, že věříme pouze lidem a že akt důvěry je vyhrazen výhradně lidstvu jako našemu cíli důvěryhodnosti. Není tak. Svému kuchyňskému toustovači můžete důvěřovat. Pokud se zdá, že spolehlivě připraví váš toust a funguje to běžně, můžete mít s jistotou zdání důvěry, zda je toustovač skutečně důvěryhodný.

Ve stejném směru myšlení může být AI také předmětem našeho pohledu důvěry. Je pravděpodobné, že důvěra spojená s umělou inteligencí bude mnohem složitější než řekněme obyčejný toustovač. Toustovač obvykle umí jen několik akcí. Systém umělé inteligence bude pravděpodobně mnohem složitější a zdá se, že funguje méně transparentně. Naše schopnost posuzovat a zjišťovat důvěryhodnost umělé inteligence bude jistě mnohem obtížnější a přináší různé výzvy.

Kromě toho, že je typický systém umělé inteligence složitější, říká se, že je nedeterministický a potenciálně samoregulační nebo samonastavitelný. Tento pojem můžeme stručně prozkoumat.

Deterministický stroj má tendenci dělat stejné věci znovu a znovu, předvídatelně a s reálně rozpoznatelným vzorem toho, jak funguje. Dalo by se říci, že běžný toustovač toastuje zhruba stejným způsobem a má ovládací prvky opékání, které moderují opékání, přičemž všechny tyto možnosti jsou obecně předvídatelné osobou používající toustovač. Naproti tomu složité systémy umělé inteligence jsou často navrženy jako nedeterministické, což znamená, že mohou dělat docela jiné věci, než byste jinak očekávali. To by mohlo být částečně také zesíleno, pokud je AI napsána tak, aby se sama přizpůsobovala, což je aspekt, který může výhodně umožnit zlepšení AI v případě ML/DL, i když může také znepokojivě způsobit, že AI zakolísá nebo vstoupí do řad. špatnosti AI. Svým způsobem jste možná nevěděli, co vás zasáhlo, protože vás akce AI zastihly zcela nepřipravené.

Co bychom mohli udělat, abychom se pokusili přiblížit AI důvěryhodnosti?

Jeden přístup spočívá ve snaze zajistit, aby ti, kdo budují a používají AI, dodržovali sadu etických zásad AI. Jak uvedli tito výzkumníci AI: „Důvěra je postoj, že se agent bude chovat podle očekávání a lze se na něj spolehnout, že dosáhne svého cíle. Důvěra se rozpadne po chybě nebo nedorozumění mezi agentem a důvěřujícím jednotlivcem. Psychologický stav důvěry v AI je vynořující se vlastností komplexního systému, který obvykle zahrnuje mnoho cyklů návrhu, školení, nasazení, měření výkonu, regulace, přepracování a přeškolování“ (uvedeno v Komunikace ACM, „Důvěra, regulace a umělá inteligence člověka v rámci evropského regionu“ od Stuarta Middletona, Emmanuela Letouze, Aliho Hossainiho a Adriane Chapman, duben 2022).

Podstatou je, že pokud se nám podaří přimět vývojáře AI, aby se řídili etickou AI, doufejme, že nakonec vytvoří důvěryhodnou AI. To vše je dobré a dobré, ale v reálném světě se to zdá poněkud nepraktické, i když je to absolutně cesta, kterou stojí za to jít.

Tady mám na mysli.

Předpokládejme, že vývojáři umělé inteligence vyvíjejí usilovné úsilí při vytváření systému umělé inteligence pro nějaký účel, který budeme obecně nazývat X. Pečlivě se ujistili, že umělá inteligence dodržuje zásady transparentnosti etiky umělé inteligence. Důrazně zajišťují, že soukromí je vhodně zabudováno do AI. Téměř u všech obvyklých principů etiky umělé inteligence tvůrci umělé inteligence důkladně zajišťují, že umělá inteligence splňuje daný předpis.

Měli byste nyní věřit AI?

Dovolte mi, abych vám pomohl prosvítit vaše myšlenky na tuto otevřenou otázku.

Ukázalo se, že kybernetickým podvodníkům se podařilo infiltrovat AI a tajně přimět AI, aby provedla X, a přesto také nakrmila kybernetické hackery veškerá data, která AI shromažďuje. Tím tito zločinci zákeřně porušují zásadu soukromí. Blaženě netušíte, že se to děje pod kapotou AI.

S touto přidanou informací se vás znovu zeptám na stejnou otázku.

Věříš té AI?

Troufám si říct, že většina lidí by hned prohlásila, že určitě ano ne důvěřovat této konkrétní AI. Možná tomu dříve věřili. Nyní se rozhodli, že již nebudou považovat AI za důvěryhodnou.

Několik klíčových poznatků založených na tomto jednoduchém příkladu stojí za zamyšlení:

  • Dynamika důvěry. Ani sebelepší úmysly pokrýt všechny základy zajištění toho, aby etika umělé inteligence byla zabudována do systému umělé inteligence, nejsou zárukou toho, čím by se umělá inteligence mohla vyvinout nebo stát. Jakmile je umělá inteligence uvedena do provozu, mohou cizinci potenciálně podkopat etické přírůstky umělé inteligence.
  • Podkopávání důvěry zevnitř. Akt podkopávání důvěryhodnosti nemusí být nutně outsidery. Zasvěcenec, který provádí pravidelnou údržbu systému AI, by mohl zmýlit a oslabit AI tak, aby byla méně důvěryhodná. Tento vývojář AI může mít ponětí o tom, co vytvořil.
  • Neúmyslné kompromisy důvěry. Samočinně se přizpůsobující nebo samoregulující AI se může v určitém okamžiku přizpůsobit a přejít do nedůvěryhodné oblasti. Možná se AI pokouší posílit transparentnost AI, a přesto současně a nevhodně kompromituje aspekty ochrany osobních údajů.
  • Rozptyl důvěry. Snaha dosáhnout všech zásad etiky umělé inteligence na stejný nejvyšší stupeň důvěryhodnosti obvykle není snadno proveditelná, protože se často jedná o různé účely nebo jiné přirozené potenciální konflikty. Věřit, že všechny etické zásady umělé inteligence jsou zasněně sladěné a všechny dosažitelné do určité stejně maximalizovatelné míry, je spíše idealizovaná perspektiva.
  • Získání důvěry může být nákladné. Náklady na pokus o dosažení špičkového zdání důvěryhodné umělé inteligence prostřednictvím různých rozsáhlých a vyčerpávajících kroků a dodržování litanií zásad etiky umělé inteligence budou poměrně vysoké. Můžete snadno namítnout, že náklady by byly neúnosné, pokud jde o používání některých systémů umělé inteligence, které jinak mají pro společnost důležitou hodnotu, i když by umělá inteligence byla řekněme méně než ideální z touhy po důvěryhodnosti.
  • A tak dále.

Nevykládejte si předchozí poznámky tak, že naznačují, že bychom měli nějak odvrátit snahu o důkladné vybudování a nasazení důvěryhodné AI. Vyhodili byste dítě s vaničkou, jak to bylo. Správná interpretace je taková, že potřebujeme dělat ty důvěřivé aktivity, abychom dostali AI do důvěryhodného posouzení, a přesto to samo o sobě není všelék ani stříbrná kulka.

Vícebodové cesty k důvěryhodné umělé inteligenci

Existují důležité další mnohostranné způsoby, jak usilovat o důvěryhodnou AI.

Například, jak jsem již dříve popsal ve svých sloupcích, nesčetné množství nově vznikajících zákonů a předpisů týkajících se umělé inteligence má za cíl přimět tvůrce umělé inteligence k vytvoření důvěryhodné umělé inteligence, viz. odkaz zde a odkaz zde.

Tyto právní mantinely jsou zásadní jako zastřešující prostředek k zajištění toho, aby ti, kdo vymýšlejí AI, byli za svou AI plně zodpovědní. Bez takových potenciálních právních opravných prostředků a zákonných sankcí budou ti, kteří spěchají s umělou inteligencí na trh, pravděpodobně v tom pokračovat s malým, pokud vůbec nějakým vážným ohledem na dosažení důvěryhodné umělé inteligence. Zejména bych mohl dodat, že pokud jsou tyto zákony a předpisy špatně navrženy nebo neadekvátně implementovány, mohly by bohužel podkopat snahu o důvěryhodnou AI, možná ironicky a podivně podporovat nedůvěryhodnou AI před důvěryhodnou AI (další vysvětlení viz diskuse v mém sloupku).

Byl jsem také oddaným zastáncem toho, o čem jsem horlivě hovořil AI roboti strážného anděla (viz moje pokrytí na odkaz zde). Jedná se o nadcházející metodu nebo přístup pokusu bojovat s ohněm ohněm, konkrétně pomocí umělé inteligence, která nám pomůže vypořádat se s jinou umělou inteligencí, která může nebo nemusí být důvěryhodná.

Za prvé, nějaký kontext pozadí bude užitečný.

Předpokládejme, že se rozhodnete spoléhat na systém umělé inteligence, u kterého si nejste jisti jeho důvěryhodností. Klíčovým problémem by mohlo být, že jste sami ve svých pokusech zjistit, zda se má AI věřit nebo ne. AI je potenciálně výpočetně rychlejší než vy a může vás využít. Potřebujete někoho nebo něco na vaší straně, aby vám pomohl.

Jedna perspektiva je, že by vždy měl existovat člověk ve smyčce, který vám bude pomáhat při používání systému AI. Toto je ovšem problematické řešení. Pokud umělá inteligence pracuje v reálném čase, o čemž budeme za chvíli diskutovat, až dojde na příchod samořídících aut na bázi umělé inteligence, nemusí být přítomnost člověka ve smyčce dostačující. Umělá inteligence by mohla jednat v reálném čase a ve chvíli, kdy do obrazu vstoupí určený člověk ve smyčce, aby zjistil, zda AI funguje správně, mohlo již dojít ke katastrofálnímu výsledku.

Kromě toho to přináší další faktor o důvěře. Obvykle přidělujeme úroveň důvěry na základě kontextu nebo okolností, kterým čelíme. Můžete plně důvěřovat svému batolecímu synovi nebo dceři, že vám budou věrní, ale pokud se vydáte na túru a rozhodnete se spolehnout na batole, že vám řekne, zda je bezpečné šlápnout na okraj útesu, myslím, že byste byl moudrý. zvážit, zda batole může poskytnout takovou radu na život a na smrt. Dítě to může dělat vážně a upřímně, a přesto není schopno takovou radu adekvátně poskytnout.

Stejný pojem je spojen s důvěrou, pokud jde o AI. Systém umělé inteligence, který používáte ke hře v dámu nebo šachy, pravděpodobně není zapojen do žádných úvah o životě a smrti. Můžete být klidnější s přidělením důvěry. Samořízené auto založené na umělé inteligenci, které se řítí po dálnici vysokou rychlostí, vyžaduje mnohem namáhavější úroveň důvěry. Sebemenší pohyb AI řídícího systému může vést přímo k vaší smrti a smrti ostatních.

V publikovaném rozhovoru Beeny Ammanath, výkonné ředitelky Global Deloitte AI Institute a autorky knihy důvěryhodná AI, podobný důraz na zvážení kontextových aspektů toho, kde hraje důvěryhodnost AI: „Pokud vytváříte řešení AI, které provádí diagnostiku pacientů, jsou férovost a zaujatost velmi důležité. Ale pokud vytváříte algoritmus, který předpovídá selhání proudového motoru, není férovost a zkreslení tak důležité. Důvěryhodná umělá inteligence je skutečně struktura, která vás přiměje začít přemýšlet o rozměrech důvěry ve vaší organizaci“ (VentureBeat, 22. března 2022).

Když mluvíte o důvěryhodné umělé inteligenci, můžete si toto téma vyložit mnoha způsoby.

Například, důvěryhodná AI je něco, co všichni považujeme za žádoucí a aspirační cíl, totiž že bychom měli toužit po vymýšlení a šíření důvěryhodné umělé inteligence. Existuje další použití sloganu. Poněkud alternativní použití je to důvěryhodná AI je stav stavu nebo měření, takže někdo může tvrdit, že vytvořil systém AI, který je instancí důvěryhodné AI. Můžete také použít frázi důvěryhodná AI navrhnout metodu nebo přístup, který lze použít k dosažení důvěryhodnosti AI. Atd.

V souvislosti s tím věřím, že si uvědomujete, že ne všechna umělá inteligence je stejná a že musíme dbát na to, abychom nedělali paušální prohlášení o celé umělé inteligenci. Konkrétní systém umělé inteligence se bude pravděpodobně výrazně lišit od jiného systému umělé inteligence. Jeden z těchto systémů umělé inteligence může být vysoce důvěryhodný, zatímco druhý může být jen okrajově důvěryhodný. Buďte opatrní, když nějak předpokládáme, že AI je monolit, který je buď zcela důvěryhodný, nebo zcela nedůvěryhodný.

To prostě není tento případ.

Dále bych rád stručně popsal některé z mých probíhajících výzkumů o důvěryhodné umělé inteligenci, které by vás mohly zajímat, a pokrývají tak vznikající roli AI roboti strážného anděla.

Jak to chodí?

Byli byste vyzbrojeni systémem AI (botem AI strážného anděla), který je navržen tak, aby změřil důvěryhodnost jiného systému AI. U robota AI strážného anděla je prvořadá pozornost vaší bezpečnosti. Přemýšlejte o tom, jako byste měli prostředky ke sledování umělé inteligence, na kterou se spoléháte, tím, že máte ve skutečné kapse jiný systém umělé inteligence, který možná běží na vašem smartphonu nebo jiných podobných zařízeních. Váš příslovečný strážce umělé inteligence může počítat na základě toho, co dělá také umělá inteligence, na kterou se spoléháte, pracuje vysokou rychlostí a vypočítává aktuální situaci v reálném čase, mnohem rychleji, než by to dokázal člověk ve smyčce.

Možná si na první pohled myslíte, že AI, na kterou už spoléháte, by nějakou mít měla interní Umělé zábradlí, které dělají totéž jako tento samostatně počítající robot AI strážného anděla. Ano, to by bylo jistě žádoucí. Jedna pochybnost spočívá v tom, že ochranné zábradlí umělé inteligence zabudované do systému umělé inteligence může být integrálně a nepříznivě zarovnáno s umělou inteligencí jako takovou, takže předpokládané zábradlí umělé inteligence již není schopné v jistém smyslu nezávisle ověřovat nebo ověřovat AI.

Kontrastní myšlenkou je, že váš robot AI strážného anděla je nezávislý mechanismus AI nebo třetí strany, který se liší od AI, na kterou spoléháte. Stojí mimo ostatní AI, zůstává oddaný vám a nevěnuje se AI, která je monitorována nebo hodnocena.

Přímý způsob uvažování o tom lze vyjádřit pomocí následujících zjednodušených výroků podobných rovnicím. Můžeme říci, že „P“ si přeje potenciálně důvěřovat „R“ při provedení konkrétního úkolu „X“:

Toto by bylo následující, pokud jsou zapojeni pouze lidé:

  • Osoba P důvěřuje osobě R, že udělá úkol X.

Když se rozhodneme spoléhat na AI, prohlášení se změní na toto:

  • Osoba P důvěřuje AI instance-R, že provede úkol X.

Robota AI strážného anděla můžeme přidat takto:

  • Osoba P důvěřuje AI instanci-R, aby provedla úkol X jako monitorovaný robotem instance-Z AI strážného anděla

Robot strážného anděla AI neúnavně a neúnavně hodnotí AI, na kterou spoléháte. Váš šikovný strážce AI vás proto může upozornit, že důvěra této jiné AI je neopodstatněná. Nebo může strážce umělé inteligence elektronicky interagovat s jinou umělou inteligencí, aby se pokusil zajistit, aby jakákoli odchylka od důvěryhodnosti byla rychle opravena atd. (viz moje pokrytí těchto podrobností na odkaz zde).

Metafora Trusty Trust Reservoir

Vzhledem k tomu, že diskutujeme o různých úrovních důvěry, mohla by se vám hodit užitečná metafora o důvěryhodnosti tím, že důvěru pojmete jako typ rezervoáru.

Máte určitou míru důvěry pro konkrétní osobu nebo věc za konkrétních okolností a v určitém okamžiku. Úroveň důvěry bude stoupat nebo klesat v závislosti na tom, co se stane v souvislosti s touto konkrétní osobou nebo věcí. Důvěra může být na nulové úrovni, když k osobě nebo věci nedůvěřujete vůbec. Důvěra může být negativní, když se pustíte do nedůvěry k této osobě nebo věci.

V případě systémů AI vaše rezervoár důvěry pro konkrétní AI, na kterou se za konkrétních okolností spoléháte, bude stoupat nebo klesat v závislosti na vašem hodnocení důvěryhodnosti AI. Občas si můžete být dobře vědomi této různé úrovně důvěry v AI, zatímco v jiných případech si můžete být vědomi méně a spíše tím, že budete tušit, že budete o důvěryhodnosti soudit.

Mezi způsoby, o kterých jsme zde diskutovali, jak zvýšit úroveň důvěry pro AI, patří:

  • Dodržování etiky AI. Pokud byla umělá inteligence, na kterou spoléháte, navržena tak, že jste se snažili dodržovat správné zásady etiky umělé inteligence, pravděpodobně byste toto porozumění využili ke zvýšení úrovně svého rezervoáru důvěry pro tento konkrétní systém umělé inteligence. Jako vedlejší poznámku je také možné, že byste mohli zobecnit na jiné systémy AI, pokud jde o jejich důvěryhodnost, podobně, i když to může být někdy zavádějící forma toho, čemu říkám Šíření aury důvěry AI (při tom buďte opatrní!).
  • Použijte Human-In-The-Loop. Pokud má AI člověka ve smyčce, můžete pozitivně přispět k vaší vnímané důvěře v AI.
  • Stanovte zákony a předpisy. Pokud existují zákony a předpisy spojené s tímto konkrétním typem AI, můžete také zvýšit úroveň své důvěry.
  • Zaměstnejte robota AI Guardian Angel. Pokud máte připraveného robota AI strážného anděla, také to zvýší vaši úroveň důvěry.

Jak již bylo zmíněno dříve, důvěra může být docela křehká a v mžiku se rozpadne (tj. rezervoár důvěry rychle a náhle vysype veškerou vybudovanou důvěru).

Představte si, že jste uvnitř samořídícího auta založeného na AI a AI jedoucí náhle udělá radikální zatáčku doprava, což způsobí skřípání kol a autonomní vozidlo málem donutí k nebezpečnému převrácení. Co by se stalo s vaší úrovní důvěry? Zdálo by se, že i když jste dříve drželi AI na zvýšené úrovni důvěry, dramaticky a náhle byste svou úroveň důvěry snížili, rozumně ano.

Vsadil bych se, že v tomto okamžiku této závažné diskuse si přejete další ilustrativní příklady, které by mohly ukázat povahu a rozsah důvěryhodné umělé inteligence. Existuje speciální a jistě oblíbený soubor příkladů, které jsou mému srdci blízké. Víte, jako odborník na AI včetně etických a právních důsledků jsem často žádán, abych identifikoval realistické příklady, které předvádějí dilemata etiky AI, aby bylo možné snáze pochopit poněkud teoretickou povahu tématu. Jednou z nejvíce sugestivních oblastí, která živě představuje tento etický problém umělé inteligence, je příchod skutečně samořídících aut založených na umělé inteligenci. To poslouží jako praktický příklad použití nebo příklad pro rozsáhlou diskusi na dané téma.

Zde je pak pozoruhodná otázka, která stojí za zamyšlení: Osvětluje příchod skutečně samořídících aut založených na umělé inteligenci něco o snaze o důvěryhodnou umělou inteligenci, a pokud ano, co to ukazuje?

Dovolte mi chvíli rozbalit otázku.

Za prvé, všimněte si, že ve skutečném samořídícím autě není žádný lidský řidič. Mějte na paměti, že skutečně samořídící auta jsou řízena systémem AI. Není potřeba, aby za volantem byl lidský řidič, ani neexistuje ustanovení, aby vozidlo řídil člověk. Pro mé rozsáhlé a průběžné pokrytí Autonomních vozidel (AV) a zejména samořiditelných vozů viz odkaz zde.

Rád bych dále objasnil, co je míněno, když mluvím o skutečných samořídících autech.

Porozumění úrovním samořídících automobilů

Pro upřesnění, skutečná samořídící auta jsou ta, kde AI řídí auto zcela samo a při řízení není žádná lidská pomoc.

Tato vozidla bez řidiče jsou považována za úroveň 4 a úroveň 5 (viz mé vysvětlení na adrese odkaz zde), zatímco vůz, který vyžaduje, aby se na řízení společně podílel lidský řidič, se obvykle považuje za úroveň 2 nebo úroveň 3. Vozy, které spolu sdílejí úkol řízení, jsou popsány jako semi-autonomní a obvykle obsahují různé automatizované doplňky, které se označují jako ADAS (Advanced Driver-Assistance Systems).

Na úrovni 5 ještě není skutečné auto s vlastním řízením a ještě ani nevíme, zda toho bude možné dosáhnout, ani jak dlouho bude trvat, než se tam dostaneme.

Mezitím se úsilí úrovně 4 postupně snaží získat určitou trakci tím, že podstupují velmi úzké a selektivní testy na veřejných komunikacích, ačkoli existuje spor o to, zda by toto testování mělo být povoleno jako takové (všichni jsme pokusnými pokusnými králíky na život a na smrt odehrávající se na našich dálnicích a vedlejších cestách, někteří tvrdí, viz moje zpravodajství na odkaz zde).

Protože poloautonomní auta vyžadují řidiče, přijetí těchto typů automobilů se nebude výrazně lišit od řízení konvenčních vozidel, takže o tomto tématu není samo o sobě nic nového (jak vidíte, uvidíte) za okamžik jsou obecně použitelné následující body).

U poloautonomních automobilů je důležité, aby veřejnost musela být upozorněna na znepokojující aspekt, který se objevuje v poslední době, a to navzdory těm lidským řidičům, kteří neustále vysílají videa, která usínají za volantem auta úrovně 2 nebo 3 , všichni se musíme vyhnout tomu, aby byli uvedeni v omyl v přesvědčení, že řidič může odvrátit jejich pozornost od úkolu řízení při řízení poloautonomního automobilu.

Jste odpovědnou stranou za řízení vozidla, bez ohledu na to, kolik automatizace může být hodeno do úrovně 2 nebo úrovně 3.

Samořídící auta a důvěryhodná AI

U vozidel s vlastním řízením úrovně 4 a 5 nebude do řízení zapojen lidský řidič.

Všichni cestující budou cestující.

AI řídí.

Jedním z aspektů, které je třeba okamžitě projednat, je skutečnost, že umělá inteligence zapojená do dnešních řídicích systémů umělé inteligence není vnímavá. Jinými slovy, AI je celkově kolektiv počítačového programování a algoritmů a nejspíše není schopen uvažovat stejným způsobem jako lidé.

Proč je tento dodatečný důraz na to, aby AI nebyla vnímavá?

Protože chci zdůraznit, že při diskusi o roli řídícího systému AI nepřičítám AI lidské vlastnosti. Uvědomte si, že v dnešní době existuje trvalá a nebezpečná tendence k antropomorfizaci AI. V zásadě lidé dnešní AI připisují lidskou vnímavost, a to navzdory nepopiratelné a nepopiratelné skutečnosti, že taková AI dosud neexistuje.

S tímto vysvětlením si můžete představit, že systém řízení AI nebude nativně nějak „vědět“ o aspektech řízení. Řízení a vše, co to obnáší, bude muset být naprogramováno jako součást hardwaru a softwaru samořízeného automobilu.

Pojďme se ponořit do nesčetných aspektů, které na toto téma hrají.

Zaprvé je důležité si uvědomit, že ne všechna samořídící auta s umělou inteligencí jsou stejná. Každá automobilka a technologická firma s vlastním řízením přistupuje k navrhování samořídících vozů. Jako takové je obtížné činit rozsáhlá prohlášení o tom, co budou či nebudou dělat řídicí systémy AI.

Kromě toho, kdykoli uvedou, že řídící systém AI nedělá nějakou konkrétní věc, může to později předběhnout vývojáři, kteří ve skutečnosti naprogramují počítač, aby udělal právě tuto věc. Krok za krokem se postupně zdokonalují a rozšiřují systémy řízení AI. Stávající omezení dnes již nemusí existovat v budoucí iteraci nebo verzi systému.

Věřím, že to poskytne dostatečnou litanii námitek, které jsou základem toho, o čem se chystám vyprávět.

Nyní jsme připraveni se hluboce ponořit do samořídících aut a důvěryhodné umělé inteligence.

Důvěra je vším, zvláště v případě samořídících aut založených na umělé inteligenci.

Zdá se, že společnost ostražitě sleduje vznik samořiditelných aut. Na jedné straně je velká naděje, že příchod opravdových samořiditelných aut prokazatelně sníží počet každoročních úmrtí souvisejících s automobilem. Jen ve Spojených státech je ročně asi 40,000 2.5 úmrtí a asi XNUMX milionu zraněných kvůli autonehodám, viz moje sbírka statistik na odkaz zde. Lidé pijí a řídí. Lidé řídí, když jsou nepozorní. Zdá se, že úkol řídit auto spočívá v tom, abychom se mohli opakovaně a neomylně soustředit na řízení a vyhýbat se autonehodě. Jako takoví bychom mohli zasněně doufat, že řídicí systémy AI budou samořídící auta navádět opakovaně a neomylně. Samořídící auta můžete chápat jako dvojici, která spočívá ve snížení počtu úmrtí a zranění při autonehodě spolu s potenciálním zpřístupněním mobility na mnohem širším a přístupném základě.

Mezitím však panuje obava ze společenského vnímání, zda budou samořídící auta dostatečně bezpečná, aby mohla být na našich veřejných komunikacích obecně.

Pokud se byť jen jedno samořídící auto dostane do nehody nebo kolize, která vede k jedinému úmrtí nebo vážnému zranění, můžete pravděpodobně očekávat, že dnešní poněkud budovaná důvěra k těm autům bez řidiče založeným na umělé inteligenci strmě poklesne. Viděli jsme, jak se to stalo, když došlo k nyní nechvalně známému incidentu v Arizoně, který se týkal poněkud (ne)samořídícího auta, které narazilo a zabilo chodce (viz moje reportáž na odkaz zde).

Někteří učenci poukazují na to, že je nespravedlivé a nevhodné zakládat důvěru v samořídící auta s umělou inteligencí na tom, že pouze jedna taková další smrtící nehoda nebo kolize by mohla podkopat již tak relativně beznárazové veřejné zkoušky na vozovce. Kromě toho, na dalším neférovém základě, je pravděpodobné, že bez ohledu na to, která konkrétní značka nebo model samořídícího auta s umělou inteligencí se možná zaplete do žalostného incidentu, společnost by nepochybně obviňovala všechny značky samořídících aut.

Celá samořiditelná auta by mohla být souhrnně pošpiněna a průmysl jako celek by mohl utrpět obrovský odpor, který by vedl k možnému zastavení všech zkoušek na veřejných komunikacích.

Přispěvatelem k takovému zpětnému rázu jsou nesmyslné proklamace otevřených zastánců samořídících aut, že všechna auta bez řidiče budou nebouratelná. Tato představa o nezničitelnosti je nejen naprosto mylná (viz odkaz zde), zákeřně nastavuje průmysl samořídících automobilů pro zcela mimořádná očekávání. Tato podivná a nedosažitelná prohlášení, že kvůli samořídícím autům nedojde k nulovým úmrtím, podněcují mylnou představu, že jakékoli autonehody bez řidiče jsou jistým znamením, že celá sada a kaboodle jsou k ničemu.

Je zde zřetelný smutek, když si uvědomíme, že pokrok směrem k autonomně řízeným autům a postupné hromadění společenské důvěry by mohly být okamžitě zmařeny. To bude pořádná ukázka křehkosti důvěry.

Proč investovat do čističky vzduchu?

Mnoho výrobců automobilů a samořídících technologických firem obecně dodržuje zásady etiky umělé inteligence, aby se pokusili vybudovat a postavit důvěryhodnou umělou inteligenci, pokud jde o bezpečná a spolehlivá samořídící auta založená na umělé inteligenci. Uvědomte si prosím, že některé z těchto firem jsou silnější a více oddané etickým zásadám umělé inteligence než jiné. Občas se také objevují okrajové nebo začínající startupy s autonomním vozem, které, jak se zdá, odkládají většinu základních kamenů etiky AI stranou (viz moje recenze na odkaz zde).

Na jiných frontách se postupně do právních knih dostávají nové zákony a předpisy týkající se samořiditelných vozů. Zda mají potřebné zuby k jejich podpoře, je jiná věc, stejně jako to, zda je vymáhání těchto zákonů bráno vážně nebo přehlíženo (analýzy na toto téma viz mé sloupce).

Je zde také high-tech úhel pohledu příliš. Předpověděl jsem, že se postupně dočkáme variant robotů AI strážných andělů, kteří se dostanou do popředí v aréně autonomních vozidel a samořídících aut. Ještě tam nejsme. To bude převládat, jakmile se popularita samořídících vozů rozšíří.

Tento poslední bod přináší slavnou větu o důvěře, kterou už nepochybně znáte nazpaměť.

Důvěřuj ale prověřuj.

Můžeme si dovolit rozšířit svou důvěru, možná velkoryse. Mezitím bychom se také měli dívat jako jestřáb, abychom se ujistili, že důvěra, kterou vyvoláváme, je ověřena jak slovy, tak činy. Vložme trochu důvěry do AI, ale donekonečna si ověřujme, že svou důvěru vkládáme správně a s očima dokořán.

V tom mi můžeš věřit.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/