Etika umělé inteligence a zákon o umělé inteligenci zvažující klíčové způsoby implementace nedávno vydané listiny práv na umělou inteligenci, včetně a překvapivě přímým používáním umělé inteligence

Není pochyb o tom, že plány potřebujeme v našem každodenním životě.

Pokud se chystáte postavit svůj dlouho předpokládaný dům snů, bylo by moudré nejprve dát dohromady použitelný plán.

Plán předvádí hmatatelným a zdokumentovaným způsobem jakoukoli vizionářskou perspektivu s vykulenýma očima, která může být uzamčena ve vašem noggin. Ti, kteří budou vyzváni, aby postavili vaši drahocennou usedlost, se budou moci odkázat na plán a uvést podrobnosti o tom, jak tuto práci provést. Plány jsou praktické. Absence plánu je nutně problematická pro řešení jakéhokoli složitého úkolu nebo projektu.

Přenesme tento poněkud sentimentální, ale skutečný hold plánům do oblasti umělé inteligence (AI).

Ti z vás, kteří se v podstatě zabývají AI, si mohou matně uvědomovat, že jde o důležitou politiku modrotisk byla nedávno vydána v USA, která se prokazatelně týká budoucnosti AI. Neformálně známý jako Listina práv AI, oficiální název vyhlášené bílé knihy je „Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People“ a je snadno dostupný online.

Dokument je výsledkem ročního úsilí a pečlivé studie Úřadu pro vědeckou a technologickou politiku (OSTP). OSTP je federální subjekt, který byl založen v polovině 1970. let XNUMX. století a slouží k poradenství americkému prezidentovi a výkonnému úřadu USA v různých technologických, vědeckých a inženýrských aspektech národního významu. V tomto smyslu lze říci, že tato listina práv AI je dokument schválený a schválený stávajícím Bílým domem USA.

Listina práv AI popisuje lidská práva které by lidstvo mělo mít s ohledem na příchod umělé inteligence do našeho každodenního života. Zdůrazňuji tento závažný bod, protože někteří lidé byli nejprve zmateni, že možná jde o nějaký druh uznání, že AI má právní subjektivitu, a že jde o litanii práv pro vnímající AI a humanoidní roboty. Ne, ještě tam nejsme. Jak za chvíli uvidíte, nejsme nikde blízko k vnímající AI, a to navzdory bannerovým titulkům, které nám, jak se zdá, říkají něco jiného.

Dobře, takže potřebujeme plán, který objasňuje lidská práva ve věku umělé inteligence?

Ano, určitě ano.

Museli byste být téměř zavření v jeskyni a chybět přístup k internetu, abyste nevěděli, že umělá inteligence již a stále více zasahuje do našich práv. Nedávná éra umělé inteligence byla zpočátku považována za bytí AI pro dobro, což znamená, že bychom mohli použít AI pro zlepšení lidstva. Na patách AI pro dobro došlo k poznání, že jsme také ponořeni AI pro špatné. Patří sem umělá inteligence, která je navržena nebo sama upravena tak, aby byla diskriminační a provádí výpočetní volby, které jsou nepatřičné předsudky. Někdy je AI postavena tímto způsobem, zatímco v jiných případech se obrací do tohoto neznámého území.

Pro mé průběžné a rozsáhlé pokrytí a analýzy práva AI, etiky AI a dalších klíčových technologických a společenských trendů AI viz odkaz zde a odkaz zde, Abychom jmenovali jen několik.

Rozbalení listiny práv AI

Již dříve jsem diskutoval o Listině práv AI a udělám zde rychlou rekapitulaci.

Kromě toho, pokud byste chtěli znát mé hloubkové výhody a nevýhody nedávno vydané listiny práv AI, podrobně jsem svou analýzu popsal v příspěvku na Právník, Viz odkaz zde, Právník je pozoruhodná právní stránka se zprávami a komentáři, která je široce známá jako oceňovaná právní zpravodajská služba poháněná globálním týmem studentských reportérů, redaktorů, komentátorů, korespondentů a vývojářů obsahu, se sídlem na University of Pittsburgh School of Law v Pittsburghu, kde začala před více než 25 lety. Poděkování vynikajícímu a pracovitému týmu ve společnosti Právník.

V listině práv AI je pět základních kategorií:

  • Bezpečné a efektivní systémy
  • Algoritmické diskriminační ochrany
  • ochranu osobních údajů
  • Upozornění a vysvětlení
  • Lidské alternativy, ohleduplnost a záložní řešení

Všimněte si, že jsem je nečísloval od jedné do pěti, protože by to mohlo znamenat, že jsou v určitém pořadí nebo že jedno z práv je zdánlivě důležitější než druhé. Budeme předpokládat, že každý z nich má své vlastní zásluhy. Všichni jsou v jistém smyslu stejně záslužní.

Jako stručnou informaci o tom, z čeho se každý skládá, uvádíme výňatek z oficiální bílé knihy:

  • Bezpečné a efektivní systémy: "Měli byste být chráněni před nebezpečnými nebo neúčinnými systémy." Automatizované systémy by měly být vyvíjeny na základě konzultací s různými komunitami, zúčastněnými stranami a odborníky v dané oblasti, aby bylo možné identifikovat obavy, rizika a potenciální dopady systému.“
  • Algoritmické diskriminační ochrany: „Neměli byste čelit diskriminaci ze strany algoritmů a systémy by měly být používány a navrženy spravedlivým způsobem. Algoritmická diskriminace nastává, když automatizované systémy přispívají k neodůvodněnému rozdílnému zacházení nebo znevýhodňují lidi na základě jejich rasy, barvy pleti, etnického původu, pohlaví (včetně těhotenství, porodu a souvisejících zdravotních stavů, genderové identity, intersexuálního statusu a sexuální orientace), náboženství, věku. , národní původ, zdravotní postižení, status veterána, genetická informace nebo jakákoli jiná klasifikace chráněná zákonem.“
  • Ochrana osobních údajů: „Měli byste být chráněni před zneužitím dat prostřednictvím vestavěných ochran a měli byste mít úřad nad tím, jak jsou data o vás používána. Měli byste být chráněni před narušováním soukromí prostřednictvím návrhů, které zajistí, že taková ochrana bude zahrnuta ve výchozím nastavení, včetně zajištění toho, že shromažďování dat bude v souladu s rozumnými očekáváními a že budou shromažďována pouze data nezbytně nutná pro konkrétní kontext.“
  • Upozornění a vysvětlení: „Měli byste vědět, že se používá automatizovaný systém, a rozumět tomu, jak a proč přispívá k výsledkům, které vás ovlivňují. Návrháři, vývojáři a implementátoři automatizovaných systémů by měli poskytnout obecně dostupnou dokumentaci v jednoduchém jazyce včetně jasného popisu celkového fungování systému a role, kterou automatizace hraje, upozornění, že takové systémy jsou používány, osoby nebo organizace odpovědné za systém a vysvětlení výsledky, které jsou jasné, včasné a dostupné.“
  • Lidské alternativy, ohleduplnost a záložní řešení: „Měli byste mít možnost se odhlásit, kde je to vhodné, a mít přístup k osobě, která dokáže rychle zvážit a vyřešit problémy, se kterými se setkáte. Tam, kde je to vhodné, byste měli mít možnost odhlásit se z automatizovaných systémů ve prospěch lidské alternativy.“

Celkově vzato jde o aspekty lidských práv, které byly v kontextu etiky umělé inteligence a práva umělé inteligence již nějakou dobu provázeny, viz mé pokrytí, např. odkaz zde. Bílá kniha zdánlivě nevytahuje zajíce z klobouku, pokud jde o nějaké nově objevené nebo objevené právo, které dosud nebylo v kontextu AI objasněno.

To je v pořádku.

Mohli byste tvrdit, že jejich sestavení do jedné úhledně zabalené a formalizované sbírky poskytuje životně důležitou službu. Navíc tím, že byl pomazán jako uznávaný Listina práv AI, tím se celá záležitost ještě otevřeně a obratně dostává do povědomí veřejnosti. Spojuje existující množství nesourodých diskusí do jedinečného souboru, který lze nyní vytrubovat a zprostředkovat všem zúčastněným stranám.

Dovolte mi nabídnout tento seznam příznivých reakcí na oznámenou listinu práv AI:

  • Poskytuje základní kompilaci základních principů
  • Slouží jako plán nebo základ, na kterém lze stavět
  • Funguje jako znělá výzva k akci
  • Podněcuje zájem a ukazuje, že jde o vážné úvahy
  • Spojuje množství nesourodých diskuzí
  • Podněcuje a přispívá k úsilí o přijetí etické AI
  • Nepochybně přispěje k zavedení zákonů o umělé inteligenci
  • Ostatní

Musíme také vzít v úvahu nepříliš příznivé reakce, vezmeme-li v úvahu, že je třeba udělat mnohem více práce a že toto je jen začátek dlouhé cesty na náročné cestě řízení umělé inteligence.

Poněkud tvrdá nebo řekněme konstruktivní kritika Listiny práv AI jako taková zahrnuje:

  • Právně nevymahatelné a zcela nezávazné
  • Pouze poradní a nepovažuje se za vládní politiku
  • Méně obsáhlé ve srovnání s jinými publikovanými pracemi
  • Primárně se skládá ze širokých konceptů a postrádá detaily implementace
  • Bude náročné proměnit se ve skutečné životaschopné praktické zákony
  • Zdánlivě mlčí o hrozícím problému možného zákazu umělé inteligence v některých kontextech
  • Okrajově uznává výhody používání AI, která je dobře navržena
  • Ostatní

Snad nejprominentnější štiplavý komentář se soustředil na skutečnost, že tato listina práv AI není právně vymahatelná, a proto nemá žádný význam, pokud jde o zřizování jasných branek. Někteří říkali, že ačkoli je bílý papír užitečný a povzbuzující, rozhodně postrádá zuby. Ptají se, co může vzejít z takzvaného dutého ozubeného souboru šikovných předpisů.

Těm kousavým poznámkám se budu věnovat za chvíli.

Mezitím bílá kniha hojně uvádí omezení toho, co tato listina práv AI zahrnuje:

  • „Návrh pro AI Listinu práv je nezávazný a nepředstavuje politiku vlády USA. Nenahrazuje, nemodifikuje ani neřídí výklad jakéhokoli existujícího statutu, nařízení, politiky nebo mezinárodního nástroje. Nepředstavuje závazné pokyny pro veřejnost nebo federální úřady, a proto nevyžaduje dodržování zde popsaných zásad. Není také určující, jaká bude pozice vlády USA v jakémkoli mezinárodním vyjednávání. Přijetí těchto zásad nemusí splňovat požadavky stávajících zákonů, předpisů, zásad nebo mezinárodních nástrojů nebo požadavky federálních úřadů, které je prosazují. Tyto principy nejsou určeny k tomu, aby zakazovaly nebo neomezovaly jakoukoli zákonnou činnost vládních agentur, včetně vymáhání práva, národní bezpečnosti nebo zpravodajských činností, a ani jimi nejsou“ (podle bílé knihy).

Pro ty, kteří rychle podkopali AI Listinu práv jako právně nezávaznou, udělejme trochu myšlenkový experiment na tomto bodavém obvinění. Předpokládejme, že bílá kniha byla vydána a měla plnou platnost zákona. Troufám si tvrdit, že výsledek by byl poněkud kataklyzmatický, alespoň do míry právních i společenských ohlasů na proklamaci.

Zákonodárci by byli ve zbrani, že toto úsilí neprovedlo normativní procesy a právní postupy při sestavování takových zákonů. Podniky by byly oprávněně rozzuřeny, kdyby se objevily nové zákony bez dostatečného upozornění a povědomí o tom, jaké zákony jsou. Následovalo by všemožné zděšení a pobouření.

Není to dobrý způsob, jak tíhnout k upevňování lidských práv v éře umělé inteligence.

Připomeňme, že jsem dříve začal tuto diskusi tím, že jsem poukázal na hodnotu a vitalitu plánů.

Představte si, že někdo přeskočil krok vytváření plánů a okamžitě skočil do stavby vašeho vysněného domu. Jak by podle vás dům vypadal? Zdá se férová sázka na to, že dům nebude nijak zvlášť odpovídat tomu, co jste měli na mysli. Výsledná usedlost může být naprostý nepořádek.

Podstatou je, že skutečně potřebujeme plány a nyní jeden máme, abychom mohli pokročit ve vymýšlení rozumných zákonů AI a posílení etického přijímání AI.

Rád bych se proto zabýval způsoby, jakými lze tento návrh listiny práv AI proměnit v dům. Jak využijeme plán? Jaké jsou vhodné další kroky? Může stačit tento modrotisk, nebo potřebuje více masa na kostech?

Než se pustíme do těchto obtížných záležitostí, rád bych se nejprve ujistil, že jsme všichni na stejné stránce ohledně podstaty AI a toho, z čeho se skládá dnešní stav.

Uvádíme rekord v dnešní AI

Rád bych učinil velmi důrazné prohlášení.

Jste připraveni?

Dnes neexistuje žádná AI, která by byla vnímavá.

Tohle my nemáme. Nevíme, zda bude vnímající AI možná. Nikdo nemůže výstižně předpovědět, zda dosáhneme vnímající AI, ani zda se vnímající AI nějakým zázrakem spontánně objeví ve formě výpočetní kognitivní supernovy (obvykle označované jako singularita, viz moje pokrytí na odkaz zde).

Typ AI, na který se zaměřuji, se skládá z necítivé AI, kterou máme dnes. Pokud bychom chtěli divoce spekulovat o vnímavé AI, mohla by se tato diskuse ubírat radikálně jiným směrem. Vnímavá AI by měla mít lidské kvality. Měli byste vzít v úvahu, že vnímající AI je kognitivní ekvivalent člověka. Navíc, protože někteří spekulují, že bychom mohli mít superinteligentní AI, je možné si představit, že taková AI by mohla být chytřejší než lidé (pro můj průzkum superinteligentní AI jako možnosti viz. pokrytí zde).

Důrazně bych navrhoval, abychom věci drželi při zemi a zvážili dnešní výpočetní necitlivou AI.

Uvědomte si, že dnešní umělá inteligence není schopna „myslet“ žádným způsobem na stejné úrovni jako lidské myšlení. Když komunikujete s Alexou nebo Siri, konverzační schopnosti se mohou zdát podobné lidským schopnostem, ale skutečnost je taková, že jsou výpočetní a postrádají lidské poznání. Nejnovější éra umělé inteligence široce využívá strojové učení (ML) a hluboké učení (DL), které využívají porovnávání výpočetních vzorů. To vedlo k systémům umělé inteligence, které vypadají jako lidské sklony. Mezitím dnes neexistuje žádná umělá inteligence, která by měla zdání zdravého rozumu, ani žádný z kognitivních zázraků robustního lidského myšlení.

Buďte velmi opatrní při antropomorfizaci dnešní AI.

ML/DL je forma porovnávání výpočetních vzorů. Obvyklý přístup je takový, že shromažďujete data o úloze rozhodování. Data vkládáte do počítačových modelů ML/DL. Tyto modely se snaží najít matematické vzorce. Po nalezení takových vzorů, pokud jsou nalezeny, systém umělé inteligence tyto vzory použije, když narazí na nová data. Po předložení nových dat se pro vykreslení aktuálního rozhodnutí použijí vzory založené na „starých“ nebo historických datech.

Myslím, že můžete hádat, kam to směřuje. Pokud lidé, kteří se rozhodovali podle vzoru, začlenili nežádoucí předsudky, je pravděpodobné, že data to odrážejí jemnými, ale významnými způsoby. Počítačové porovnávání vzorů Machine Learning nebo Deep Learning se jednoduše pokusí odpovídajícím způsobem matematicky napodobit data. Neexistuje žádné zdání zdravého rozumu nebo jiných vnímavých aspektů modelování vytvořeného umělou inteligencí jako takového.

Kromě toho si vývojáři AI nemusí uvědomit, co se děje. Tajemná matematika v ML/DL může ztížit odhalení nyní skrytých předsudků. Oprávněně byste doufali a očekávali, že vývojáři umělé inteligence budou testovat potenciálně pohřbené předsudky, i když je to složitější, než by se mohlo zdát. Existuje solidní šance, že i přes poměrně rozsáhlé testování, že v modelech porovnávání vzorů ML/DL budou stále zakomponovány zkreslení.

Dalo by se tak trochu použít slavné nebo nechvalně známé pořekadlo o smetí-do odpadu-ven. Jde o to, že je to spíše podobné předsudkům – in, které se zákeřně prolínají, když se předsudky ponoří do AI. Algoritmus rozhodování (ADM) umělé inteligence je axiomaticky zatížen nerovnostmi.

Špatný.

To vše má pozoruhodně významné důsledky pro etiku umělé inteligence a nabízí praktické okno do získaných lekcí (dokonce ještě předtím, než k nim dojde), pokud jde o pokusy o uzákonění umělé inteligence.

Kromě toho, že obecně používáme etické zásady AI, existuje odpovídající otázka, zda bychom měli mít zákony, které by řídily různá použití AI. Na federální, státní a místní úrovni se šíří nové zákony, které se týkají rozsahu a povahy toho, jak by měla být umělá inteligence navržena. Snaha navrhnout a přijmout takové zákony je postupná. Etika umělé inteligence slouží přinejmenším jako zvažovaná překážka a téměř jistě bude do určité míry přímo začleněna do těchto nových zákonů.

Uvědomte si, že někteří neústupně tvrdí, že nepotřebujeme nové zákony, které pokrývají AI, a že naše stávající zákony jsou dostatečné. Varují, že pokud uzákoníme některé z těchto zákonů AI, zabijeme zlatou husu tím, že potlačíme pokroky v AI, které nabízejí obrovské společenské výhody.

V předchozích sloupcích jsem pokryl různé národní a mezinárodní snahy o vytvoření a uzákonění zákonů regulujících umělou inteligenci, viz odkaz zde, například. Zabýval jsem se také různými principy a směrnicemi etiky AI, které různé národy identifikovaly a přijaly, včetně například úsilí OSN, jako je soubor etiky AI UNESCO, který přijalo téměř 200 zemí, viz. odkaz zde.

Zde je užitečný základní seznam etických kritérií nebo charakteristik AI systémů AI, které jsem dříve podrobně prozkoumal:

  • Průhlednost
  • Spravedlnost a férovost
  • Neškodlivost
  • Odpovědnost
  • Ochrana osobních údajů
  • Dobročinnost
  • Svoboda a autonomie
  • Věřte
  • udržitelnost
  • Důstojnost
  • Solidarita

Předpokládá se, že tyto zásady etiky AI budou vážně využívat vývojáři AI spolu s těmi, kteří řídí úsilí o vývoj AI, a dokonce i ti, kteří nakonec používají a provádějí údržbu systémů AI.

Všechny zúčastněné strany během celého životního cyklu vývoje a používání AI jsou posuzovány v rámci dodržování zavedených norem etické AI. To je důležité upozornit, protože obvyklý předpoklad je, že „pouze kodéři“ nebo ti, kteří programují AI, podléhají dodržování etických pojmů AI. Jak bylo zdůrazněno výše, k vymýšlení a nasazení umělé inteligence je zapotřebí vesnice, přičemž celá vesnice musí být zběhlá a dodržovat etické předpisy AI.

Nyní, když jsem položil užitečný základ, jsme připraveni ponořit se dále do listiny práv AI.

Čtyři základní způsoby implementace listiny práv AI

Někdo vám předá plán a řekne vám, abyste se dali do práce.

Co budete dělat?

V případě AI Listiny práv jako plánu zvažte tyto čtyři zásadní kroky k postupu vpřed:

  • Slouží jako vstup pro formulování zákonů AI: Použijte plán jako pomůcku při formulování zákonů o AI, doufejme, že tak učiníte na jednotném základě na federální, státní a místní úrovni (možná také napomůžete mezinárodnímu právnímu úsilí o AI).
  • Pomoc při širším přijetí etiky AI: Použijte plán k podpoře formulací etiky umělé inteligence (někdy označovaných jako „měkké zákony“ ve srovnání s právně závaznými „tvrdými zákony“), abyste tak inspirovali a nasměrovali podniky, jednotlivce, vládní subjekty a další složky k lepší a konzistentnější etické Výsledky AI.
  • Vývojové aktivity Shape AI: Použijte plán k urychlení vytváření metodologií vývoje umělé inteligence a školicích aspektů, abyste se pokusili přimět vývojáře umělé inteligence a ty, kteří umělou inteligenci vyvíjejí nebo používají, aby si lépe uvědomovali, jak navrhovat umělou inteligenci v souladu s žádoucími pravidly etiky umělé inteligence a v očekávání. nadcházejících zákonů o umělé inteligenci.
  • Motivujte příchod umělé inteligence, abyste pomohli ovládat umělou inteligenci: Použijte plán k vymýšlení umělé inteligence, která bude sloužit jako kontrola a vyvážení proti jiné umělé inteligenci, která se může stočit do neznámého území. Toto je jeden z těch makroskopických úhlů pohledu, kdy můžeme použít právě to, co nám zdánlivě znepokojuje, k tomu, aby nás také (ironicky, dalo by se říci) pomáhalo chránit.

O každém z výše uvedených čtyř kroků jsem diskutoval ve svých sloupcích.

V této diskusi bych se rád zaměřil na čtvrtý uvedený krok, konkrétně na to, že Listina práv AI může sloužit jako motivace k nástupu AI, aby pomohla ovládat AI. To je poněkud šokující nebo překvapivý krok pro mnohé, kteří se ještě plně nedostali do této sféry rozvíjející AI.

Dovolte mi to upřesnit.

Jednoduchá analogie by měla stačit. Všichni jsme v dnešní době zvyklí na porušení kybernetické bezpečnosti a vloupání hackerů. Téměř každý den slyšíme o nějaké nejnovější skulince v našich počítačích, která umožní zločincům získat naše data nebo umístit na naše notebooky podlý kus ransomwaru, nebo jsme touto skutkem ovlivněni.

Jedním z prostředků boje proti těmto opovrženíhodným pokusům je použití specializovaného softwaru, který se pokouší těmto vloupáním zabránit. Téměř jistě máte doma nebo v práci na svém počítači nějaký antivirový program. Pravděpodobně je něco podobného na vašem smartphonu, ať už si uvědomujete, že tam je nebo ne.

Jde mi o to, že někdy potřebujete bojovat s ohněm ohněm (viz moje reportáž o tom, jako např odkaz zde a odkaz zde).

V případě umělé inteligence, která přistane do říše zakázaných AI pro špatné, můžeme hledat použití AI pro dobro která se potýká s tím zlomyslným AI pro špatné. To samozřejmě není zázračný lék. Jak víte, mezi zločinci, kteří se snaží proniknout do našich počítačů, a pokroky v oblasti kybernetické ochrany probíhá neustálý tah kočky a myši. Je to téměř nekonečná hra.

Můžeme použít AI, abychom se pokusili vypořádat se s AI, která se vydala zakázanou cestou. Pomůže to. Nebude to zrovna stříbrná kulka, protože nepříznivá AI, na kterou se zaměříte, bude téměř jistě navržena tak, aby se takové ochraně vyhnula. Toto bude pokračující souboj kočky a myši AI versus AI.

V každém případě AI, kterou používáme k ochraně, poskytne určitou ochranu před špatnou AI. Nepochybně tedy musíme vyvinout AI, která nás dokáže ochránit nebo ochránit. A také bychom se měli snažit vytvořit ochrannou AI, která se přizpůsobí tomu, jak se špatná AI přizpůsobí. Bude to divoké zdání kočky a myši rychlostí blesku.

Ne každému se toto rozšíření role AI líbí.

Těm, kteří již vnímají AI jako homogenní amorfní konglomerát, by při tomto předstíraném gambitu AI versus AI naskočila husí kůže a noční můry. Pokud se pokusíme postavit oheň proti ohni, možná pouze rozděláváme ještě větší oheň. Umělá inteligence se stane masivním ohněm, který už nebudeme ovládat a rozhodneme se zotročit lidstvo nebo nás vymazat z planety. Když dojde na diskusi o AI jako o existenčním riziku, jsme obvykle vedeni k přesvědčení, že se všechna AI spojí, viz moje diskuse o těchto otázkách na odkaz zde. Víte, bylo nám řečeno, že každý kousek AI se chopí AI svých bratrů a stane se jednou velkou suverénní unitární rodinou.

To je děsivý a rozhodně znepokojivý scénář vnímající umělé inteligence jako bezproblémové mafie typu všichni za jednoho a jeden za všechny.

I když můžete volně vyslovovat takové domněnky o tom, že by k tomu někdy mohlo dojít, ujišťuji vás, že AI, kterou dnes máme, sestává z náklaďáků oddělených nesourodých programů AI, které nemají žádný zvláštní způsob, jak se navzájem konspirovat.

Když jsem to řekl, jsem si jistý, že ti, kdo horlivě věří konspiračním teoriím AI, budou trvat na tom, že jsem to řekl záměrně, abych skryl pravdu. Aha! Možná mě vyplácí dnešní AI, která už plánuje velké převzetí AI (ano, pane, budu se koupat v bohatství, až vládnou vládci AI). Nebo, a to zcela jistě neupřednostňuji tento jiný úhel, možná si slepě neuvědomuji, jak AI tajně kuje pikle za našimi zády. Myslím, že budeme muset počkat a uvidíme, jestli jsem součástí AI puče nebo AI ubohé patsy (au, to bolí).

Vraťme se k pozemským úvahám a pojďme stručně prozkoumat, jak lze současnou umělou inteligenci využít k podpoře implementace Listiny práv AI. Budu to pohodlně a souhrnně označovat jako Dobrá AI.

Použijeme pět základních kamenů ztělesněných v listině práv AI:

  • Dobrá AI pro propagaci Bezpečné a efektivní systémy: Kdykoli podléháte systému AI nebo jej používáte, dobrá AI se snaží zjistit, zda je používaná AI nebezpečná nebo neúčinná. Při takové detekci vás může dobrá AI upozornit nebo podniknout jiné akce včetně blokování špatné AI.
  • Dobrá AI pro poskytování Algoritmické diskriminační ochrany: Při použití systému AI, který může obsahovat diskriminační algoritmy, Dobrá AI pokouší se zjistit, zda pro vás existuje nedostatečná ochrana, a snaží se zjistit, zda v používané AI skutečně existují nepřiměřené předsudky. Dobrá AI by vás mohla informovat a také potenciálně automaticky hlásit jinou AI různým úřadům, jak mohou být stanoveny zákony o AI a právními požadavky.
  • Dobrá AI pro zachování Ochrana osobních údajů: Tento typ dobré umělé inteligence se vás snaží chránit před invazí do soukromí dat. Když se jiná AI snaží vyžádat si od vás data, která možná skutečně nepotřebujete, dobrá AI vás upozorní na překročení. Dobrá AI může také potenciálně maskovat vaše data způsobem, který bude i po předání jiné AI zachovat vaše práva na ochranu osobních údajů. Atd.
  • Dobrá AI pro založení Upozornění a vysvětlení: Všichni se pravděpodobně setkáme se systémy umělé inteligence, kterým velmi chybí poskytování řádných a vhodných oznámení a které bohužel nedokážou předvést adekvátní vysvětlení svých akcí. Dobrá umělá inteligence se může pokusit interpretovat nebo vyzpovídat jinou umělou inteligenci, aby potenciálně identifikovala oznámení a vysvětlení, která měla být poskytnuta. I když to v daném případě není možné, dobrá umělá inteligence vás alespoň upozorní na selhání jiné umělé inteligence a případně nahlásí umělou inteligenci určeným úřadům na základě stanovených zákonů a právních požadavků týkajících se umělé inteligence.
  • Dobrá AI za nabídku Lidské alternativy, ohleduplnost a návrat: Předpokládejme, že používáte systém AI a AI zdánlivě neplní svůj úkol. Možná si neuvědomujete, že se věci kazí, nebo můžete být poněkud ostražití a nejistí, co s danou situací dělat. V takovém případě by Dobrá AI tiše zkoumala, co dělá druhá AI, a mohla by vás varovat před zásadními obavami ohledně této AI. Poté budete vyzváni, abyste požádali o lidskou alternativu k AI (nebo by to mohla udělat dobrá AI vaším jménem).

Chcete-li dále pochopit, jak tento druh Dobrá AI lze vyvíjet a používat, viz moje oblíbená a vysoce hodnocená kniha o umělé inteligenci (je mi ctí říci, že byla označena jako „Top Ten“) o tom, co jsem obecně označoval jako strážní andělé umělé inteligence, viz odkaz zde.

Proč investovat do čističky vzduchu?

Vím, co si myslíš. Pokud máme dobrou AI, která je navržena tak, aby nás chránila, předpokládejme, že se dobrá AI zkazí a stane se špatnou. Slavná nebo nechvalně známá latinská fráze se zdá být plně relevantní pro tuto možnost: Quis custodiet ipsos custodes?

Fráze je připisována římskému básníkovi Juvenalovi a lze ji nalézt v jeho díle s názvem Satiry, a dá se volně přeložit jako kdo bude hlídat nebo hlídat samotné stráže. Mnoho filmů a televizních pořadů jako např star Trek tuto linku opakovaně využili.

To je jistě proto, že je to skvělý bod.

Všechny zákony týkající se umělé inteligence, které budou přijaty, musí samozřejmě zahrnovat jak špatnou umělou inteligenci, tak i dobrou umělou inteligenci, která se pokazí. Proto bude klíčové sepsat rozumné a komplexní zákony o umělé inteligenci. Zákonodárci, kteří se jen pokoušejí hodit náhodné právní předpisy na zeď a doufají, že se budou držet s ohledem na zákony AI, se ocitnou v hlubokém míjení cíle.

To nepotřebujeme.

Nemáme čas ani nejsme schopni nést společenské náklady, abychom se vyrovnali s nedostatečně navrženými zákony o umělé inteligenci. Poukázal jsem na to, že bohužel občas jsme svědky nových zákonů souvisejících s umělou inteligencí, které jsou špatně sestavené a plné nejrůznějších právních neduhů, viz například moje průzkumná analýza zákona o auditu AI v New Yorku (NYC) na adrese odkaz zde.

Ujistime se, že náležitě používáme návrh listiny práv AI, který nyní máme v ruce ohledně AI. Pokud budeme ignorovat plán, prohráli jsme tím, že jsme zintenzivnili naši hru. Pokud nesprávně implementujeme plán, stydíme se za to, že jsme si uzurpovali užitečný základ.

Vážený římský básník Juvenal řekl ještě něco, co můžeme za těchto okolností využít: Anima sana in corpore sano.

Obecně se to promítá do tvrzení, že by bylo rozumné mít jak zdravou nebo zdravou mysl, tak zdravé nebo zdravé tělo. To nám umožňuje vydržet jakoukoli dřinu, podle Juvenala, a bude to jistě jediná cesta k životu v míru nebo ctnosti.

Je načase, abychom použili zdravou mysl a zdravé tělo, abychom se ujistili, že zajišťujeme, že lidstvo bude mít naše lidská práva zachována a pevně posílena ve vznikajícím světě všudypřítomné a občas nepříznivé umělé inteligence. To je rozumná rada od Římanů, kterou bychom se měli řídit v dnešním shonu uprostřed epochy umělé inteligence a budoucnosti rozhodně plné dobré i špatné AI.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- listina práv-včetně-a-překvapivě-používáním-ai-přímo/