Etika AI a právo AI by mohly být podněcovány a podněcovány k povinným bezpečnostním varováním u všech existujících a budoucích AI

Vaše každodenní činnosti jsou nepochybně bombardovány tisíci nebo více preventivními varováními toho či onoho druhu.

Vyzkoušejte tyto velikosti:

  • Po celou dobu je nutné nosit ochranné brýle
  • Nebezpečí: Nebezpečné chemikálie v blízkosti
  • Vysoké napětí – Uchovávejte mimo
  • Upozornění: Dávejte pozor na své okolí
  • Předměty v zrcadle jsou blíže, než se zdá
  • Vyjměte dítě před složením (jak je uvedeno na kočárcích)
  • Upozornění: Nezapomeňte tuto zprávu ignorovat

Většina z nich jsou šikovné a celkem promyšlené značky nebo štítky, které nás snad udrží v bezpečí.

Uvědomte si prosím, že jsem ze seznamu vyškrtl několik „odlehlých hodnot“, abych uvedl několik pozoruhodných bodů.

Někteří lidé se například domnívají, že je správné, že dětské kočárky mají připevněný štítek, který vás varuje, abyste kočárek neskládali, když dítě stále sedí v mašince. I když je to znamení jistě vhodné a náležitě užitečné, zdá se, že základní zdravý rozum by již stačil.

Která osoba by si ze své vlastní vědomé vůle neuvědomila, že musí nejprve odebrat dítě?

Jiní zdůrazňují, že takové štítky skutečně slouží důležitému účelu. Za prvé, někdo může opravdu zapomenout, že musí před složením kočárku vyjmout dítě. Možná osoba předpokládala, že kočárek byl důmyslně navržen tak, aby zajistil, že operace skládání nepoškodí dítě. Případně jsou zde zabudované bezpečnostní prvky, které zabrání složení, kdykoli je v kočárku dítě. Atd.

Mohlo se také stát, že dotyčná osoba byla rozptýlena a bezmyšlenkovitě by složila kočárek, včetně dítěte a všeho, ale štítek naštěstí přiměl osobu, aby tak neučinila (někteří by namítli, že se zdá nepravděpodobné, že by si taková osoba štítku všimla tak jako tak). Existuje také skutečnost, že by někdo mohl žalovat výrobce kočárku, pokud by takový štítek nebyl přítomen. Dokážete si představit jeden z těch těžkých soudních sporů, kdy bylo zraněno dítě a rodič se rozhodl získat milion dolarů, protože na kočárku chyběla výstražná cedule. Společnost vyrábějící kočárky by litovala, že neutratila těch pár centů potřebných k výrobě a nalepení výstražných značek na své kočárky.

Podívejte se také pozorně na poslední z varovných zpráv, které jsem uvedl výše.

Rozhodl jsem se umístit mazanou zprávu o tom, že ji ignoruji, protože v dnešní době existuje mnoho falešných varovných štítků, které si lidé kupují nebo vyrábějí jen pro zábavu. Tohle je skutečný filozofický ohýbač mysli. Pokud si přečtete varování, které říká ignorovat varování, co přesně máte dělat, když jste si varování přečetli? Už jste to četli, takže je to zdánlivě ve vaší mysli. Jistě, můžete to ignorovat, ale zase vám není vůbec doporučeno, co to je, co byste měli ignorovat. Kolem a kolem, tenhle vtip jde.

Výstražné štítky v dobré víře samozřejmě obvykle nemají vtipný nebo vtipný charakter.

Varování bychom měli brát docela vážně.

Obvykle, pokud se nebudete řídit uvedeným varováním, činíte tak na osobní vážné riziko. A může se také stát, že pokud nebudete toto varování dodržovat a nebudete se jím řídit, potenciálně vystavíte nepřiměřenému riziku i ostatní. Zvažte akt řízení auta. Ve chvíli, kdy sedíte za volantem auta, můžete svým jednáním jako řidiče ublížit sobě, navíc můžete ublížit svým cestujícím a můžete ublížit ostatním, například lidem v jiných autech nebo blízkým chodcům. V tomto smyslu není varování pouze ve váš prospěch, ale pravděpodobně také ve prospěch ostatních.

Proč zakrývám tyto aspekty varování a varovných štítků?

Protože někteří vehementně tvrdí, že potřebujeme varovné a varovné signály na dnešní umělé inteligenci (AI).

Ve skutečnosti jde o to, dát takové štítky na dnešní i budoucí AI. Celkově vzato by veškerá umělá inteligence nakonec měla nějakou formu nebo variantu varování nebo varovné indikace, která by s ní byla spojena.

Dobrý nápad nebo špatný nápad?

Praktické nebo nepraktické?

Pojďme do toho, rozbalíme koncepci a uvidíme, co z ní můžeme udělat.

Nejprve bych rád položil základní základy o AI a zejména o etice AI a zákonech o AI, abych se ujistil, že téma varování AI bude kontextově smysluplné. Pro ty z vás, kteří se obecně zajímají o etickou umělou inteligenci a také právo umělé inteligence, se podívejte na mé rozsáhlé a průběžné pokrytí na adrese odkaz zde a odkaz zde, Abychom jmenovali jen několik.

Rostoucí povědomí o etické AI a také zákon o AI

Nedávná éra umělé inteligence byla zpočátku považována za bytí AI pro dobro, což znamená, že bychom mohli použít AI pro zlepšení lidstva. Na patách AI pro dobro došlo k poznání, že jsme také ponořeni AI pro špatné. Patří sem umělá inteligence, která je navržena nebo sama upravena tak, aby byla diskriminační a provádí výpočetní volby, které jsou nepatřičné předsudky. Někdy je AI postavena tímto způsobem, zatímco v jiných případech se obrací do tohoto neznámého území.

Chci se ujistit, že jsme na stejné stránce ohledně povahy dnešní umělé inteligence.

Dnes neexistuje žádná AI, která by byla vnímavá. Tohle my nemáme. Nevíme, zda bude vnímající AI možná. Nikdo nemůže výstižně předpovědět, zda dosáhneme vnímající AI, ani zda se vnímající AI nějakým zázrakem spontánně objeví ve formě výpočetní kognitivní supernovy (obvykle označované jako singularita, viz moje pokrytí na odkaz zde).

Typ AI, na který se zaměřuji, se skládá z necítivé AI, kterou máme dnes. Pokud bychom chtěli divoce spekulovat o vnímavé AI, mohla by se tato diskuse ubírat radikálně jiným směrem. Vnímavá AI by měla mít lidské kvality. Měli byste vzít v úvahu, že vnímající AI je kognitivní ekvivalent člověka. Navíc, protože někteří spekulují, že bychom mohli mít superinteligentní AI, je možné si představit, že taková AI by mohla být chytřejší než lidé (pro můj průzkum superinteligentní AI jako možnosti viz. pokrytí zde).

Důrazně bych navrhoval, abychom věci drželi při zemi a zvážili dnešní výpočetní necitlivou AI.

Uvědomte si, že dnešní umělá inteligence není schopna „myslet“ žádným způsobem na stejné úrovni jako lidské myšlení. Když komunikujete s Alexou nebo Siri, konverzační schopnosti se mohou zdát podobné lidským schopnostem, ale skutečnost je taková, že jsou výpočetní a postrádají lidské poznání. Nejnovější éra umělé inteligence široce využívá strojové učení (ML) a hluboké učení (DL), které využívají porovnávání výpočetních vzorů. To vedlo k systémům umělé inteligence, které vypadají jako lidské sklony. Mezitím dnes neexistuje žádná umělá inteligence, která by měla zdání zdravého rozumu, ani žádný z kognitivních zázraků robustního lidského myšlení.

Buďte velmi opatrní při antropomorfizaci dnešní AI.

ML/DL je forma porovnávání výpočetních vzorů. Obvyklý přístup je takový, že shromažďujete data o úloze rozhodování. Data vkládáte do počítačových modelů ML/DL. Tyto modely se snaží najít matematické vzorce. Po nalezení takových vzorů, pokud jsou nalezeny, systém umělé inteligence tyto vzory použije, když narazí na nová data. Po předložení nových dat se pro vykreslení aktuálního rozhodnutí použijí vzory založené na „starých“ nebo historických datech.

Myslím, že můžete hádat, kam to směřuje. Pokud lidé, kteří se rozhodovali podle vzoru, začlenili nežádoucí předsudky, je pravděpodobné, že data to odrážejí jemnými, ale významnými způsoby. Počítačové porovnávání vzorů Machine Learning nebo Deep Learning se jednoduše pokusí odpovídajícím způsobem matematicky napodobit data. Neexistuje žádné zdání zdravého rozumu nebo jiných vnímavých aspektů modelování vytvořeného umělou inteligencí jako takového.

Kromě toho si vývojáři AI nemusí uvědomit, co se děje. Tajemná matematika v ML/DL může ztížit odhalení nyní skrytých předsudků. Oprávněně byste doufali a očekávali, že vývojáři umělé inteligence budou testovat potenciálně pohřbené předsudky, i když je to složitější, než by se mohlo zdát. Existuje solidní šance, že i přes poměrně rozsáhlé testování, že v modelech porovnávání vzorů ML/DL budou stále zakomponovány zkreslení.

Dalo by se tak trochu použít slavné nebo nechvalně známé pořekadlo o smetí-do odpadu-ven. Jde o to, že je to spíše podobné předsudkům – in, které se zákeřně prolínají, když se předsudky ponoří do AI. Algoritmus rozhodování (ADM) umělé inteligence je axiomaticky zatížen nerovnostmi.

Špatný.

To vše má pozoruhodně významné důsledky pro etiku umělé inteligence a nabízí praktické okno do získaných lekcí (dokonce ještě předtím, než k nim dojde), pokud jde o pokusy o uzákonění umělé inteligence.

Kromě toho, že obecně používáme etické zásady AI, existuje odpovídající otázka, zda bychom měli mít zákony, které by řídily různá použití AI. Na federální, státní a místní úrovni se šíří nové zákony, které se týkají rozsahu a povahy toho, jak by měla být umělá inteligence navržena. Snaha navrhnout a přijmout takové zákony je postupná. Etika umělé inteligence slouží přinejmenším jako zvažovaná překážka a téměř jistě bude do určité míry přímo začleněna do těchto nových zákonů.

Uvědomte si, že někteří neústupně tvrdí, že nepotřebujeme nové zákony, které pokrývají AI, a že naše stávající zákony jsou dostatečné. Varují, že pokud uzákoníme některé z těchto zákonů AI, zabijeme zlatou husu tím, že potlačíme pokroky v AI, které nabízejí obrovské společenské výhody.

V předchozích sloupcích jsem pokryl různé národní a mezinárodní snahy o vytvoření a uzákonění zákonů regulujících umělou inteligenci, viz odkaz zde, například. Zabýval jsem se také různými principy a směrnicemi etiky AI, které různé národy identifikovaly a přijaly, včetně například úsilí OSN, jako je soubor etiky AI UNESCO, který přijalo téměř 200 zemí, viz. odkaz zde.

Zde je užitečný základní seznam etických kritérií nebo charakteristik AI systémů AI, které jsem dříve podrobně prozkoumal:

  • Průhlednost
  • Spravedlnost a férovost
  • Neškodlivost
  • Odpovědnost
  • Ochrana osobních údajů
  • Dobročinnost
  • Svoboda a autonomie
  • Věřte
  • udržitelnost
  • Důstojnost
  • Solidarita

Předpokládá se, že tyto zásady etiky AI budou vážně využívat vývojáři AI spolu s těmi, kteří řídí úsilí o vývoj AI, a dokonce i ti, kteří nakonec používají a provádějí údržbu systémů AI.

Všechny zúčastněné strany během celého životního cyklu vývoje a používání AI jsou posuzovány v rámci dodržování zavedených norem etické AI. To je důležité upozornit, protože obvyklý předpoklad je, že „pouze kodéři“ nebo ti, kteří programují AI, podléhají dodržování etických pojmů AI. Jak již bylo zdůrazněno v tomto dokumentu, vymyslet a nasadit AI je zapotřebí vesnice, v níž se celá vesnice musí orientovat a dodržovat etické předpisy AI.

Nedávno jsem také zkoumal Listina práv AI což je oficiální název oficiálního dokumentu vlády USA s názvem „Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People“, který byl výsledkem celoročního úsilí Úřadu pro politiku vědy a technologie (OSTP ). OSTP je federální entita, která slouží k poradenství americkému prezidentovi a výkonnému úřadu USA v různých technologických, vědeckých a inženýrských aspektech národního významu. V tomto smyslu lze říci, že tato listina práv AI je dokument schválený a schválený stávajícím Bílým domem USA.

V listině práv AI je pět základních kategorií:

  • Bezpečné a efektivní systémy
  • Algoritmické diskriminační ochrany
  • ochranu osobních údajů
  • Upozornění a vysvětlení
  • Lidské alternativy, ohleduplnost a záložní řešení

Pečlivě jsem si ty předpisy prošel, viz odkaz zde.

Nyní, když jsem na tato související témata etiky a zákona o umělé inteligenci položil užitečný základ, jsme připraveni skočit do opojného tématu, zda by AI měla mít varovné štítky, či nikoli.

Připravte se na informační cestu, která vám otevírá oči.

Umístění výstražných štítků na AI jako prostředek ochrany lidstva

Stále více se ozývá hluk, že by možná AI měla přijít s nějakým varováním.

Například v nedávném článku v MIT Technology Review v níž se hovořilo o rostoucím zájmu o provádění auditů umělé inteligence, vznikl nápad poskytovat varovné signály: „Růst těchto auditů naznačuje, že jednoho dne bychom mohli vidět varování ve stylu krabičky cigaret, že systémy umělé inteligence mohou poškodit vaše zdraví a bezpečnost. Jiná odvětví, jako jsou chemikálie a potraviny, provádějí pravidelné audity, aby bylo zajištěno, že výrobky jsou bezpečné pro použití. Mohlo by se něco takového stát v AI normou? (MIT Technology Review, Melissa Heikkilä, 24. října 2022).

Pojďme si popovídat trochu celkově o varovných a varovných znameních.

Všichni již obecně známe varovné a varovné značky na mnoha produktech a službách každodenní povahy. Někdy jsou bezpečnostní značky stanoveny zákonem jako povinné, zatímco v jiných případech je použití těchto značek na uvážení. Některé bezpečnostní značky jsou navíc standardizovány, například jsou specifikovány podle standardu ANSI Z535 a standardu OSHA 1910.14. Tyto normy zahrnují takové aspekty, jako je znění označení, použité barvy a písma, tvar označení a různé další podrobnosti.

Má smysl mít normy pro takové varovné signály. Kdykoli uvidíte takový znak, pokud splňuje uvedené standardy, pravděpodobněji uvěříte, že znak je legitimní, a navíc budete potřebovat méně kognitivního zpracování pro analýzu a pochopení znaku. U znamení, která nemají standardizovaný přístup, si často musíte v duchu spočítat, co vám znamení říká, možná ztratíte drahocenný čas na akci, nebo můžete znamení zcela špatně odhadnout a správně nepochopit varování, které je po ruce.

Může existovat řada takových znaků, pro které jsou často klasifikovány takto:

  • Znak nebezpečí: Nejvyšší obavy a svědčící o bezprostředním nebezpečí s pravděpodobnými vážnými následky
  • Výstražná značka: Upozorňuje na nebezpečí, které je menší než „nebezpečí“, ale přesto je poměrně vážné
  • Varovné znamení: Ukazuje na potenciální nebezpečí, které je menší než „varování“, ale stále skutečně vážné
  • Notifikační značka: Indikace informačního upozornění, které je méně než „opatrnost“, ale stále přináší znepokojivé aspekty

Vzhledem k výše uvedenému pozadí varování a varovných signálů můžeme pokračovat a pokusit se to aplikovat v kontextu na používání AI.

Za prvé, potenciálně bychom se mohli nějak shodnout na tom, že značení AI může být v podobném rozsahu závažnosti, jako je obvyklé u každodenních znaků, například:

  • Značka nebezpečí AI: AI vzbuzující největší obavy a svědčící o bezprostředním nebezpečí s pravděpodobnými vážnými následky
  • Výstražné znamení AI: AI indikující nebezpečí, které je menší než „nebezpečí“, ale stále je docela vážné
  • Varovný znak AI: AI indikující potenciální nebezpečí, které je menší než „varování“, ale stále skutečně vážné
  • Notifikační značka AI: Umělá inteligence svědčí o informačním upozornění, které je méně než „opatrnost“, ale stále přináší znepokojivé aspekty

Podstatou je, že ne všechna umělá inteligence bude stejně znepokojující. Může se stát, že AI představuje obrovská rizika nebo má jen okrajová rizika. V souladu s tím by značení mělo odrážet, která je která. Pokud by všechna varování nebo varovné signály AI byly jednoduše ukázány jako stejného kalibru, pravděpodobně bychom nevěděli nebo si nebyli vědomi toho, zda se máme AI obávat velmi nebo jen mírně. Použití typizovaného schématu formulace může usnadnit život při prohlížení a interpretaci varovných signálů souvisejících s umělou inteligencí.

Možná by vás zajímalo, co dalšího by nápisy řekly, pokud jde o specifika sdělení, které má být předáno.

To je určitě těžší záležitost. Možnosti umělé inteligence dělat věci, které jsou považovány za nebezpečné nebo znepokojivé, by byly enormně velké, téměř nekonečné. Můžeme je shrnout do nějaké rutinní sady, která je každá napsána jen hrstkou slov? Nebo budeme muset povolit volnější přístup k tomu, jak bude formulace probíhat?

Nechám vás přemýšlet o této otevřené otázce.

Postupujeme-li dál, máme tendenci vidět na předmětech výstražné značky. Systém umělé inteligence není nutně „objekt“ ve stejném smyslu jako obvyklé připojování značek. To vyvolává otázku, kde budou varovné signály AI prezentovány.

Může se stát, že když na svém smartphonu spouštíte aplikaci, řekněte, že pokud používá AI, zobrazí se zpráva, která obsahuje varování související s AI. Aplikace by vás upozornila na základní použití AI. Může to být vyskakovací zpráva nebo může být prezentována různými vizuálními a dokonce i zvukovými způsoby.

Existuje také situace, kdy používáte službu, která je podporována umělou inteligencí, ačkoli s umělou inteligencí nemusíte přímo komunikovat. Mohli byste například konverzovat s lidským agentem o získání hypotéky na bydlení, přičemž agent je tiše v zákulisí pomocí systému AI, aby řídil své úsilí.

Měli bychom tedy počítat s tím, že varovné signály AI by měly být přítomny v obou případech použití AI, takže:

  • Umělá inteligence pro konkrétní produkt: Umělá inteligence jako produkt by měla mít přímé varovné nebo varovné příznaky umělé inteligence
  • Umělá inteligence orientovaná na služby: AI jako služba (přímo nebo nepřímo) by měla mít varovné nebo varovné signály AI

Skeptici by jistě rychle navrhli, že varovné znamení AI může výrobce aplikace úskočně zamaskovat, aby upozornění nebylo nijak zvlášť nápadné. Možná se varování objeví na krátký okamžik a opravdu si nevšimnete, že se zobrazilo. Dalším záludným trikem by bylo udělat z toho jakousi hru, která by zdánlivě podkopala vážnost výstrahy a ukolébala lidi, aby si mysleli, že varování je bezvýznamné.

Ano, můžete se do značné míry vsadit, že jakékoli varovné signály související s umělou inteligencí budou oklamány a použity způsobem, který není v duchu a záměru varovných zpráv, které mají předávat.

Všechny tyto skepse zapadají do toho, zda bychom etiku umělé inteligence použili jako „měkké zákony“, abychom se pokusili prosadit varování a varování související s umělou inteligencí, nebo zda bychom použili „tvrdé zákony“ včetně přijatých zákonů se soudní podporou. Teoreticky by tlak na měkké zákony umožnil větší zdání pohrávání si s touto záležitostí, zatímco zákony o knihách by přicházely s potenciálem pro vládní vymáhání a přinesly by větší přísnost.

Další obavou je, zda by značení AI mělo nějaký význam.

Mnoho výzkumů o chování spotřebitelů má tendenci ukazovat zmatené výsledky, pokud jde o poskytování varovných štítků pro spotřebitele. Někdy jsou varování účinná, někdy ne. Aplikujme část tohoto výzkumu na kontext AI.

Zvažte tyto aspekty:

  • Detekce: Všimli by si uživatelé používající umělou inteligenci, která obsahuje životaschopné varovné znamení umělé inteligence, aktivně nebo zjistili, že se jim zobrazuje (za předpokladu, že k takovému označení došlo)?
  • Pochopení: Ti, kteří si toho všimli, pochopili nebo pochopili, co se jim varovný signál AI snaží naznačit?
  • Akce: Vyzve ty, kteří udělají tento mentální skok, varovný signál AI k akci nebo jinak poslouží k tomu, aby se podle toho řídili?

Můžete předpokládat, že pokud nabere na síle varovné signály umělé inteligence, vědci se chystají věc důkladně prostudovat. Cílem by bylo pomoci objasnit, za jakých okolností jsou varování užitečná a kdy ne. To zase souvisí s designem a vzhledem a dojmem. Můžeme také očekávat, že široká veřejnost bude muset být poučena nebo informována o výskytu těchto varovných a varovných signálů AI, aby si na ně zvykla.

Je třeba zvážit spoustu zvratů.

Mělo by se varování nebo varovný signál AI objevit pouze na začátku používané aplikace? Možná, že výchozí bod sám o sobě nestačí. Člověk by si na první pohled mohl myslet, že aplikace pomocí varování pouze hraje na jistotu, a proto varování příliš nebere v úvahu. Jakmile je osoba v polovině používání aplikace, možná bude zapotřebí další varování. V tomto okamžiku si osoba více uvědomuje, co aplikace provádí, a možná již zapomněla na dříve uvedenou varovnou zprávu.

Pak se může objevit varování nebo varování AI:

  • Před spuštěním aplikace a ve chvíli, kdy má být aplikace vyvolána
  • Zobrazí se po spuštění aplikace a pouze v počátečním bodě
  • Zobrazeno na začátku a znovu uprostřed
  • Zobrazeno několikrát během používání AI
  • Uvedeno na konci používání aplikace
  • Poskytněte po ukončení aplikace a možná i o minuty, hodiny nebo dny později
  • Atd.

Myslíte si, že osoba používající AI musí potvrdit nebo potvrdit jakákoli taková varování nebo varovné signály AI?

Někteří by trvali na tom, že by se od dané osoby mělo vyžadovat, aby uznala, že viděla varování. To by potenciálně zabránilo těm, kteří by mohli tvrdit, že neexistuje žádná varovná zpráva. Mohlo by to také způsobit, že lidé budou brát zprávy vážněji, protože jsou požádáni, aby potvrdili, že pozorovali varovnou indikaci.

Tady je pro vás těžká otázka.

V případě, všechno Musí AI poskytovat varování nebo bezpečnostní indikaci?

Možná namítnete, že ano, tohle musí mít všechna AI. I když je umělá inteligence pouze okrajovým bezpečnostním rizikem, stále by měla mít nějakou formu varovného znamení, možná jen upozornění nebo informační indikaci. Jiní by toto tvrzení zpochybnili. Protiargumentovali by, že to přeháníte. Ne každá AI to potřebuje. Navíc, pokud přinutíte všechny AI, aby to měly, rozmělníte účel. Lidé budou otupělí, když vidí varovné signály. Celý přístup se stane fraškou.

Z podobného úhlu pohledu zvažte, co pravděpodobně řeknou tvůrci umělé inteligence.

Jedním z úhlů pohledu by bylo, že to bude bolest v tom, co byste měli zavést. Nutnost změnit všechny vaše systémy AI a přidat tuto funkci může být nákladné. Jeho přidání na základě postupu vpřed může být méně nákladné, i když se zahrnutím tohoto ustanovení jsou spojeny náklady.

Další potenciální stížností je zákal. Jaký druh zprávy je třeba zobrazit? Pokud neexistují žádné standardy, znamená to, že tvůrci AI budou muset vytvořit něco nového. Nejen, že tyto dodatečné náklady, ale možná otevírá dveře k tomu, aby byl žalován. Dokážete si představit, že tvůrce umělé inteligence by mohl být zaujatý tím, že jeho varování není tak dobré jako u jiného systému umělé inteligence. Právníci nakonec z výsledného zmatku udělají balík.

Existuje také obava, že lidé budou těmito bezpečnostními zprávami nepřiměřeně vyděšeni.

Tvůrce umělé inteligence může zaznamenat strmý pokles počtu uživatelů kvůli bezpečnostní zprávě, která má pouze poskytnout informativní upozornění. Lidé nebudou vědět, co si o zprávě myslet. Pokud takové zprávy ještě neviděli, mohli by se okamžitě vyděsit a zbytečně se vyhýbat používání AI.

Zmiňuji tyto aspekty, protože někteří již prohlašují, že „nemůže bolet“ začít přidávat varování AI nebo bezpečnostní zprávy. Pro ně je nápad stejně ideální jako jablečný koláč. Nikdo nemohl vážně vyvrátit výhody neustálého vyžadování bezpečnosti nebo varování souvisejících s umělou inteligencí. Ale to samozřejmě není skutečný způsob uvažování o této záležitosti.

Mohli byste jít ještě dále a tvrdit, že varovné zprávy AI by mohly vyvolat nějakou formu masové hysterie. Pokud bychom najednou začali nutit systémy umělé inteligence, aby takové zprávy dostávaly, lidé by si mohli záměr špatně vyložit. Vidíte, existuje spousta nabádání, že čelíme existenční krizi umělé inteligence, kdy AI převezme vládu nad světem a vyhladí lidstvo, viz. odkaz zde pro mou analýzu těchto druhů tvrzení.

Použití varovné zprávy AI může některé lidi „inspirovat“ k přesvědčení, že konec je blízko. Proč by se jinak zprávy nyní objevovaly? Určitě je to známka toho, že se AI konečně chystá stát se našimi utlačovatelskými vládci.

Jakýsi zoufale bezútěšný výsledek pokusu udělat správnou věc tím, že se veřejnost dozví, jak může být umělá inteligence naplněna diskriminačními schopnostmi nebo jinými AI pro špatné aspekty.

Proč investovat do čističky vzduchu?

James Russell Lowell, slavný americký básník, jednou řekl: „Jeden trn zkušenosti stojí za celou divočinu varování.

Uvádím vznešenou poznámku, abych učinil několik závěrečných poznámek k záležitosti varování AI nebo bezpečnostních zpráv.

Je pravděpodobné, že dokud nebudeme mít poněkud rozšířené povědomí o tom, že umělá inteligence dělá špatné skutky, nebude po varovných zprávách souvisejících s umělou inteligencí příliš velký křik. Ti tvůrci umělé inteligence, kteří se rozhodnou tak učinit dobrovolně, budou možná pochváleni, i když by se také mohli nechtěně ocitnout nespravedlivě obtěžováni. Někteří učenci je mohou pronásledovat, protože využívají AI, která zdánlivě potřebuje varování, a přitom si neuvědomují, že se snažili jít první a všichni ostatní tvůrci AI zaostávají.

Zatracený, pokud ano, možná zatracený, pokud ne.

Další úvaha se týká přeměny toho, co se zdá být pěkným koncepčním nápadem, v praktickou a užitečnou praxi. Je snadné mávat rukama a neurčitě křičet do větru, že AI by měla mít varovné a bezpečnostní zprávy. Nejtěžší část nastává, když se rozhoduje o tom, jaká by tato sdělení měla být, kdy a kde by měla být prezentována, zda nebo do jaké míry je jejich cena dostatečným přínosem a tak dále.

Zde dáme prozatím poslední slovo (poeticky) na toto téma Jamesi Russellu Lowellovi: „Kreativita není nalezení věci, ale vytvoření něčeho z ní poté, co je nalezena.

Asi je čas vyhrnout si rukávy a začít na tom pracovat. A to není jen varování, je to akce.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety- varování-na-všechny-existující-a-budoucí-ai/