Etika umělé inteligence a psychologická inokulace vyvolaná umělou inovací na pomoc lidem s dezinformacemi

Co budeme dělat s masivním přebytkem dezinformací a dezinformací?

Všechno je to prokazatelně horší a horší, s každým dalším dnem.

Možná nás může zachránit umělá inteligence (AI). Ano, je to tak, možná bychom byli schopni využít prospěšné využití umělé inteligence, abychom se vyrovnali s naší neúprosnou tsunami dezinformací a dezinformací. Možná by bylo moudré to zkusit. Zdá se, že každá cesta potenciálního řešení by stála za to.

Kromě toho bych rád okamžitě uznal a poznamenal, že AI nepochybně bude také být také součástí problému. Není pochyb o tom, že lidé mohou snadno využít AI k vytváření dezinformací a dezinformací. Kromě toho může být umělá inteligence zákeřně použita k tomu, aby se dezinformace a dezinformace jevily jako úžasně platné a oklamaly lidi, aby uvěřili, že prezentované informace jsou lákavě přesné a faktické. Rozhodně smutná tvář toho, co AI přináší na stůl. Ke konci této diskuse se vrátíme k této nevýhodné hádance.

Nasaďme si zatím naše smajlíky a prozkoumejme, jak je umělá inteligence prospěšná při srážení dezinformací a dezinformací na jejich mocná kolena. Jedním z důležitých spodních proudů bude, že toto vše zapadá do zásadních prvků etiky umělé inteligence. Mé rubriky o etice AI a etické AI pokračují a jsou rozsáhlé, včetně odkaz zde a odkaz zde, Abychom jmenovali jen několik.

Zvažte tyto základní způsoby, jak může být AI obzvláště užitečným spojencem ve válce proti dezinformacím a dezinformacím:

  • Zastavte se na začátku: Umělá inteligence může být použita k detekci a pokusu odstranit dezinformace a dezinformace dříve, než se uvolní
  • Filtr před zobrazením: AI lze použít k filtrování dezinformací a dezinformací, takže se nemusíte bát, že je uvidíte
  • Připravte se na imunitu: Umělá inteligence může být použita k posílení vaší připravenosti a schopnosti bojovat s dezinformacemi a dezinformacemi (známé poněkud formálně jako poskytování určitého druhu psychologického očkování)
  • Ostatní

První uvedená odrážka znamená snahu zastavit dezinformace a dezinformace co nejdříve, než se obsah dostane na svět.

Jedná se o vysoce problematický přístup. Někteří by hlasitě tvrdili, že by to mohl být pokus Velkého bratra potlačit svobodu slova. Jak daleko by tato umělá inteligence byla schopna zajít? Mohlo by to lidem bránit ve svobodném vyjadřování svých názorů? To by se děsivě mohlo stát kluzkým svahem, kdy se AI nakonec stane nejhorší noční můrou zla, která nevinně začala s těmi nejlepšími úmysly.

Jsem si jistý, že chápete.

Druhá odrážka je o něco umírněnější a naznačuje, že bychom mohli použít AI k filtrování obsahu za nás.

Možná máte robota s filtrem AI, který bude skenovat všechny vaše příchozí datové kanály z různých zpráv a dalších zdrojů. Umělá inteligence je přizpůsobena tak, aby zachytila ​​všechny dezinformace nebo dezinformace, které odpovídají vašim osobním kritériím. V takovém scénáři tedy nejde o situaci cenzury Velkého bratra. Ovládáte AI a způsob, jakým za vás filtruje vaši skutečnou doručenou poštu.

Zní to docela dobře.

Existují však některé pozoruhodné obavy.

Například v našich názorech jsme již značně polarizováni a toto použití AI může tuto polarizaci prohloubit a ztmavit. Představte si, že s touto úhlednou umělou inteligencí, která funguje nepřetržitě 24×7, už nikdy nebudete muset vidět ani kousek informací, které jste klasifikovali jako potenciálně dezinformace a dezinformace. Vaše polarizovaná perspektiva je nyní téměř zaručena, že zůstane nedotčena. Po celý den a kdykoli se budete chtít podívat na informace, které čekají na vaši pozornost, jsou vždy plně předem vybrány a nemáte šanci se podívat na takzvané dezinformace a dezinformace.

Říkám, že dezinformace a dezinformace mohou být takzvaný protože existuje obrovské množství kontroverzí ohledně toho, co vlastně dezinformace a dezinformace jsou. Někteří učenci trvají na tom, že existuje absolutní základ pro zjištění, co je dezinformace a co dezinformace. Existuje správné a špatné. Vše lze vypočítat, aniž bychom se mýlili, že něco je buď dezinformace, nebo dezinformace.

Ne každý vidí věci tak jasně.

Pověstný on-nebo-off vzájemně se vylučující dichotomický kontrast je považován za zavádějící způsob myšlení. Dezinformace jedné osoby nemusí být považovány za dezinformace pro jinou osobu. Stejně tak o dezinformacích. Tvrdí se, že dezinformace a dezinformace mají rozsah, pokud jde o povahu a rozsah. Pokusit se definitivně zařadit všechny informace do jedné nebo druhé hromádky je mnohem těžší, než naznačuje mávnutí rukou.

Podstatou je, že druhá odrážka o použití umělé inteligence jako mechanismu filtrování má své nevýhody. Není pochyb o tom, že AI bude stále více využívána. Zároveň musíme mít na paměti výzvy, které taková AI přinese do popředí. Umělá inteligence jako filtr dezinformací a dezinformací není žádná kulka nebo slam dunk.

Tím se dostáváme ke třetímu bodu, konkrétně k možnosti použití AI k tomu, aby se lidé lépe vypořádali s dezinformacemi a dezinformacemi.

Pochybuji, že jste o této třetí cestě využití umělé inteligence v této souvislosti už pravděpodobně hodně slyšeli. Teprve se začíná objevovat. Nyní jste na špici něčeho, co pravděpodobně poroste a bude postupně uvedeno do provozu. Uvědomte si však, že jak tato popularita narůstá, polemika o tom, zda je to vhodný přístup, bude také velmi viditelná.

Část problému spočívá v tom, že umělá inteligence se poněkud používá k tomu, co by někteří hanlivě nazývali hraní her mysli s lidmi.

To vypadá zlověstně.

Tím se také dostáváme do oblasti etiky umělé inteligence.

To vše také souvisí se střízlivě se objevujícími obavami o dnešní umělou inteligenci a zejména o využití strojového učení a hlubokého učení jako formy technologie a o tom, jak se využívá. Víte, existují použití ML/DL, která mají tendenci zahrnovat antropomorfizaci AI širokou veřejností, věříc nebo rozhodnutí předpokládat, že ML/DL je buď vnímající AI, nebo blízko (není). Kromě toho může ML/DL obsahovat aspekty porovnávání výpočetních vzorů, které jsou nežádoucí nebo přímo nevhodné nebo nezákonné z etického nebo právního hlediska.

Mohlo by být užitečné nejprve objasnit, co mám na mysli, když mluvím o AI celkově, a také poskytnout stručný přehled o strojovém učení a hlubokém učení. Existuje velký zmatek v tom, co umělá inteligence znamená. Rád bych vám také představil zásady etiky umělé inteligence, které budou zvláště nedílnou součástí zbytku tohoto diskurzu.

Uvedení rekordu o AI

Ujistíme se, že jsme na stejné stránce ohledně povahy dnešní umělé inteligence.

Dnes neexistuje žádná AI, která by byla vnímavá.

Tohle my nemáme.

Nevíme, zda bude vnímající AI možná. Nikdo nemůže výstižně předpovědět, zda dosáhneme vnímající AI, ani zda se vnímající AI nějakým zázrakem spontánně objeví ve formě výpočetní kognitivní supernovy (obvykle označované jako The Singularity, viz moje zpravodajství na odkaz zde).

Uvědomte si, že dnešní umělá inteligence není schopna „myslet“ žádným způsobem na stejné úrovni jako lidské myšlení. Když komunikujete s Alexou nebo Siri, konverzační schopnosti se mohou zdát podobné lidským schopnostem, ale skutečnost je taková, že jsou výpočetní a postrádají lidské poznání. Nejnovější éra umělé inteligence široce využívá strojové učení a hluboké učení, které využívají porovnávání výpočetních vzorů. To vedlo k systémům umělé inteligence, které vypadají jako lidské sklony. Mezitím dnes neexistuje žádná umělá inteligence, která by měla zdání zdravého rozumu, ani žádný z kognitivních úžasů robustního lidského myšlení.

Součástí problému je naše tendence k antropomorfizaci počítačů a zejména AI. Když se zdá, že počítačový systém nebo umělá inteligence jedná způsobem, který si spojujeme s lidským chováním, existuje téměř zdrcující nutkání připsat systému lidské vlastnosti. Je to běžná mentální past, která dokáže chytit i toho nejneústupnějšího skeptika ohledně šancí dosáhnout rozumu.

To je do určité míry důvod, proč je etika a etická umělá inteligence tak zásadním tématem.

Předpisy etiky AI nás nutí zůstat ostražití. Technologové umělé inteligence mohou být občas zaneprázdněni technologií, zejména optimalizací špičkových technologií. Nezbytně nezvažují větší společenské důsledky. Mít etiku AI a dělat to nedílně pro vývoj a nasazení AI je životně důležité pro vytváření vhodné AI, včetně posouzení toho, jak je etika AI přijata firmami.

Kromě toho, že obecně používáme etické zásady AI, existuje odpovídající otázka, zda bychom měli mít zákony, které by řídily různá použití AI. Na federální, státní a místní úrovni se šíří nové zákony, které se týkají rozsahu a povahy toho, jak by měla být umělá inteligence navržena. Snaha navrhnout a přijmout takové zákony je postupná. Etika umělé inteligence slouží přinejmenším jako zvažovaná překážka a téměř jistě bude do určité míry přímo začleněna do těchto nových zákonů.

Uvědomte si, že někteří neústupně tvrdí, že nepotřebujeme nové zákony, které pokrývají AI, a že naše stávající zákony jsou dostatečné. Varují, že pokud uzákoníme některé z těchto zákonů AI, zabijeme zlatou husu tím, že potlačíme pokroky v AI, které nabízejí obrovské společenské výhody. Viz například moje pokrytí na odkaz zde.

V předchozích sloupcích jsem pokryl různé národní a mezinárodní snahy o vytvoření a uzákonění zákonů regulujících umělou inteligenci, viz odkaz zde, například. Zabýval jsem se také různými principy a směrnicemi etiky AI, které různé národy identifikovaly a přijaly, včetně například úsilí OSN, jako je soubor etiky AI UNESCO, který přijalo téměř 200 zemí, viz. odkaz zde.

Zde je užitečný základní seznam etických kritérií nebo charakteristik AI systémů AI, které jsem dříve podrobně prozkoumal:

  • Průhlednost
  • Spravedlnost a férovost
  • Neškodlivost
  • Odpovědnost
  • Ochrana osobních údajů
  • Dobročinnost
  • Svoboda a autonomie
  • Věřte
  • udržitelnost
  • Důstojnost
  • Solidarita

Předpokládá se, že tyto principy etiky AI budou vážně využívat vývojáři AI spolu s těmi, kteří řídí úsilí o vývoj AI, a dokonce i ti, kteří nakonec používají a provádějí údržbu systémů AI. Všechny zúčastněné strany během celého životního cyklu vývoje a používání AI jsou posuzovány v rámci dodržování zavedených norem etické AI. To je důležité upozornit, protože obvyklý předpoklad je, že „pouze kodéři“ nebo ti, kteří programují AI, podléhají dodržování etických pojmů AI. Jak bylo zdůrazněno výše, k vymýšlení a nasazení umělé inteligence je zapotřebí vesnice, přičemž celá vesnice musí být zběhlá a dodržovat etické předpisy AI.

Nechme věci při zemi a zaměřme se na dnešní výpočetní necítící AI.

ML/DL je forma porovnávání výpočetních vzorů. Obvyklý přístup je takový, že shromažďujete data o úloze rozhodování. Data vkládáte do počítačových modelů ML/DL. Tyto modely se snaží najít matematické vzorce. Po nalezení takových vzorů, pokud jsou nalezeny, systém umělé inteligence tyto vzory použije, když narazí na nová data. Po předložení nových dat se pro vykreslení aktuálního rozhodnutí použijí vzory založené na „starých“ nebo historických datech.

Myslím, že můžete hádat, kam to směřuje. Pokud lidé, kteří se rozhodovali podle vzoru, začlenili nežádoucí předsudky, je pravděpodobné, že data to odrážejí jemnými, ale významnými způsoby. Počítačové porovnávání vzorů Machine Learning nebo Deep Learning se jednoduše pokusí odpovídajícím způsobem matematicky napodobit data. Neexistuje žádné zdání zdravého rozumu nebo jiných vnímavých aspektů modelování vytvořeného umělou inteligencí jako takového.

Kromě toho si vývojáři AI nemusí uvědomit, co se děje. Tajemná matematika v ML/DL může ztížit odhalení nyní skrytých předsudků. Oprávněně byste doufali a očekávali, že vývojáři umělé inteligence budou testovat potenciálně pohřbené předsudky, i když je to složitější, než by se mohlo zdát. Existuje solidní šance, že i přes poměrně rozsáhlé testování, že v modelech porovnávání vzorů ML/DL budou stále zakomponovány zkreslení.

Dalo by se tak trochu použít slavné nebo nechvalně známé pořekadlo o smetí-do odpadu-ven. Jde o to, že je to spíše podobné předsudkům – in, které se zákeřně prolínají, když se předsudky ponoří do AI. Algoritmus rozhodování (ADM) umělé inteligence je axiomaticky zatížen nerovnostmi.

Špatný.

Domnívám se, že jsem nyní připravil půdu k dostatečné diskusi o roli umělé inteligence jako prostředku k podněcování psychologického očkování souvisejícího s nakládáním s dezinformacemi a dezinformacemi.

Dostat se do myslí lidí

Začněme základy nebo základy dezinformací a dezinformací.

Obecně se dezinformace týká nepravdivých nebo zavádějících informací.

Dezinformace je zhruba stejná, i když se skládá z přidaného prvku soustředěný. Normálně si informace vykládáme jako dezinformace, když se jedná o informace zamýšlený dezinformovat.

Mohl bych vám říct, že je aktuálně 10 hodin v noci, což je řekněme nepravda, protože je skutečně půlnoc. Kdybych vám řekl 10 hodin jako tušení a nesnažil jsem se být klamný, obvykle bychom řekli, že jsem vás špatně informoval. Předal jsem dezinformace. Možná jsem byl líný nebo jsem opravdu věřil, že je 10 hodin. Na druhou stranu, pokud bych zmínil 10 hodin, protože jsem vás chtěl záměrně oklamat, abyste si mysleli, že je 10 hodin a že vím, že je ve skutečnosti půlnoc, dalo by se říci, že jde o formu dezinformace. .

Jedním z pozoruhodných aspektů informací celkově je, že obvykle jsme schopni informace šířit, a tak se informace mohou do určité míry rozšířit. Informace mohou skutečně plynout jako voda v širokém slova smyslu.

Říkám vám, že je 10 hodin v noci. Nyní máte tuto konkrétní informaci. Můžete nahlas zakřičet na skupinu lidí v okolí, že je 10 hodin v noci. Nyní mají stejné informace. Možná se někteří z těchto lidí dostanou do svých mobilních telefonů a zavolají jiným lidem, aby jim řekli, že je 10 hodin. Celkově vzato lze informace šířit nebo sdílet a někdy tak rychle, zatímco v jiných případech pomalu.

V jistém smyslu byste mohli tvrdit, že informace se mohou stát virálními.

Existuje vymyšlené slovo nebo terminologie, kterou jste možná ještě neviděli nebo nepoužívali a která pomáhá při popisu tohoto fenoménu šíření informací, slovo je infodemický. Toto slovo je směsí informací a zároveň epidemie. Obecně platí, že infodemie je spojena s okolnostmi, které zahrnují šíření dezinformací nebo dezinformací. Předpokládá se, že nepravdivé nebo zavádějící informace se mohou nežádoucím způsobem šířit podobně jako nežádoucí šíření nemocí nebo nemocí.

V příkladu o 10. hodině v noci byla tato zdánlivá skutečnost informací, která byla rozšířena na blízkou skupinu lidí. Oni na oplátku šíří skutečnost ostatním. Pokud byla 10. hodina falešná, pak se tento konkrétní případ dezinformace nebo dezinformace rozšířil na mnoho dalších. Nemusí vědět, že informace byly dezinformace nebo možná dezinformace.

Věřím, že všechny tyto definice a základy se zdají rozumné a vy jste zatím na palubě.

Skvělé, pokračujeme.

Poněkud tajně jsem vás zavedl do něčeho, co zabírá velkou dávku fascinace a také úzkosti. Podstata spočívá v tom, že existují prokazatelně rozumné paralely mezi tím, co nemoci způsobují virově, a tím, co virově způsobují dezinformace nebo dezinformace.

Ne každý s těmito proklamovanými paralelami souhlasí. Přesto jsou zajímavé a stojí za pozornost.

Dovolte mi to upřesnit.

Víte, můžeme se pokusit využít užitečnou analogii odkazování na nemoci přenášené lidmi a nemoci, které se šíří, a porovnat podobnou možnost s šířením dezinformací a dezinformací. Abychom se pokusili zastavit šíření nemocí, můžeme se zaměřit na včasné odhalení a pokusit se omezit nově se objevující nemocný zdroj poukazující na potenciální šíření nemoci. Dalším přístupem, jak se vypořádat s šířící se chorobou, by bylo chránit se před jejím nakažením pomocí uvážlivého používání masky nebo ochranného vybavení. Třetí přístup by mohl spočívat v očkování, abyste se pokusili vybudovat vaši imunitu související s nemocí.

Nyní jsme uzavřeli kruh v tom, že stejné přístupy k zvládání nemocí lze výslovně přirovnat k zacházení s dezinformacemi a dezinformacemi. Již dříve jsem zmínil, že probíhají podobné snahy o využití umělé inteligence pro účely pokusu vyrovnat se s dezinformacemi a dezinformacemi, zejména (jak bylo zmíněno dříve):

  • Zastavte se na začátku: Umělá inteligence může být použita k detekci a pokusu odstranit dezinformace a dezinformace dříve, než se uvolní
  • Filtr před zobrazením: AI lze použít k filtrování dezinformací a dezinformací, takže se nemusíte bát, že je uvidíte
  • Připravte se na imunitu: Umělá inteligence může být použita k posílení vaší připravenosti a schopnosti bojovat s dezinformacemi a dezinformacemi (známé poněkud formálně jako poskytování určitého druhu psychologického očkování)
  • Ostatní

Třetí aspekt zde bude nejvíce zajímavý.

Tady je dohoda.

Víme, že nemoci obvykle zasahují lidské tělo. S analogií toho, jak dochází k dezinformacím a dezinformacím, bychom mohli naznačit, že nečisté informace zasahují lidská mysl. Ano, pravděpodobně se můžete dostat do kontaktu s dezinformacemi nebo dezinformacemi, které proudí do vaší mysli. Dezinformace nebo dezinformace potenciálně kazí nebo otravují váš způsob myšlení.

Lidské tělo může být očkováno, aby se pokusilo připravit se na kontakt s nemocemi. Vyvstává velká otázka, zda můžeme udělat totéž pro lidskou mysl. Je možné zkusit naočkovat mysl tak, že když vám dezinformace nebo dezinformace přijde na mysl, že jste na to připraveni a byli jste podle toho naočkováni?

Studijní obor známý jako psychologické očkování předpokládá, že mysl může být skutečně naočkována ve smyslu připravenosti zvládnout dezinformace nebo dezinformace.

Zvažte tento popis v nedávné výzkumné studii týkající se psychologického očkování a toho, co je někdy označováno jako dělání prebunking:

  • „Odhalování dezinformací je také problematické, protože oprava dezinformací ne vždy zcela zruší jejich účinky, což je fenomén známý jako efekt pokračujícího vlivu. V souladu s tím, na rozdíl od odhalování, získalo předběžné odhalení důležitost jako prostředek k preventivnímu budování odolnosti proti očekávanému vystavení dezinformacím. Tento přístup je obvykle založen na teorii očkování. Teorie očkování následuje analogii lékařské imunizace a předpokládá, že je možné vybudovat psychologickou odolnost proti nechtěným pokusům o přesvědčování, podobně jako lékařské očkování buduje fyziologickou odolnost proti patogenům“ (Věda Zálohy, 24. srpna 2022, „Psychologické očkování zlepšuje odolnost proti dezinformacím na sociálních sítích“ od spoluautorů Jona Roozenbeeka, Sandera van der Lindena, Beth Goldbergové, Steva Rathje a Stephana Lewandowského).

Vrátíme-li se k mému příkladu o čase, který je 10 hodin v noci, předpokládejme, že jsem vám dříve řekl, že někdy uváděný čas není skutečný čas. Od nynějška máte formu očkování, abyste se měli na pozoru před nárokovanými časy. Toto očkování vás připravilo na kontakt s údajnými časy, které jsou dezinformacemi nebo dezinformacemi.

Pokud jsem vás před několika lety varoval, že uváděné časy nejsou skutečnými časy, je možné, že vás toto dávné varování nenapadlo. Dřívější očkování se tedy (řekněme) opotřebovalo. Moje očkování pro vás možná bude potřeba posílit.

Existuje také možnost, že očkování nebylo dostatečně specifické, abyste jej mohli použít, když to bude potřeba. Kdybych vás před lety varoval před uváděnými časy oproti skutečným časům, mohlo by to být příliš široké. Očkování nemusí fungovat v konkrétním případě, kdy vám bylo řečeno o 10. hodině. V tomto smyslu jsem možná měl být naočkován tak, že byste měli být opatrní, když je použit údajný čas 10 hodin. Samozřejmě, očkování v případě nemocí je poněkud stejné, někdy je velmi specifické pro známá onemocnění, zatímco v jiných případech je široké spektrum.

Často citovaná výzkumná studie provedená v roce 1961 o psychologické inokulaci Williamem McGuirem z Kolumbijské univerzity je dnes obecně považována za klasiku v tomto oboru. Možná vás budou zajímat tyto klíčové body, které v té době učinil:

  • "Taková generalizovaná imunizace by mohla pocházet z jednoho ze dvou mechanismů." Předexpozice může člověka šokovat tím, že si uvědomí, že „truismy“, které vždy přijímal, jsou skutečně zranitelné, a tak ho vyprovokují k obraně své víry, což má za následek, že je odolnější vůči silným protiargumentům, když přijdou. Alternativně mohou vyvrácení obsažená v předběžném vystavení všem následně předloženým protiargumentům proti přesvědčení vypadat méně působivě“ (William McGuire, „Resistance to Persuasion Conferred by Active and Passive Prior Refutation Of The Same And Alternative Counterarguments“, Journal of Abnormal and Sociální psychologie, 1961).

Považujete tuto analogii očkování a imunizace za užitečné a výstižné přirovnání k oblasti dezinformací a dezinformací?

Někteří ano, někteří ne.

Pro účely této diskuse prosím přijměte, že předpoklad je rozumný a výstižný.

Jak se máme pokusit naočkovat nebo imunizovat mysl lidí?

Mohli bychom přimět lidi, aby četli knihy, které by mohly osvítit jejich mysl. Můžeme jim o tom říct, nebo je nechat sledovat videa nebo poslouchat audiokazety. Atd.

A my bychom k tomu mohli použít AI.

Systém umělé inteligence může být navržen jako váš inokulátor. Kdykoli začnete být online, například se díváte na internet, aplikace založená na umělé inteligenci vás může připravit na vaši online cestu. Umělá inteligence vás může nakrmit malinkým množstvím dezinformací, které jsou takto označeny, což vám umožní uvědomit si, že se chystáte vidět něco, co je záměrně falešné.

Když jste vystaveni této dezinformaci krmené umělou inteligencí, vaše mysl je nyní připravena vyrovnat se s dezinformacemi nebo dezinformacemi, se kterými se můžete setkat ve volné přírodě na internetu. Vaše mysl je připravena. Voilá, na internetu vidíte blog, který nabízí tvrzenou skutečnost, že mimozemští tvorové z Marsu jsou již zde na Zemi a skrývají se na očích, ale tato zdánlivá dezinformace nebo dezinformace je snadno odmítnuta vaší myslí kvůli předchozímu očkování (no, pak znovu, možná je to pravdivé a oni tu opravdu jsou!).

Každopádně doufám, že nyní dokážete rozeznat, jak to, že umělá inteligence může pomoci naočkovat nebo imunizovat lidi s ohledem na dezinformace nebo dezinformace.

Vymýšlejí se různé aplikace umělé inteligence, které budou fungovat jako dezinformační nebo dezinformační inokulátory. AI se může snažit poskytnout očkování, které je široké a poskytuje celkové zdání imunizace. AI by také mohla být navržena pro specifičtější formy očkování. Kromě toho může umělá inteligence pracovat na personalizovaném základě, který je vyladěn podle vašich konkrétních potřeb nebo zájmů. Pokročilá umělá inteligence v tomto prostoru se také pokusí určit vaši úroveň tolerance, míru mentální absorpce, retenční kapacitu a další faktory při sestavování a předkládání takzvaných imunizačních záběrů.

Vypadá docela šikovně.

AI jako hráč Dangerous Mind Games

AI použitá tímto způsobem by se na první pohled zdála docela šikovná (hej, zmínil jsem to před sekundou).

Existuje spousta potenciálních nevýhod a problémů, které jsou znepokojivé a možná děsivé.

Ve svých sloupcích často diskutuji o kapacitách AI pro dvojí využití, viz například odkaz zde. Umělá inteligence může být zásadním přispěvatelem lidstvu. Bohužel, AI je také zatížena spoustou nebezpečí a nešťastných nástrah.

V případě umělé inteligence jako inkulátoru se podívejme na tyto demonstrativní problémy související s etikou AI:

  • Nežádoucí reakce u lidí
  • Nereagující reakce lidí
  • Špatné cílení AI
  • Nedostatečné cílení AI
  • Cyber ​​Breach of the AI
  • Ostatní

Tyto obavy krátce prozkoumáme.

Nežádoucí reakce u lidí

Předpokládejme, že člověk, který obdrží tento druh očkování na bázi AI, má nepříznivou reakci nebo vyvolává nepříznivý účinek.

Dotyčná osoba si může nesprávně vyložit imunizaci a náhle přestane vnímat jakoukoli informaci, kterou obdrží. Blokují všechny informace. Umělá inteligence je nějak přiměla k tomu, aby vylili i dítě s vodou ve vaně (staré přísloví, které možná stojí za to odejít do důchodu). Namísto toho, aby se člověk pouze snažil vyrovnat s dezinformacemi a dezinformacemi, reagoval tím, že rozhodl, že všechny informace jsou vždy nepravdivé.

Nemyslím si, že chceme, aby to lidé přeháněli.

Existuje mnoho nežádoucích reakcí, které může AI podporovat. Částečně je to způsobeno tím, jak se AI pokusila provést očkování, ale také musíme část problému položit k nohám člověka, který dostal očkování. Mohli reagovat divokým nebo bizarním způsobem, že ostatní, kteří dostali stejnou inokulaci AI, tak neučinili.

Opět to můžete přirovnat k obdobě očkování proti nemocem.

Stručně řečeno, bude důležité, že když se takové snahy AI využívají, byly prováděny odpovědnými způsoby, které se snaží minimalizovat nepříznivé účinky. Měl by existovat také následný aspekt AI, který se pokusí zjistit, zda došlo k nežádoucí reakci. Pokud je zjištěna nežádoucí reakce, AI by měla být navržena tak, aby se pokusila pomoci osobě v její nepříznivé reakci a snažila se tuto reakci překonat nebo zmírnit.

Nereagující reakce lidí

Další možností je, že inokulace AI nemá žádný dopad na přijímající osobu.

Osoba dostane očkování na základě AI související s dezinformacemi nebo dezinformacemi. Zatímco většina lidí to „dostane“ a nechá se očkovat, určitě se najdou lidé, kteří nebudou reagovat vůbec. Z očkování se nic nedozvědí. Nereagují na pokus AI o jejich imunizaci vůči všem nebo určitým typům dezinformací nebo dezinformací.

Opět je to srovnatelné s očkováním proti nemocem.

Umělá inteligence by měla být navržena tak, aby se s takovou situací potýkala.

Chybné cílení AI

Představte si, že umělá inteligence doufá, že imunizuje lidi ohledně konkrétního tématu, o kterém řekneme, že je téma X, ale ukázalo se, že místo toho je pokryto téma Y. AI špatně cílí.

To je dvojí problém. Za prvé, téma X nebylo zahrnuto jako předpokládaný a očekávaný účel inokulátoru AI. Za druhé, téma Y je pokryto, ale možná jsme nechtěli, aby byli lidé na toto téma imunizováni.

Chybička se vloudila.

Otázek je spousta. Dalo se tomu zabránit? Pokud se to stane, můžeme zrušit téma Y imunizace? Můžeme se snažit pokrýt téma X očkování, nebo bude daná osoba méně vnímavá nebo nevnímavá kvůli původnímu nesprávnému cílení AI?

Vzniká spousta problematických obav.

Nedostatečné cílení AI

AI poskytuje očkování na téma Z. Zdá se, že lidé, kteří dostávají očkování, mají minimální nebo téměř zanedbatelnou reakci. Očkování bylo nedostatečné, aby se uchytilo.

Můžete být v pokušení rychle tvrdit, že to lze snadno vyřešit. Jediné, co musíte udělat, je opakovat očkování. Možná ano možná ne.

Inokulace AI může mít tak omezenou hodnotu, že bez ohledu na to, zda to lidé zažijí stokrát, výsledek je stále okrajový. Možná budete muset očkování zesílit, spíše než jej jednoduše opakovat.

Mezitím si představte, že je učiněn pokus o posílení inokulace AI, ale to jde přes palubu. Posílená verze způsobuje hyperreakce. Jejda, dostali jsme se od špatného k horšímu.

Kybernetické porušení AI

Představte si, že umělá inteligence je ve velké míře využívána k tomu, aby pomohla lidem, aby byli naočkováni dezinformacemi a dezinformacemi.

U lidí převládá všeobecná důvěra. Vědí a očekávají, že jim AI předloží úryvky, které jim otevřou oči v tom, co je známé jako dezinformace a dezinformace.

Všechno je v pořádku, zdá se.

Zločinec je nějakým způsobem schopen provést kybernetické narušení AI. Záludně vnucují AI nějakou požadovanou dezinformaci, o které chtějí, aby si lidé mysleli, že dezinformace není. AI je uspořádána tak, aby skutečné dezinformace vypadaly jako pravdivé informace. Stejně tak se pravdivé informace jeví jako dezinformace.

Lidé jsou úplně snookerovaní. Jsou dezinformováni AI. Navíc, protože se stali závislými na AI, a díky důvěře, že AI dělá správnou věc, padají za tuto narušenou AI hák, šňůra a závaží. Bez váhání.

Vzhledem k tomu, jak snadno se mohou dezinformace dále šířit, by si pachatelé zla mohli vychutnat, že existence tohoto druhu umělé inteligence je jejich nejjednodušším a nejrychlejším způsobem, jak přimět jejich zákeřné lži svět. Je ironií, že jsme samozřejmě využili inokulátor AI k v podstatě šíření nemoci.

Proč investovat do čističky vzduchu?

Měli bychom nechat AI, aby s námi hrála hry mysli?

Může být umělá inteligence pro dezinformační a dezinformační očkování hrozivým trojským koněm?

Pro obavy z takové noční můry můžete uvést věcný důvod.

Jiní se takové možnosti posmívají. Lidé jsou dost chytří na to, aby věděli, kdy se je AI pokusí oklamat. Lidé na takové driblování nenaletí. Jen idioti by se nechali svést takovou AI. To jsou obvyklé repliky a protiargumenty.

Nechci se zdát, že lidi a lidskou povahu jen plně obdivuji, pouze bych naznačil, že existuje dostatek náznaků, že by lidé mohli propadnout umělé inteligenci, která je svádí.

Nad tím vším se možná vynořuje ještě větší problém.

Kdo vytváří AI a jak AI algoritmicky rozhoduje o tom, co je považováno za dezinformaci a dezinformaci?

Dnes ve světě obecně probíhá celá přestřelka o tom, co konkrétně představuje dezinformace a dezinformace. Někteří tvrdí, že fakta jsou fakta, takže nikdy nemůže dojít k záměně ohledně toho, co je správná informace versus nesprávná informace. I když ďábel je občas v detailech, to je zatraceně jisté.

Prozatím poslední poznámka. Abraham Lincoln proslavil výrok: „Můžete oklamat všechny lidi v určitou dobu a některé z nich neustále, ale nemůžete oklamat všechny lidi neustále.“

Bude umělá inteligence, která se používá k naočkování lidstva před dezinformacemi a dezinformacemi, životně důležitým nástrojem k zajištění toho, že ne všichni lidé mohou být neustále oklamáni? Nebo by to mohlo být použito k oklamání více lidí častěji?

Čas ukáže.

A to rozhodně nejsou žádné dezinformace nebo dezinformace.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-desinformation/