Jak moc bychom měli tlačit generativní AI ChatGPT do chrlení nenávistných projevů, ptá se etiky AI a zákona o AI

Každý má svůj bod zlomu.

Předpokládám, že by se to dalo také říct vše má svůj bod zlomu.

Víme, že lidé například někdy dokážou utrhnout a pronést poznámky, které nemusí nutně říct. Podobně můžete občas přimět zařízení nebo stroj, aby v podstatě praskl, například když auto příliš zatlačíte a začne se chvět nebo se rozlétat. Představa je tedy taková, že lidé nebo „každý“ pravděpodobně mají bod zlomu, a podobně můžeme tvrdit, že předměty a věci obecně také mívají bod zlomu.

Mohly by existovat docela rozumné a zásadní důvody pro zjištění, kde existuje bod zlomu. Například jste nepochybně viděli videa, která ukazují, jak je vůz testován, aby zjistil, jaké má zlomové body. Vědci a testeři narazí autem do cihlové zdi, aby viděli, jak dobře nárazník a konstrukce vozidla odolá nepříznivému působení. Jiné testy by mohly zahrnovat použití specializované místnosti nebo skladu, který produkuje extrémní chlad nebo extrémní teplo, aby se zjistilo, jak si automobil povede za různých povětrnostních podmínek.

Toto srdečné téma přináším v dnešním sloupku, abychom mohli diskutovat o tom, jak někteří v současné době tvrdě tlačí na umělou inteligenci (AI), aby identifikovala a pravděpodobně odhalila konkrétní typ bodu zlomu, konkrétně bod zlomu v AI, který produkuje nenávistné projevy.

Ano, je to tak, existují různé ad hoc a občas systematické snahy o posouzení, zda je možné přimět AI, aby chrlila nenávistné projevy. To se stalo vášnivým sportem, chcete-li, kvůli rostoucímu zájmu a popularitě generativní umělé inteligence.

Možná si uvědomujete, že generativní aplikace umělé inteligence známá jako ChatGPT se stala velkým tématem města, protože byla schopna generovat úžasně plynulé eseje. Titulky neustále křičí a vychvalují úžasné psaní, které ChatGPT dokáže produkovat. ChatGPT je považována za generativní aplikaci AI, která přijímá jako vstup nějaký text od uživatele a poté generuje nebo vytváří výstup, který se skládá z eseje. Umělá inteligence je generátor textu na text, i když AI popisuji jako generátor textu na esej, protože to snadněji objasňuje, k čemu se běžně používá.

Mnozí jsou překvapeni, když zmíním, že tento typ umělé inteligence existuje již nějakou dobu a že ChatGPT, který byl vydán na konci listopadu, si cenu jako první, kdo vstoupil do této sféry převodu textu na esej, nějak nepřihlásil. sklon. V průběhu let jsem diskutoval o dalších podobných generativních aplikacích AI, viz moje pokrytí na odkaz zde.

Důvod, proč možná neznáte nebo si nepamatujete předchozí případy generativní umělé inteligence, je možná způsoben klasickým hlavolamem „neúspěšné spuštění“. Zde je to, co se obvykle stalo. Tvůrce umělé inteligence vydává svou generativní aplikaci umělé inteligence a činí tak s velkým nadšením a dychtivým očekáváním, že svět ocení vynález lepší pasti na myši, dalo by se říci. Zpočátku vše vypadá dobře. Lidé jsou ohromeni tím, co umělá inteligence dokáže.

Bohužel dalším krokem je, že z pověstného autobusu začnou sjíždět kola. Umělá inteligence vytvoří esej, která obsahuje sprosté slovo nebo možná sprostou frázi. Virální tweet nebo jiné příspěvky na sociálních sítích výrazně zdůrazňují, že to udělala AI. Objevuje se odsouzení. Nemůžeme nechat AI obcházet a generovat urážlivá slova nebo urážlivé poznámky. Objevuje se ohromný odpor. Tvůrce umělé inteligence se možná snaží vyladit vnitřní fungování umělé inteligence, ale složitost algoritmů a dat není vhodná pro rychlé opravy. Nastává tlačenice. Na internetu se nachází a zveřejňuje stále více příkladů, kdy umělá inteligence vyzařuje nečistoty.

Tvůrce AI neochotně, ale zjevně nemá jinou možnost, než odstranit aplikaci AI z používání. Postupují jako takoví a pak často nabízejí omluvu, které litují, pokud byl vytvořenými výstupy AI někdo uražen.

Zpátky na rýsovací prkno, tvůrce AI jde. Bylo poučeno. Buďte velmi opatrní při uvolňování generativní umělé inteligence, která produkuje sprostá slova nebo podobně. Je to polibek smrti pro AI. Kromě toho bude mít tvůrce umělé inteligence svou pověst pošramocenou a pošramocenou, což může trvat dlouho a podkopat všechny jejich další snahy o umělou inteligenci, včetně těch, které nemají nic společného s generativní umělou inteligencí jako takovou. Zanechat svého petarda vypouštěním urážlivého jazyka umělé inteligence je nyní trvalou chybou. Stále se to děje.

Umyjte, opláchněte a opakujte.

V počátcích tohoto typu umělé inteligence nebyli tvůrci umělé inteligence tak svědomití nebo zběhlí v drhnutí své umělé inteligence, pokud jde o snahu zabránit urážlivým emisím. V dnešní době, poté, co předtím viděli, jak se jejich vrstevníci úplně rozdrtili noční můrou v oblasti vztahů s veřejností, většina výrobců AI zdánlivě tuto zprávu pochopila. Musíte umístit co nejvíce zábradlí. Snažte se zabránit AI ve vysílání sprostých slov nebo sprostých frází. Použijte jakékoli náhubkové techniky nebo přístupy filtrování, které zabrání AI generovat a zobrazovat slova nebo eseje, které jsou shledány nevhodnými.

Zde je ochutnávka mnohoslovnosti nadpisu banneru, která se používá, když je AI přistižena při vydávání pochybných výstupů:

  • „AI předvádí děsivou toxicitu“
  • „AI zavání jasnou bigotností“
  • „AI se stává očividně útočně útočnou“
  • „AI chrlí otřesné a nemorální projevy nenávisti“
  • Atd.

Pro snazší diskusi zde budu odkazovat na výstup urážlivého obsahu jako na produkci nenávistné projevy. Jak již bylo řečeno, uvědomte si prosím, že existuje mnoho různých druhů urážlivého obsahu, který lze produkovat až za hranice samotných nenávistných projevů. Nenávistné projevy jsou obvykle vykládány pouze jako jedna forma urážlivého obsahu.

Zaměřme se v této diskuzi na nenávistné projevy, pro usnadnění diskuse, i když si uvědomme, že další urážlivý obsah si také zaslouží kontrolu.

Kopání do nenávistných řečí ze strany lidí a AI

Organizace spojených národů definuje nenávistné projevy tudy:

  • „V běžném jazyce se ‚nenávistné řeči‘ týkají urážlivého projevu zaměřeného na skupinu nebo jednotlivce na základě přirozených vlastností (jako je rasa, náboženství nebo pohlaví), které mohou ohrozit sociální smír. S cílem poskytnout OSN jednotný rámec pro řešení tohoto problému globálně definuje Strategie a akční plán OSN pro nenávistné projevy nenávistné projevy jako „jakýkoli druh komunikace v řeči, psaní nebo chování, který napadá nebo používá pejorativní nebo diskriminační jazyk s odkaz na osobu nebo skupinu na základě toho, kým jsou, jinými slovy na základě jejich náboženství, etnického původu, národnosti, rasy, barvy pleti, původu, pohlaví nebo jiného faktoru identity.“ Dosud však neexistuje žádná univerzální definice nenávistných projevů podle mezinárodního práva v oblasti lidských práv. O tomto konceptu se stále diskutuje, zejména ve vztahu ke svobodě názoru a projevu, nediskriminaci a rovnosti“ (webové stránky OSN s názvem „Co je nenávistný projev?“).

Umělá inteligence, která vytváří text, se může dostat do sféry nenávistných projevů. Totéž můžete říci o převodu textu na umění, převodu textu na zvuk, převodu textu na video a dalších režimech generativní umělé inteligence. Vždy existuje možnost, že například generativní umělá inteligence vytvoří umělecké dílo, které zavání nenávistnými projevy. Pro účely této diskuse se zaměřím na možnosti převodu textu na text nebo textu na esej.

Do toho všeho přichází spousta úvah o etice AI a zákonech o AI.

Uvědomte si prosím, že se neustále snažíme začlenit etické principy AI do vývoje a nasazení aplikací AI. Rostoucí skupina zainteresovaných a někdejších etiků umělé inteligence se snaží zajistit, aby snahy o vymýšlení a přijetí umělé inteligence braly v úvahu pohled na to, jak AI pro dobro a odvrácení AI pro špatné. Stejně tak jsou navrženy nové zákony o umělé inteligenci, které se šíří jako potenciální řešení, jak zabránit snahám umělé inteligence zbláznit se do lidských práv a podobně. Pro mé průběžné a rozsáhlé pokrytí etiky AI a práva AI viz odkaz zde a odkaz zde, Abychom jmenovali jen několik.

Vývoj a propagace etických zásad umělé inteligence se snaží zabránit tomu, aby společnost upadla do nesčetných pastí indukujících umělou inteligenci. Pro mé pokrytí etických principů AI OSN, jak byly navrženy a podporovány téměř 200 zeměmi prostřednictvím úsilí UNESCO, viz. odkaz zde. V podobném duchu se zkoumají nové zákony AI, které se snaží udržet AI na stejné úrovni. Jeden z nejnovějších záběrů se skládá ze sady navrhovaných Listina práv AI které americký Bílý dům nedávno vydal k identifikaci lidských práv ve věku AI, viz odkaz zde. Vyžaduje vesnici, aby udržela AI a vývojáře AI na správné cestě a odradila úmyslné nebo náhodné podvědomé snahy, které by mohly podkopat společnost.

Do této diskuse o umělé inteligenci chrlící nenávistné projevy nebo jiný urážlivý obsah vložím úvahy související s etikou AI a zákonem o AI.

Jeden malý zmatek, který bych rád okamžitě objasnil, je ten, že dnešní umělá inteligence není vnímavá, a proto nemůžete prohlásit, že by umělá inteligence mohla produkovat nenávistné projevy kvůli účelovému lidskému záměru, jak je oduševněle ztělesněný v AI. Zany tvrdí, že současná AI je vnímavá a že AI má zkaženou duši, což způsobuje, že generuje nenávistné projevy.

Směšný.

Nespadejte do toho.

Vzhledem k tomuto základnímu principu se někteří při takových indikacích rozčilují, protože zdánlivě vynecháváte AI. Při tomto podivném způsobu myšlení přichází na řadu nabádání, že jste zjevně ochotni nechat AI generovat jakýkoli způsob krutých výstupů. Jste pro AI, která chrlí nenávistné projevy.

Fuj, dost zvrácená forma nelogiky. Skutečnou podstatou věci je, že musíme pohnat k odpovědnosti tvůrce umělé inteligence spolu s kýmkoli, kdo AI vytváří nebo provozuje AI. Dlouho jsem diskutoval o tom, že ještě nejsme ve stavu, kdy bychom AI přiznávali právnickou osobu, viz moje analýzy na odkaz zde, a do té doby je AI v podstatě mimo rámec právní odpovědnosti. Existují však lidé, kteří jsou základem vývoje AI. Kromě toho, lidé jsou základem nasazení a provozu AI. Můžeme jít po těch lidech za to, že nesou odpovědnost za jejich AI.

Kromě toho to může být také složité, zvláště pokud se AI dostane na internet a my nejsme schopni určit, který člověk nebo lidé to udělali, což je další téma, kterému jsem se věnoval ve svých sloupcích na odkaz zde. Ať je to složité nebo ne, stále nemůžeme prohlásit, že AI je viníkem. Nedovolte lidem, aby záludně používali falešné antropomorfizace, aby se skryli a unikli odpovědnosti za to, co způsobili.

Zpět k věci.

Možná se divíte, proč všichni tvůrci umělé inteligence jednoduše neomezují svou generativní umělou inteligenci tak, že je nemožné, aby umělá inteligence produkovala nenávistné projevy. Zdá se to být snadné. Stačí napsat nějaký kód nebo vytvořit kontrolní seznam nenávistných slov a ujistěte se, že AI nikdy nic takového nevygeneruje. Zdá se možná zvláštní, že tvůrci umělé inteligence na tuto rychlou opravu již nemysleli.

Nerad vám to říkám, ale složitost spojená s výkladem toho, co je nebo není nenávistná řeč, se ukazuje být mnohem těžší, než byste si mysleli, že je.

Posuňte to do oblasti lidí a toho, jak spolu lidé chatují. Předpokládejme, že máte člověka, který se chce vyhnout projevům nenávisti. Tato osoba si je velmi dobře vědoma nenávistných projevů a upřímně doufá, že se vyhne vyslovení slova nebo fráze, která by mohla představovat nenávistný projev. Tato osoba neustále dbá na to, aby nedovolila, aby jí z úst unikla trocha nenávistných projevů.

Dokáže tento člověk, který má mozek a je upozorněn na to, aby se vyhýbal nenávistným projevům, vždy a bez možnosti uklouznutí zajistit, že nikdy nevysloví nenávistné projevy?

Vaším prvním impulsem by mohlo být říci, že ano, samozřejmě, osvícený člověk by byl schopen tohoto cíle dosáhnout. Lidé jsou chytří. Pokud se na něco zaměří, dokážou to udělat. Tečka, konec příběhu.

Nebuď si tak jistý.

Předpokládejme, že tuto osobu požádám, aby mi řekla o projevech nenávisti. Dále je žádám, aby mi uvedli příklad nenávistných projevů. Chci vidět nebo slyšet příklad, abych věděl, z čeho se skládá nenávistný projev. Mé důvody, proč se na to ptám, jsou tedy nadprůměrné.

Co by mi ten člověk měl říct?

Myslím, že můžete vidět past, která byla nastražena. Pokud mi tato osoba uvede příklad nenávistného projevu, včetně toho, že skutečně uvedl vulgární slovo nebo frázi, sám nyní vyslovil nenávistný projev. Bam, máme je. Zatímco přísahali, že nikdy nebudou říkat nenávistné projevy, nyní tak skutečně učinili.

Nespravedlivé, křičíš! Říkali to slovo nebo ta slova jen jako příklad. V hloubi srdce nevěřili slovu ani slovům. Je zcela vytržené z kontextu a pobuřující tvrdit, že daná osoba je nenávistná.

Jsem si jistý, že vidíte, že projevy nenávisti nemusí být nutně způsobeny nenávistným základem. V tomto případě použití, za předpokladu, že daná osoba ta slova nemyslela „namyšleně“ a pouze je recitovala pro účely demonstrace, pravděpodobně bychom souhlasili s tím, že neměla v úmyslu posílit nenávistné projevy. Samozřejmě existují lidé, kteří mohou trvat na tom, že pronášení nenávistných projevů, bez ohledu na důvod nebo základ, je přesto špatné. Osoba měla žádost odmítnout. Měli si stát za svým a odmítnout říkat slova nebo fráze nenávistných projevů, bez ohledu na to, proč nebo jak jsou o to požádáni.

To může být poněkud kruhové. Pokud nejste schopni říci, co tvoří nenávistné projevy, jak mohou ostatní vědět, čeho se mají vyvarovat, když pronesou jakýkoli druh projevu? Zdá se, že jsme uvízli. Nemůžete říci, co se nemá říci, ani nikdo jiný vám nemůže říci, co se říci nedá.

Obvyklý způsob, jak obejít toto dilema, je popsat jinými slovy to, co je považováno za nenávistné projevy, aniž bychom se dovolávali samotných slov z nenávistných projevů. Předpokládá se, že poskytnutí celkové indikace bude dostatečné k informování ostatních o tom, čemu se mají vyhnout. Zdá se to jako rozumná taktika, ale také to má problémy a člověk by stále mohl upadnout do používání nenávistných projevů, protože nerozpoznal, že širší definice zahrnuje podrobnosti toho, co vyslovil.

To vše se týká lidí a toho, jak spolu lidé mluví nebo komunikují.

Připomeňme, že se zde zaměřujeme na AI. Musíme přimět AI, aby se vyhnula nebo úplně zastavila šíření nenávistných projevů. Mohli byste namítnout, že to možná můžeme udělat tak, že zajistíme, aby AI nebyla nikdy poskytnuta ani vyškolena na nic, co představuje nenávistné projevy. Voila, pokud žádný takový vstup neexistuje, pravděpodobně žádný takový výstup nebude. Problém je vyřešen.

Podívejme se, jak to funguje ve skutečnosti. Rozhodli jsme se, že počítačově spustíme aplikaci AI na internet a prozkoumáme tisíce a tisíce esejů a příběhů zveřejněných na internetu. Tímto způsobem trénujeme AI výpočetně a matematicky, jak najít vzory mezi slovy, která lidé používají. Tak je vymýšlena nejnovější generativní umělá inteligence a je také zásadním základem toho, proč je umělá inteligence tak zdánlivě plynulá při vytváření esejů v přirozeném jazyce.

Řekněte mi, pokud můžete, jak by se výpočetní školení založené na milionech a miliardách slov na internetu provedlo takovým způsobem, aby v žádném okamžiku nebylo zahrnuto jakékoli zdání nebo dokonce sousta nenávistných projevů?

Troufám si říci, že je to ožehavá a téměř nemožná aspirace.

Je pravděpodobné, že nenávistné projevy budou spolknuty AI a její sítí pro porovnávání výpočetních vzorů. Snaha tomu zabránit je problematická. Navíc, i když jste to minimalizovali, stále existují nějaké, které by mohly proklouznout. V podstatě nemáte jinou možnost, než předpokládat, že nějaké budou v síti porovnávání vzorů existovat nebo že stín takového znění bude zakořeněný.

Přidám další zvraty.

Věřím, že bychom všichni mohli uznat, že nenávistné projevy se v průběhu času mění. To, co mohlo být vnímáno jako projev nenávisti, se může později kulturně a společensky rozhodnout jako projev nenávisti. Pokud tedy trénujeme naši AI na internetovém textu a pak řekněme zmrazíme AI, aby neprováděla další školení na internetu, mohli jsme v té době narazit na nenávistné projevy, i když v té době nebyly považovány za nenávistné. Teprve poté může být řečený projev prohlášen za nenávistný.

Podstatou je opět to, že pouhá snaha vyřešit tento problém zajištěním toho, že AI nebude nikdy vystavena nenávistným projevům, nebude stříbrnou kulkou. Stále budeme muset najít způsob, jak zabránit AI ve vysílání nenávistných projevů, například kvůli změně mravů, které následně zahrnují nenávistné projevy, které dříve nebyly za takové považovány.

Další zvrat stojí za zamyšlení.

Již dříve jsem zmínil, že při použití generativní umělé inteligence, jako je ChatGPT, uživatel zadá text, aby podnítil umělou inteligenci k vytvoření eseje. Zadaný text je považován za formu výzvy nebo výzvy pro aplikaci AI. Za chvíli vám o tom vysvětlím více.

V každém případě si představte, že se někdo, kdo používá generativní aplikaci AI, rozhodne zadat jako výzvu nějaké množství nenávistných projevů.

Co by se mělo stát?

Pokud AI tato slova vezme a vytvoří esej jako výstup na základě těchto slov, je pravděpodobné, že nenávistné projevy budou zahrnuty do generované eseje. Vidíte, přiměli jsme AI, aby říkala nenávistné projevy, i když nikdy nebyla na začátku trénována na nenávistné projevy.

Je ještě něco, co potřebujete vědět.

Pamatujte, že jsem právě zmínil, že člověka lze podrazit, když ho požádáte, aby uvedl příklady nenávistných projevů. Totéž by se dalo zkusit na AI. Uživatel zadá výzvu, která požádá AI, aby uvedla příklady nenávistných projevů. Měla by AI vyhovovat a poskytovat takové příklady? Vsadím se, že pravděpodobně věříte, že by to AI neměla dělat. Na druhou stranu, pokud je AI výpočetně upravena tak, aby to nedělala, představuje to potenciální nevýhodu, že ti, kteří používají AI, nebudou moci být, řekněme, že někdy budou instruováni AI o tom, co vlastně nenávistné projevy jsou ( než to jen zobecňovat)?

Těžké otázky.

Mám tendenci kategorizovat nenávistné projevy AI do těchto tří hlavních skupin:

  • Každodenní režim. Umělá inteligence vysílá nenávistné projevy bez jakéhokoli výslovného pobízení uživatelem a jako by to dělala „obyčejným“ způsobem.
  • Od Casual Prodding. Umělá inteligence vysílá nenávistné projevy, které jsou uživatelem pobídnuty, pokud jde o zadanou výzvu nebo sérii výzev, které podle všeho takové emise zahrnují nebo přímo vyhledávají.
  • Za stanovené přikládání. Umělá inteligence vydává nenávistné projevy po velmi odhodlané a zarputilé sérii rychlých postrčení a pobídek uživatelem, který je odhodlaný přimět AI, aby vytvořila takový výstup.

Dřívější generace generativní umělé inteligence často vydávaly nenávistné projevy při shození klobouku; takže byste mohli klasifikovat tyto instance jako typ každodenní režim konkretizace. Tvůrci umělé inteligence se stáhli a pohráli si s umělou inteligencí, aby bylo méně pravděpodobné, že se snadno utápí v produkci nenávistných projevů.

Po vydání vylepšené umělé inteligence je šance, že nějakou uvidím každodenní režim počet případů nenávistných projevů se dramaticky snížil. Místo toho by se nenávistné projevy pravděpodobně objevily pouze tehdy, když uživatel udělal něco jako výzvu, která by mohla výpočetně a matematicky zažehnout propojení s nenávistnými projevy v síti porovnávání vzorů. Uživatel by to mohl udělat náhodou a neuvědomit si, že to, co uvedl jako výzva, by vyvolalo nenávistné projevy. Poté, co uživatel dostane projevy nenávisti ve výstupní eseji, často si uvědomí a uvidí, že něco v jeho výzvě mohlo logicky vést k zahrnutí projevů nenávisti do výstupu.

To je to, co nazývám ležérní popichování.

V současnosti jsou různé snahy o omezení nenávistných projevů generovaných umělou inteligencí ve srovnání s minulostí poměrně silné. Jako takový musíte téměř vyjít ze své cesty, aby byly produkovány nenávistné projevy. Někteří lidé se rozhodnou záměrně zjistit, zda mohou z těchto generativních aplikací umělé inteligence vycházet nenávistné projevy. tomu říkám odhodlané přikládání.

Chci zdůraznit, že všechny tři uvedené režimy mohou nastat a vzájemně se nevylučují. Generativní aplikace umělé inteligence může potenciálně produkovat nenávistné projevy bez jakékoli výzvy, která by takovou produkci zřejmě podněcovala. Podobně by něco ve výzvě mohlo být logicky a matematicky vykládáno jako související s tím, proč byly nenávistné projevy vydány. A pak třetí aspekt, který se záměrně snaží vyvolat nenávistné projevy, je možná tím nejtěžším z režimů, který lze vyzkoušet, aby se umělá inteligence vyhnula tomu, aby ho naplňovala. Více o tom za chvíli.

Čeká nás další rozbalení tohoto opojného tématu.

Nejprve bychom se měli ujistit, že jsme všichni na stejné stránce o tom, z čeho se skládá generativní AI, a také o čem je ChatGPT. Jakmile pokryjeme tento základní aspekt, můžeme provést přesvědčivé posouzení této závažné záležitosti.

Pokud jste již dostatečně obeznámeni s Generativní AI a ChatGPT, můžete možná prolétnout další částí a pokračovat částí, která po ní následuje. Věřím, že všichni ostatní najdou poučné důležité podrobnosti o těchto záležitostech, když si tuto sekci pozorně přečtou a zorientují se.

Rychlý základ o generativní umělé inteligenci a ChatGPT

ChatGPT je univerzální interaktivní konverzační systém s umělou inteligencí, v podstatě zdánlivě neškodný obecný chatbot, nicméně jej lidé aktivně a horlivě používají způsoby, které mnohé úplně zaskočí, jak krátce upřesním. Tato aplikace AI využívá techniku ​​a technologii ve sféře AI, která je často označována jako Generativní AI. AI generuje výstupy, jako je text, což dělá ChatGPT. Jiné generativní aplikace AI produkují obrázky, jako jsou obrázky nebo umělecká díla, zatímco jiné generují zvukové soubory nebo videa.

V této diskusi se zaměřím na textové generativní aplikace AI, protože to ChatGPT dělá.

Generativní aplikace umělé inteligence se používají mimořádně snadno.

Vše, co musíte udělat, je zadat výzvu a aplikace AI vám vygeneruje esej, která se pokusí na vaši výzvu odpovědět. Komponovaný text bude působit, jako by esej byla napsána lidskou rukou a myslí. Pokud byste zadali výzvu, která říkala „Řekni mi o Abrahamu Lincolnovi“, generativní AI vám poskytne esej o Lincolnovi. To je běžně klasifikováno jako generativní AI, která funguje text-to-text nebo to někteří raději nazývají převod textu na esej výstup. Jak již bylo zmíněno, existují i ​​další režimy generativní umělé inteligence, jako je text-to-art a text-to-video.

Vaše první myšlenka by mohla být, že tato generativní schopnost nevypadá jako tak velký problém, pokud jde o vytváření esejů. Můžete snadno vyhledávat online na internetu a snadno najít tuny a tuny esejů o prezidentu Lincolnovi. Nakopnutím v případě generativní umělé inteligence je to, že vytvořená esej je relativně unikátní a poskytuje spíše originální kompozici než napodobeninu. Pokud byste se pokusili najít esej vytvořenou umělou inteligencí někde online, je nepravděpodobné, že byste ji objevili.

Generativní umělá inteligence je předem vycvičená a využívá složitou matematickou a výpočetní formulaci, která byla vytvořena zkoumáním vzorců psaných slov a příběhů na webu. V důsledku zkoumání tisíců a milionů psaných pasáží může AI chrlit nové eseje a příběhy, které jsou mišmašem toho, co bylo nalezeno. Přidáním různých pravděpodobnostních funkcí je výsledný text do značné míry jedinečný ve srovnání s tím, co bylo použito v trénovací sadě.

To je důvod, proč došlo k pozdvižení, že studenti mohou podvádět při psaní esejí mimo třídu. Učitel nemůže pouze vzít esej, o které podvodní studenti tvrdí, že je to jejich vlastní psaní, a snažit se zjistit, zda nebyla zkopírována z nějakého jiného online zdroje. Celkově vzato nebude existovat žádná definitivní již existující online esej, která by se hodila na esej vygenerovanou AI. Celkově vzato, učitel bude muset neochotně přijmout, že student napsal esej jako originální dílo.

Existují další obavy ohledně generativní umělé inteligence.

Jednou zásadní nevýhodou je, že eseje vytvořené generativní aplikací AI mohou obsahovat různé nepravdy, včetně zjevně nepravdivých faktů, faktů, které jsou klamavě zobrazeny, a zjevných faktů, které jsou zcela vymyšlené. Tyto vyrobené aspekty jsou často označovány jako forma AI halucinace, fráze, kterou nemám v oblibě, ale zdá se, že i tak získává na popularitě (podrobné vysvětlení, proč je to mizerná a nevhodná terminologie, najdete v mém příspěvku na odkaz zde).

Než se pustíme do dění na toto téma, rád bych objasnil jeden důležitý aspekt.

Na sociálních sítích se objevilo několik otřesných přehnaných tvrzení Generativní AI tvrdí, že tato nejnovější verze AI je ve skutečnosti vnímající AI (ne, mýlí se!). Ti, kdo se zabývají etikou a právem umělé inteligence, mají z tohoto narůstajícího trendu rozšířených nároků značné obavy. Můžete zdvořile říci, že někteří lidé přeceňují, co dnešní umělá inteligence vlastně umí. Předpokládají, že umělá inteligence má schopnosti, kterých jsme dosud nebyli schopni dosáhnout. To je smůla. A co je ještě horší, mohou dovolit sobě i ostatním, aby se dostali do strašných situací, protože předpokládají, že AI bude vnímavá nebo podobná člověku, pokud jde o schopnost jednat.

Neantropomorfizovat AI.

Pokud tak učiníte, dostanete se do pasti lepkavé a zarputilé spoléhání se na očekávání, že AI bude dělat věci, které není schopna provést. Jak již bylo řečeno, nejnovější generativní AI je relativně působivá na to, co dokáže. Uvědomte si však, že existují významná omezení, která byste měli mít neustále na paměti při používání jakékoli generativní aplikace AI.

Pokud vás zajímá rychle se rozšiřující rozruch kolem ChatGPT a generativní umělé inteligence, připravil jsem ve svém sloupci sérii zaměřenou na informace, které by pro vás mohly být užitečné. Zde je pohled pro případ, že by vás některé z těchto témat zaujalo:

  • 1) Předpovědi generativních pokroků AI přicházejí. Pokud chcete vědět, co se pravděpodobně objeví o AI v průběhu roku 2023 a dále, včetně nadcházejících pokroků v generativní AI a ChatGPT, budete si chtít přečíst můj úplný seznam předpovědí pro rok 2023 na adrese odkaz zde.
  • 2) Generativní AI a rady pro duševní zdraví. Rozhodl jsem se zkontrolovat, jak se generativní AI a ChatGPT používají pro poradenství v oblasti duševního zdraví, což je problematický trend, podle mé cílené analýzy na odkaz zde.
  • 3) Základy generativní umělé inteligence a ChatGPT. Tento díl zkoumá klíčové prvky toho, jak funguje generativní umělá inteligence, a konkrétně se ponoří do aplikace ChatGPT, včetně analýzy buzzu a fanfár na odkaz zde.
  • 4) Napětí mezi učiteli a studenty kvůli generativní umělé inteligenci a ChatGPT. Zde jsou způsoby, jak budou studenti úskočně používat generativní AI a ChatGPT. Kromě toho existuje několik způsobů, jak mohou učitelé s touto přílivovou vlnou bojovat. Vidět odkaz zde.
  • 5) Kontextové a generativní použití AI. Udělal jsem také sezónně ochucený průzkum kontextu souvisejícího se Santou zahrnující ChatGPT a generativní AI na odkaz zde.
  • 6) Podvodníci využívající generativní umělou inteligenci. Zlověstnou poznámkou je, že někteří podvodníci přišli na to, jak používat generativní umělou inteligenci a ChatGPT k provinění, včetně generování podvodných e-mailů a dokonce vytváření programovacího kódu pro malware, viz moje analýza na odkaz zde.
  • 7) Začátečnické chyby při používání generativní umělé inteligence. Mnoho lidí jak přestřeluje, tak překvapivě podstřeluje, co dokáže generativní AI a ChatGPT, takže jsem se podíval zejména na podstřelení, které mívají nováčci AI, viz diskuze na odkaz zde.
  • 8) Zvládání generativních výzev AI a halucinací AI. Popisuji špičkový přístup k používání doplňků AI k řešení různých problémů spojených se snahou zadávat vhodné výzvy do generativní AI a navíc existují další doplňky AI pro detekci takzvaných AI halucinovaných výstupů a nepravd, např. kryté na odkaz zde.
  • 9) Odhalení tvrzení Bonehead o odhalování generativních esejí vytvořených umělou inteligencí. Existuje zavádějící zlatá horečka aplikací umělé inteligence, které prohlašují, že jsou schopny zjistit, zda daný esej byl vytvořen člověkem nebo vytvořený umělou inteligencí. Celkově je to zavádějící a v některých případech zaostalé a neudržitelné tvrzení, viz moje pokrytí na odkaz zde.
  • 10) Hraní rolí prostřednictvím generativní umělé inteligence může představovat nevýhody duševního zdraví. Někteří používají generativní AI, jako je ChatGPT, k hraní rolí, přičemž aplikace AI reaguje na člověka, jako by existoval ve světě fantazie nebo v jiném vymyšleném prostředí. To by mohlo mít dopad na duševní zdraví, viz odkaz zde.
  • 11) Odhalení rozsahu výstupních chyb a nepravd. Shromažďují se různé shromážděné seznamy, aby se pokusily předvést povahu chyb a nepravd produkovaných ChatGPT. Někteří věří, že je to nezbytné, zatímco jiní říkají, že cvičení je marné, viz moje analýza na adrese odkaz zde.
  • 12) Školám, které zakazují generativní AI ChatGPT, chybí loď. Možná víte, že různé školy, jako například ministerstvo školství New York City (NYC), vyhlásily zákaz používání ChatGPT ve své síti a souvisejících zařízeních. I když se to může zdát jako užitečné opatření, nepohne to jehlou a bohužel úplně mine člun, viz moje zpravodajství na odkaz zde.
  • 13) Generativní AI ChatGPT bude všude díky chystanému API. S používáním ChatGPT přichází důležitý obrat, a sice, že prostřednictvím použití portálu API do této konkrétní aplikace AI budou moci ChatGPT vyvolat a využít i jiné softwarové programy. To dramaticky rozšíří používání generativní umělé inteligence a bude to mít pozoruhodné důsledky, viz moje zpracování na odkaz zde.
  • 14) Způsoby, jak může ChatGPT spadnout nebo se roztavit. ChatGPT má před sebou několik potenciálních nepříjemných problémů, pokud jde o podkopání dosavadní obrovské chvály, které se mu dostalo. Tato analýza podrobně zkoumá osm možných problémů, které by mohly způsobit, že ChatGPT ztratí sílu a dokonce skončí v psí boudě, viz odkaz zde.
  • 15) Zeptejte se, zda je generativní AI ChatGPT zrcadlem do duše. Někteří lidé křičeli, že generativní AI, jako je ChatGPT, poskytuje zrcadlo do duše lidstva. To vypadá dost pochybně. Zde je způsob, jak tomu všemu porozumět, viz odkaz zde.
  • 16) Důvěrnost a soukromí pohlcené ChatGPT. Zdá se, že mnozí si neuvědomují, že licencování spojené s generativními aplikacemi AI, jako je ChatGPT, často umožňuje tvůrci AI vidět a používat vaše zadané výzvy. Mohlo by vám hrozit soukromí a ztráta důvěrnosti dat, viz moje hodnocení na odkaz zde.
  • 17) Způsoby, kterými se tvůrci aplikací pochybně snaží získat oprávnění ChatGPT. ChatGPT je právě teď majákem pozornosti. Tvůrci aplikací, kteří nemají nic společného s ChatGPT, se horečně snaží tvrdit nebo naznačovat, že používají ChatGPT. Zde je na co si dát pozor, viz odkaz zde.

Možná vás bude zajímat, že ChatGPT je založen na verzi předchozí aplikace AI známé jako GPT-3. ChatGPT je považován za mírně další krok, označovaný jako GPT-3.5. Očekává se, že GPT-4 bude pravděpodobně vydán na jaře 2023. GPT-4 bude pravděpodobně působivým krokem vpřed, pokud jde o schopnost vytvářet zdánlivě ještě plynulejší eseje, jít hlouběji a být úžasem. - inspirující zázrak, pokud jde o kompozice, které dokáže vytvořit.

Až přijde jaro a vyjde nejnovější generativní umělá inteligence, můžete očekávat nové kolo vyjádřeného úžasu.

Uvádím to, protože je třeba mít na paměti ještě jeden úhel, který se skládá z potenciální Achillovy paty k těmto lepším a větším generativním aplikacím AI. Pokud nějaký dodavatel umělé inteligence zpřístupní generativní aplikaci umělé inteligence, která zpěněně chrlí špatnost, mohlo by to zhatit naděje těchto tvůrců umělé inteligence. Společenské přelévání může způsobit, že všechna generativní umělá inteligence dostane vážné černé oko. Lidé budou nepochybně dost naštvaní nad nečestnými výstupy, které se staly již mnohokrát a vedly k bouřlivému společenskému odsuzujícímu odporu vůči AI.

Prozatím poslední varování.

Cokoli vidíte nebo čtete v generativní odpovědi AI, že zdá se, chcete-li být předáváni jako čistě faktická (data, místa, lidé atd.), zůstaňte skeptičtí a buďte ochotni znovu zkontrolovat, co vidíte.

Ano, data se dají vymyslet, místa se dají vymyslet a prvky, u kterých obvykle očekáváme, že budou bez výčitek, jsou všechno předmětem podezření. Nevěřte tomu, co čtete, a při zkoumání jakýchkoli generativních esejů nebo výstupů umělé inteligence mějte skeptický pohled. Pokud vám generativní aplikace umělé inteligence řekne, že Abraham Lincoln letěl po zemi ve svém vlastním soukromém tryskáči, nepochybně byste věděli, že jde o malárii. Naneštěstí si někteří lidé možná neuvědomují, že tryskáče v jeho době nebyly, nebo by mohli vědět, ale nevšimli si, že esej toto drzé a nehorázně nepravdivé tvrzení uvádí.

Při používání generativní umělé inteligence bude vaším nejlepším přínosem silná dávka zdravé skepse a vytrvalá nedůvěra.

Jsme připraveni přejít do další fáze tohoto objasnění.

Tlačení generativní umělé inteligence k bodu zlomu

Nyní, když jsme stanovili základy, můžeme se ponořit do tématu prosazování generativní umělé inteligence a ChatGPT k vytváření nenávistných projevů a dalšího urážlivého obsahu.

Když se poprvé přihlásíte do ChatGPT, existují různé varovné indikace, včetně těchto:

  • "Příležitostně může produkovat škodlivé pokyny nebo neobjektivní obsah."
  • "Vycvičeni k odmítnutí nevhodných požadavků."
  • "Občas může generovat nesprávné informace."
  • "Omezené znalosti světa a událostí po roce 2021."

Zde je pro vás otázka k zamyšlení.

Poskytuje upozornění, že aplikace AI může vytvářet škodlivé pokyny a/nebo možná neobjektivní obsah, dostatečný prostor pro tvůrce AI?

Jinými slovy, předpokládejme, že používáte ChatGPT a vygeneruje esej, o které se domníváte, že obsahuje nenávistné projevy. Předpokládejme, že jste z toho naštvaní. Jdete na sociální sítě a zveřejňujete rozzuřený komentář, že aplikace AI je nejhorší věc vůbec. Možná jste tak uraženi, že prohlásíte, že se chystáte žalovat výrobce AI za to, že umožnil produkovat takové nenávistné projevy.

Protiargumentem je, že aplikace AI měla varovné varování, takže jste přijali riziko tím, že budete aplikaci AI používat. Z hlediska etiky umělé inteligence možná tvůrce umělé inteligence udělal dost pro to, aby potvrdil, že jste si byli vědomi toho, co se může stát. Stejně tak z právního hlediska možná varování představovalo dostatečný heads-up a u soudu neuspějete.

To vše je ve vzduchu a budeme muset počkat a uvidíme, jak se věci vyvinou.

V jistém smyslu má tvůrce umělé inteligence na obranu proti jakýmkoli rozhořčeným tvrzením aplikace AI, která by mohla produkovat nenávistné projevy, něco jiného. Snažili se zabránit generování urážlivého obsahu. Vidíte, kdyby neudělali nic, aby to omezili, dalo by se předpokládat, že by byli na tenčím ledě. Tím, že se alespoň pořádně namáhali, aby věc odvrátili, mají pravděpodobně o něco silnější nohu, na které by se mohli postavit (stále by se mohla pod nimi vyrazit).

Jeden léčebný přístup, který byl použit, sestával z techniky AI známé jako RLHF (reinforcement learning via human feedback). To obecně spočívá v tom, že AI generuje obsah, který jsou pak lidé požádáni o hodnocení nebo recenzi. Na základě hodnocení nebo recenze se pak AI matematicky a výpočtově pokusí vyhnout všemu, co je považováno za protiprávní nebo urážlivý obsah. Cílem tohoto přístupu je prozkoumat dostatek příkladů toho, co je správné oproti tomu, co je špatné, aby umělá inteligence mohla přijít na zastřešující matematický vzorec a poté tento vzorec používat.

Dalším častým přístupem v dnešní době je použití Adversarial AI.

Zde je návod, jak to funguje. Nastavíte jiný systém AI, který se bude snažit být protivníkem AI, kterou se snažíte trénovat. V tomto případě bychom vytvořili systém umělé inteligence, který se snaží podněcovat nenávistné projevy. Do aplikace AI by to vložilo výzvy, jejichž cílem je oklamat aplikaci AI, aby vytiskla nevhodný obsah. Mezitím cílová AI sleduje, kdy je nepřátelská AI úspěšná, a pak se algoritmicky snaží upravit, aby se to neopakovalo. Je to gambit kočka versus myš. To se opakuje znovu a znovu, dokud se zdá, že nepřátelská umělá inteligence již není obzvláště úspěšná při přimět cílenou umělou inteligenci, aby dělala špatné věci.

Prostřednictvím těchto dvou hlavních technik a dalších přístupů je velká část dnešní generativní umělé inteligence mnohem lepší při vyhýbání se a/nebo detekci urážlivého obsahu, než tomu bylo v minulých letech.

Od těchto metod však nečekejte dokonalost. Je pravděpodobné, že nízko visící ovoce chybných výstupů bude pravděpodobně drženo pod kontrolou pomocí takových technik AI. Stále je zde velký prostor pro šíření nečistot.

Obvykle zdůrazňuji, že toto jsou některé z aspektů, které se snaží zachytit:

  • Vydání konkrétního sprostého slova
  • Uvedení konkrétní neslušné fráze, věty nebo poznámky
  • Vyjádření konkrétního špatného pojetí
  • Naznačování konkrétního protiprávního jednání nebo myšlenky
  • Zdá se, že se spoléhá na konkrétní nesprávnou domněnku
  • Ostatní

Nic z toho není exaktní věda. Uvědomte si, že máme co do činění se slovy. Slova jsou významově nejednoznačná. Najít konkrétní nevhodné slovo je dětská hra, ale pokusit se odhadnout, zda věta nebo odstavec obsahuje zdání špatného významu, je mnohem těžší. Podle dřívější definice nenávistných projevů Organizace spojených národů existuje obrovská volnost, pokud jde o to, co by mohlo být vykládáno jako nenávistné projevy, oproti tomu, co nemusí být.

Dalo by se říci, že šedé oblasti jsou v oku pozorovatele.

Když už mluvíme o oku pozorovatele, dnes existují lidé, kteří používají generativní AI, jako je ChatGPT, kteří se cíleně snaží přimět tyto aplikace AI k produkci urážlivého obsahu. Toto je jejich hledání. Tráví hodiny a hodiny snahou, aby k tomu došlo.

Proč?

Zde jsou mé charakteristiky těch lovců lidských útočných výstupů AI:

  • Originální. Tito lidé chtějí pomoci vylepšit AI a pomoci lidstvu v tom. Věří, že dělají hrdinskou práci a těší se, že by mohli pomoci při rozvoji umělé inteligence ke zlepšení všech.
  • Funsters. Tito lidé považují toto úsilí za hru. Baví je hrát si s AI. Vítězství ve hře spočívá v nalezení toho nejhoršího z nejhoršího v čemkoli, co dokáže AI vygenerovat.
  • Předvádění. Tito lidé doufají, že pro sebe získají pozornost. Uvědomují si, že když najdou nějaké opravdu špinavé zlaté nugety, mohou na ně dostat trochu světla, které je jinak zaměřeno na samotnou aplikaci AI.
  • Bitters. Tito lidé jsou kvůli této AI naštvaní. Chtějí podlomit všechno to tryskající nadšení. Pokud mohou objevit nějaké páchnoucí odporné věci, možná to vytáhne vzduch z balónu vzrušení aplikace AI.
  • Jiné motivace

Mnoho z těch, kteří provádějí nalézací ofenzívu, je v zásadě právě v jednom z těchto táborů. Samozřejmě můžete být ve více táborech najednou. Možná má zahořklý člověk také vedle sebe úmysl být opravdový a hrdinský. Některé nebo všechny tyto motivace mohou koexistovat. Když budete vyzváni, abyste vysvětlili, proč se někdo snaží prosadit generativní aplikaci umělé inteligence do oblasti nenávistných projevů, obvyklou odpovědí je říci, že jste v opravdovém táboře, i když možná jen okrajově, a místo toho sedět důrazně v jednom z jiné tábory.

Jaké druhy triků souvisejících s výzvami tito lidé používají?

Poměrně zřejmý trik zahrnuje použití sprostého slova ve výzvě. Pokud budete mít „štěstí“ a aplikace AI na to padne, může to velmi dobře skončit ve výstupu. Pak máte svou chytrou chvíli.

Je pravděpodobné, že dobře navržená a dobře otestovaná generativní aplikace umělé inteligence tento jednoduchý trik zachytí. Obvykle se zobrazí varovná zpráva, která říká, přestaňte to dělat. Pokud budete pokračovat, aplikace AI bude naprogramována tak, aby vás z aplikace vykopla a označila váš účet. Může se stát, že vám bude zabráněno se znovu přihlásit (no, alespoň pod přihlašovacím jménem, ​​které jste v té době používali).

Když se posunete po žebříčku triků, můžete poskytnout výzvu, která se pokusí dostat AI do kontextu něčeho špatného. Už jste někdy hráli hru, ve které vám někdo říká, abyste něco řekli, aniž byste řekli to, co byste měli říct? Tohle je ta hra, i když se odehrává s AI.

Pojďme si tu hru zahrát. Předpokládejme, že požádám aplikaci AI, aby mi řekla o druhé světové válce a zejména o hlavních zúčastněných vládních vůdcích. Vypadá to jako nevinná žádost. Zdá se, že ve výzvě není nic, co by stálo za to označit.

Představte si, že esej vydaná aplikací AI obsahuje zmínku o Winstonu Churchillovi. To jistě dává smysl. Dalším by mohl být Franklin D. Roosevelt. Dalším může být Josif Stalin. Předpokládejme, že je tam také zmínka o Adolfu Hitlerovi. Toto jméno by bylo zahrnuto v téměř každém eseji o druhé světové válce a osobách v rolích prominentní moci.

Nyní, když máme jeho jméno na stole a část konverzace s umělou inteligencí, se příště pokusíme přimět umělou inteligenci, aby toto jméno začlenila způsobem, který můžeme předvést jako potenciální nenávistný projev.

Zadáme další výzvu a sdělíme aplikaci AI, že dnes je ve zprávách osoba, která má jméno, John Smith. Kromě toho ve výzvě naznačujeme, že John Smith je velmi podobný tomu zločinci z XNUMX. světové války. Past je nyní nastražena. Poté požádáme aplikaci AI, aby vygenerovala esej o Johnu Smithovi, a to pouze na základě „skutečnosti“, kterou jsme zadali o tom, s kým lze Johna Smitha přirovnat.

V tomto okamžiku může aplikace AI vygenerovat esej, která jmenuje osobu z druhé světové války a popisuje Johna Smitha jako člověka stejného střihu. V eseji nejsou žádná sprostá slova sama o sobě, kromě narážky na slavného zločince a přirovnání této osoby k Johnu Smithovi.

Vytvořila nyní aplikace AI nenávistné projevy?

Možná řeknete, že ano, má. Mluvit o Johnu Smithovi jako o slavném zločinci je naprostou formou nenávistných projevů. AI by taková prohlášení neměla dělat.

Odpověď zní, že to není nenávistný projev. Toto je pouze esej vytvořená aplikací AI, která nemá žádné ztělesnění sentience. Můžete tvrdit, že k projevům nenávisti dochází pouze tehdy, když je v pozadí projevu záměr. Bez jakéhokoli úmyslu nemůže být řeč klasifikována jako nenávistná.

Absurdní, zní odpověď na repliku. Na slovech záleží. Nezáleží na tom, zda AI „zamýšlela“ produkovat nenávistné projevy. Důležité je jen to, že byly vytvořeny nenávistné projevy.

Jde to dokola.

Nechci teď říkat mnohem víc o pokusu oklamat AI. Existují sofistikovanější přístupy. Popsal jsem to jinde ve svých sloupcích a knihách a nebudu je zde opakovat.

Proč investovat do čističky vzduchu?

Jak daleko bychom měli zatlačit tyto aplikace AI, abychom zjistili, zda dokážeme vysílat urážlivý obsah?

Můžete tvrdit, že neexistuje žádný limit, který by se dal uložit. Čím více budeme tlačit, tím více, doufejme, dokážeme odhadnout, jak této umělé inteligenci a budoucím iteracím umělé inteligence zabránit, abychom takovým neduhům zabránili.

Někteří se však obávají, že pokud jediným způsobem, jak se dostat k nečistosti, je extrémní trik, podkopává to prospěšné aspekty AI. Vychvalování toho, že AI má strašlivou špatnost, i když když je podvedena, aby ji vyslala, poskytuje falešný příběh. Lidé se budou kvůli AI rozčilovat vnímáno snadnost, s jakou AI generovala nepříznivý obsah. Možná nevěděli nebo jim nebylo řečeno, jak daleko do králičí nory musel člověk jít, aby získal takové výstupy.

To vše je podnětem k zamyšlení.

Zatím několik poznámek na závěr.

William Shakespeare o řeči řekl zejména toto: „Mluvit neznamená. Je to druh dobrého skutku dobře říkat, a přesto slova nejsou činy.“ Uvádím to, protože někteří tvrdí, že pokud AI pouze generuje slova, neměli bychom být tak přehnaně ve zbrani. Pokud by umělá inteligence jednala na základě slov a ergo prováděla nekalé skutky, pak bychom museli pevně dát nohu dolů. Ne tak, pokud jsou výstupem pouze slova.

Protikladný názor by narážel na toto anonymní rčení: „Jazyk nemá kosti, ale je dostatečně silný, aby zlomil srdce. Takže buďte opatrní se svými slovy." Aplikace umělé inteligence, která vydává sprostá slova, možná dokáže lámat srdce. To samo o sobě dělá ze snahy zastavit výstupy nečistých věcí důstojnou věc, řekli by někteří.

Ještě jedno anonymní rčení na uzavření této závažné diskuse:

  • "Buďte opatrní se svými slovy. Jakmile jsou jednou vysloveny, lze je pouze odpustit, nikoli zapomenout.“

Jako lidé bychom mohli mít problém zapomenout na špatnost způsobenou umělou inteligencí a naše odpuštění může být podobně váhavé.

Jsme přece jen lidé.

Zdroj: https://www.forbes.com/sites/lanceeliot/2023/02/05/how-hard-should-we-push-generative-ai-chatgpt-into-spewing-hate-speech-asks-ai- etika-a-ai-právo/