Generativní AI ChatGPT může znepokojivě pohltit vaše soukromá a důvěrná data, varuje před etikou AI a zákonem o AI

Nyní svá data vidíte, nyní ne.

Vaše vzácná data se mezitím stala součástí kolektivu.

Mám na mysli aspekt, který by mohl být docela překvapivý pro ty z vás, kteří dychtivě a vážně využívají to nejnovější v oblasti umělé inteligence (AI). Data, která zadáváte do aplikace AI, nemusí být vůbec soukromá jen pro vás a pro vás. Může se stát, že vaše data použije tvůrce umělé inteligence k pravděpodobně snaze zlepšit své služby umělé inteligence nebo je může použít on a/nebo jejich spojenci pro různé účely.

Nyní jste byli předem varováni.

Toto předání vašich dat se děje těmi nejnebezpečnějšími způsoby a potenciálně tisíci nebo řádově miliony lidí. Jak to? Existuje typ umělé inteligence známý jako generativní umělá inteligence, který si v poslední době získal velké titulky a uchvátil pozornost široké veřejnosti. Nejpozoruhodnější ze stávajících generativních aplikací AI je aplikace s názvem ChatGPT, kterou vyvinula firma OpenAI.

Pro ChatGPT je údajně kolem milionu registrovaných uživatelů. Zdá se, že mnoho z těchto uživatelů s potěšením vyzkouší tuto nejžhavější a nejnovější generativní aplikaci AI. Proces je mimořádně jednoduchý. Zadáte nějaký text jako výzvu a voila, aplikace ChatGPT vygeneruje textový výstup, který je obvykle ve formě eseje. Někteří to označují jako text-to-text, i když já to raději označuji jako text-to-essay, protože tato mnohomluvnost dává spíše každodenní smysl.

Zpočátku uživatel začátečník pravděpodobně zadá něco zábavného a bezstarostného. Řekněte mi o životě a době George Washingtona, někdo by mohl vstoupit jako výzva. ChatGPT pak vytvořil esej o našem legendárním prvním prezidentovi. Esej by byla zcela plynulá a těžko byste rozeznali, že byla vytvořena aplikací AI. K vidění je vzrušující věc.

Pravděpodobnost je, že po chvíli hraní bude segment nových uživatelů plně nasycen a potenciálně se rozhodne přestat si hrát s ChatGPT. Nyní překonali svůj FOMO (strach z promeškání) a učinili tak poté, co experimentovali s aplikací AI, o které, jak se zdá, mluví snad každý. Skutek hotový.

Někteří však začnou přemýšlet o jiných a vážnějších způsobech použití generativní umělé inteligence.

Možná použijte ChatGPT k napsání poznámky, kterou vám šéf nabádá. Vše, co musíte udělat, je poskytnout výzvu s odrážkami, které máte na mysli, a další věc, o které víte, že ChatGPT vygenerovala celou poznámku, díky které by na vás byl váš šéf hrdý. Zkopírujete výstupní esej z ChatGPT, vložíte ji do oficiální šablony společnosti ve vašem balíčku pro zpracování textu a pošlete e-mailem elegantní memorandum svému manažerovi. Stojíš za milion babek. A použili jste svůj mozek, abyste našli praktický nástroj, který za vás udělá těžkou práci. Poplácejte se po zádech.

To není vše.

Ano, je toho víc.

Mějte na paměti, že generativní umělá inteligence může provádět spoustu dalších úkolů souvisejících s psaním.

Předpokládejme například, že jste napsali nějaký příběh pro váženého klienta a velmi si přejete, aby byl materiál zkontrolován, než vyjde ven.

Snadné.

Vložíte text svého vyprávění do výzvy ChatGPT a poté přikážete ChatGPT, aby analyzoval text, který jste složili. Výsledná esej se může hluboce zarýt do vašeho znění a k vašemu příjemnému překvapení se pokusí zdánlivě prozkoumat význam toho, co jste řekli (jde daleko za hranice funkce kontroly pravopisu nebo analyzátoru gramatiky). Aplikace AI může odhalit chyby v logice vašeho vyprávění nebo objevit rozpory, o kterých jste si neuvědomovali, že jsou ve vašem vlastním psaní. Je to skoro, jako byste si najali lstivého lidského editora, aby se podíval na váš návrh a poskytl řadu užitečných návrhů a poznámek (dobře, chci kategoricky prohlásit, že se nesnažím antropomorfizovat aplikaci AI, zejména že lidský editor je člověk, zatímco aplikace AI je pouze počítačový program).

Díky bohu, že jste použili aplikaci generativní umělé inteligence ke zkoumání vašeho vzácného napsaného příběhu. Nepochybně byste dali přednost tomu, aby umělá inteligence nalezla tyto znepokojivé písemné problémy spíše než po odeslání dokumentu vašemu ceněnému klientovi. Představte si, že jste složili příběh pro někoho, kdo vás najal, abyste vymysleli docela zásadní zobrazení. Pokud jste před provedením kontroly aplikace AI poskytli původní verzi klientovi, mohli byste utrpět velké rozpaky. Klient by téměř jistě měl vážné pochybnosti o vašich schopnostech provést požadovanou práci.

Pojďme nahoru.

Zvažte vytvoření právních dokumentů. To je zjevně obzvlášť závažná věc. Slova a to, jak jsou složena, mohou znamenat duchaplnou právní obranu nebo bezútěšnou právní pohromu.

V rámci svého probíhajícího výzkumu a poradenství pravidelně komunikuji s mnoha právníky, kteří se živě zajímají o používání umělé inteligence v oblasti práva. K možnostem umělé inteligence se připojují různé programy LegalTech. Právník může použít generativní AI k sestavení návrhu smlouvy nebo k sestavení jiných právních dokumentů. Kromě toho, pokud právník sám vytvořil počáteční návrh, může text předat generativní aplikaci AI, jako je ChatGPT, aby se podíval a zjistil, jaké díry nebo mezery mohou být detekovány. Další informace o tom, jak se právníci a právní oblast rozhodují využívat AI, naleznete v mé diskusi na adrese odkaz zde.

Jsme však připraveni na to, abychom se o to poprali.

Právník vezme navrženou smlouvu a zkopíruje text do výzvy pro ChatGPT. Aplikace AI vytváří recenzi pro právníka. Ukázalo se, že ChatGPT našlo několik gotchů. Advokát reviduje smlouvu. Mohou také požádat ChatGPT, aby jim navrhl přeformulování nebo přepracování složeného textu. Novou a lepší verzi smlouvy pak vytvoří generativní aplikace AI. Právník uchopí vytištěný text a vloží jej do textového souboru. Z dopisu jde k jejich klientovi. Mise splněna.

Uhodnete, co se také právě stalo?

V zákulisí a pod kapotou mohla být smlouva spolknuta jako ryba do tlamy velryby. Ačkoli si to tento právník využívající AI nemusí uvědomovat, text smlouvy, který je umístěn jako výzva do ChatGPT, by mohl být aplikací AI potenciálně pohlcen. Nyní je to krmivo pro porovnávání vzorů a další výpočetní složitosti aplikace AI. To by zase mohlo být použito různými způsoby. Pokud jsou v návrhu důvěrná data, i to je nyní potenciálně v mezích ChatGPT. Vaše výzva poskytnutá aplikaci AI je nyní zdánlivě součástí kolektivu tak či onak.

Za součást kolektivu je navíc považován i vydaný esej. Pokud jste požádali ChatGPT, aby za vás upravil návrh a předložil novou verzi smlouvy, je to považováno za vydanou esej. Výstupy ChatGPT jsou také typem obsahu, který může aplikace AI uchovat nebo jinak transformovat.

Jejda, možná jste nevinně prozradil soukromé nebo důvěrné informace. Špatný. Navíc byste si ani neuvědomovali, že jste to udělali. Nebyly vztyčeny žádné vlajky. Klakson nezazněl. Žádná blikající světla nezhasla, aby vás šokovala do reality.

Mohli bychom předpokládat, že neprávníci mohou snadno udělat takovou chybu, ale pro zkušeného právníka udělat stejnou začátečnickou chybu je téměř nepředstavitelné. Nicméně právě teď pravděpodobně existují právníci, kteří dělají stejnou potenciální chybu. Riskují porušení významného prvku privilegia advokáta a klienta a možné porušení vzorových pravidel profesionálního chování (MRPC) Americké advokátní komory (ABA). Zejména: „Advokát neprozradí informace týkající se zastupování klienta, pokud klient nedá informovaný souhlas, zpřístupnění je konkludentně oprávněno k provedení zastupování nebo zpřístupnění povoluje odstavec (b)“ (cit. MRPC a pro které se zdá, že výjimky spojené s pododdílem b nezahrnují používání generativní aplikace AI nezabezpečeným způsobem).

Někteří právníci se mohou snažit omluvit svůj prohřešek tvrzením, že nejsou techničtí mágové a že by neměli připravené prostředky k tomu, aby věděli, že jejich zadávání důvěrných informací do generativní aplikace AI může být svým způsobem porušením pravidel. ABA objasnila, že povinnost právníků zahrnuje informování o AI a technologiích z právního hlediska: „Aby si právník udržel požadované znalosti a dovednosti, měl by držet krok se změnami v právu a jeho praxi, včetně výhody a rizika spojená s příslušnou technologií, zapojit se do dalšího studia a vzdělávání a splnit všechny požadavky na další právní vzdělání, kterým právník podléhá“ (podle MRPC).

Do tohoto zdání právní povinnosti vstupuje několik ustanovení, včetně zachování důvěrných informací klienta (pravidlo 1.6), ochrany majetku klienta, jako jsou data (pravidlo 1.15), řádné komunikace s klientem (pravidlo 1.4), získávání informovaného souhlasu klienta (pravidlo 1.6), a zajištění kompetentního zastupování jménem klienta (pravidlo 1.1). A existuje také málo známá, ale velmi pozoruhodná rezoluce zaměřená na umělou inteligenci, kterou schválila ABA: „Americká advokátní komora naléhá na soudy a právníky, aby se zabývali vznikajícími etickými a právními problémy souvisejícími s používáním umělé inteligence („AI“). v praxi práva včetně: (1) zaujatosti, vysvětlitelnosti a transparentnosti automatizovaných rozhodnutí prováděných AI; (2) etické a prospěšné využívání umělé inteligence; a (3) kontroly a dohled nad umělou inteligencí a dodavateli, kteří umělou inteligenci poskytují.“

Slova moudrým pro mé právní přátele a kolegy.

Jádrem věci je, že při používání generativní umělé inteligence se může do problémů dostat téměř kdokoli. Neprávníci tak mohou učinit na základě jejich domnělého nedostatku právní bystrosti. Mohou to udělat i právníci, třeba zamilovaní do AI nebo se zhluboka nenadechnout a uvažovat o tom, jaké právní důsledky mohou při používání generativní AI nastat.

Všichni jsme potenciálně na jedné lodi.

Měli byste si také uvědomit, že ChatGPT není jedinou generativní aplikací AI v bloku. Existují další generativní aplikace AI, které můžete použít. I ony jsou pravděpodobně vystřiženy ze stejné látky, totiž že vstupy, které zadáte jako výzvy, a výstupy, které obdržíte jako generované výstupní eseje, jsou považovány za součást kolektivu a mohou být použity tvůrcem AI.

V dnešním sloupci se chystám rozbalit povahu toho, jak mohou být data, která zadáváte, a data, která přijímáte z generativní umělé inteligence, potenciálně ohrožena s ohledem na soukromí a důvěrnost. Tvůrci umělé inteligence zpřístupňují své licenční požadavky a bylo by moudré si o těchto zásadních ustanoveních přečíst, než začnete aktivně používat aplikaci AI s jakýmkoli zdáním skutečných dat. Provedu vás příkladem takového licencování, a to pro aplikaci ChatGPT AI.

Do toho všeho přichází spousta úvah o etice AI a zákonech o AI.

Uvědomte si prosím, že se neustále snažíme začlenit etické principy AI do vývoje a nasazení aplikací AI. Rostoucí skupina zainteresovaných a někdejších etiků umělé inteligence se snaží zajistit, aby snahy o vymýšlení a přijetí umělé inteligence braly v úvahu pohled na to, jak AI pro dobro a odvrácení AI pro špatné. Stejně tak jsou navrženy nové zákony o umělé inteligenci, které se šíří jako potenciální řešení, jak zabránit snahám umělé inteligence zbláznit se do lidských práv a podobně. Pro mé průběžné a rozsáhlé pokrytí etiky AI a práva AI viz odkaz zde a odkaz zde, Abychom jmenovali jen několik.

Existují významné etické nuance a ustanovení související s tím, jak mohou nebo by měli tvůrci umělé inteligence nakládat s daty nebo informacemi, které se jejich uživatelům zdají soukromé nebo důvěrné. Pravděpodobně také víte, že na jádro toho, jak mají technologické entity nakládat s daty, zasahuje řada stávajících zákonů. Je také pravděpodobné, že nově navrhované zákony o AI také proniknou do stejného území. Podívejte se například na mé pokrytí Listina práv AI a další právní tahanice probíhající o AI, at odkaz zde.

Zde je hlavní postřeh z této diskuse:

  • Buďte velmi, velmi, velmi opatrní ohledně toho, jaká data nebo informace se rozhodnete vložit do výzev při používání generativní umělé inteligence, a podobně buďte extrémně opatrní a předvídejte, jaké druhy esejů můžete získat, protože výstupy mohou být také absorbovány.

Znamená to, že byste neměli používat generativní umělou inteligenci?

Ne, to vůbec není to, co říkám.

Používejte generativní umělou inteligenci podle svého. Podstatou je, že si musíte dávat pozor na to, jak jej používáte. Zjistěte, jaké licenční podmínky jsou spojeny s používáním. Rozhodněte se, zda dokážete žít s těmito podmínkami. Pokud existují způsoby, jak informovat tvůrce AI, že chcete vyvolat určité druhy přidané ochrany nebo povolenek, ujistěte se, že tak učiníte.

Zmíním také jeden další aspekt, o kterém si uvědomuji, že některé lidi dostane do varu. Tady to jde. Bez ohledu na licenční podmínky musíte také předpokládat, že existuje možnost, že tyto požadavky nebudou plně dodrženy. Věci se mohou zvrtnout. Věci mohou proklouznout mezi trhlinami. Nakonec, jistě, můžete mít právní žalobu proti tvůrci AI za to, že nedodržel jejich ustanovení, ale to je poněkud poté, co kůň už vyšel ze stodoly.

Potenciálně vysoce bezpečný způsob, jak postupovat, by bylo nastavit si vlastní instanci na svých vlastních systémech, ať už v cloudu nebo vnitropodnikově (a za předpokladu, že dodržujete správná opatření v oblasti kybernetické bezpečnosti, což někteří samozřejmě nedělají a jsou horší v jejich vlastním cloudu než pomocí cloudu dodavatele softwaru). Trochu nepříjemným problémem však je, že to nyní umožňuje jen málo generativních aplikací AI ve velkém měřítku. Všechny do značné míry fungují pouze na bázi našeho cloudu. Málokdo zpřístupnil možnost nechat si vyřezat celou instanci jen pro vás. Předpověděl jsem, že se tato možnost postupně objeví, i když zpočátku bude poměrně nákladná a poněkud komplikovaná, viz moje předpovědi na odkaz zde.

Jak se jinak zvláště bystří a pozoruhodně chytří lidé dostanou do bažiny narušující důvěrnost dat nebo informací?

Přitažlivost těchto generativních aplikací umělé inteligence je zcela magnetická, jakmile nějakou začnete používat. Krok za krokem se ocitnete uchváceni a rozhodnete se vložit prsty na nohou stále dále do generativních vod umělé inteligence. Další věc, kterou víte, že pohotově předáváte proprietární obsah, který má být soukromý a důvěrný, do generativní aplikace AI.

Odolejte nutkání a prosím, zdržte se postupného pádu do nechutné pasti.

Pro obchodní vedoucí a vedoucí pracovníky na nejvyšší úrovni platí stejné varování pro vás a všechny lidi ve vaší společnosti. Vyšší výkonní ředitelé jsou chyceni nadšením a úžasem z používání generativní umělé inteligence. Mohou opravdu zaneřádit a potenciálně zadávat tajné informace nejvyšší úrovně do aplikace AI.

Kromě toho mohou mít široké ligy svých zaměstnanců, kteří si také hrají s generativní AI. Mnoho z těchto jinak všímavých zaměstnanců bezmyšlenkovitě a blaženě zadává soukromé a důvěrné informace společnosti do těchto aplikací AI. Podle nedávných zpráv Amazon zjevně zjistil, že někteří zaměstnanci zadávají do ChatGPT různé vlastnické informace. Bylo řečeno, že interně bylo zasláno právně orientované varování, aby bylo při používání neodolatelné AI aplikace opatrní.

Celkově vzato přichází trochu ironie do rostoucího fenoménu, kdy zaměstnanci chtě nechtě zadávají důvěrná data do ChatGPT a další generativní AI. Dovolte mi to upřesnit. Dnešní moderní společnosti mají obvykle přísné zásady kybernetické bezpečnosti, které pečlivě vytvořily a implementovaly. Existuje mnoho technologických ochran. Naděje je zabránit náhodnému uvolnění zásadních věcí. Nepřetržité bubnování znamená být opatrní při návštěvě webových stránek, být opatrní, když používáte jakékoli neschválené aplikace a tak dále.

Spolu s tím přichází generativní aplikace AI, jako je ChatGPT. Novinky o aplikaci AI procházejí střechou a získávají širokou pozornost. Vzniká šílenství. Lidé v těchto společnostech, které mají všechny tyto ochrany kybernetické bezpečnosti, se rozhodnou přejít na generativní aplikaci AI. Zpočátku si s tím jen nečinně hrají. Poté začnou zadávat firemní údaje. Wham, nyní potenciálně odhalili informace, které neměly být zveřejněny.

Zářivá nová hračka, která magicky obchází miliony dolarů výdajů na ochranu kybernetické bezpečnosti a průběžné školení o tom, co nedělat. Ale hej, je vzrušující používat generativní AI a být součástí „in“ davu. To se zřejmě počítá.

Věřím, že pochopíte můj názor na to, že jste výrazně opatrný.

Podívejme se nyní zblízka na to, jak se generativní umělá inteligence technicky vypořádává s textem výzev a vydanými esejemi. Prozkoumáme také některá licenční ujednání, jako příklad použijeme ChatGPT. Uvědomte si prosím, že nebudu pokrývat celou škálu těchto licenčních prvků. Nezapomeňte zapojit svého právního poradce pro jakoukoli generativní aplikaci AI, kterou se rozhodnete použít. Licencování se také liší od výrobce AI k výrobci AI a daný tvůrce AI se může rozhodnout změnit své licencování, takže buďte opatrní, ať už to stanoví nejnovější verze licencování.

Máme před sebou několik vzrušujících rozbalování tohoto opojného tématu.

Nejprve bychom se měli ujistit, že jsme všichni na stejné stránce o tom, z čeho se skládá generativní AI, a také o čem je ChatGPT. Jakmile pokryjeme tento základní aspekt, můžeme provést přesvědčivé posouzení zrcadlové metafory spojené s tímto typem AI.

Pokud jste již dostatečně obeznámeni s Generativní AI a ChatGPT, můžete možná prolétnout další částí a pokračovat částí, která po ní následuje. Věřím, že všichni ostatní najdou poučné důležité podrobnosti o těchto záležitostech, když si tuto sekci pozorně přečtou a zorientují se.

Rychlý základ o generativní umělé inteligenci a ChatGPT

ChatGPT je univerzální interaktivní konverzační systém s umělou inteligencí, v podstatě zdánlivě neškodný obecný chatbot, nicméně jej lidé aktivně a horlivě používají způsoby, které mnohé úplně zaskočí, jak krátce upřesním. Tato aplikace AI využívá techniku ​​a technologii ve sféře AI, která je často označována jako Generativní AI. AI generuje výstupy, jako je text, což dělá ChatGPT. Jiné generativní aplikace AI produkují obrázky, jako jsou obrázky nebo umělecká díla, zatímco jiné generují zvukové soubory nebo videa.

V této diskusi se zaměřím na textové generativní aplikace AI, protože to ChatGPT dělá.

Generativní aplikace umělé inteligence se používají mimořádně snadno.

Vše, co musíte udělat, je zadat výzvu a aplikace AI vám vygeneruje esej, která se pokusí na vaši výzvu odpovědět. Komponovaný text bude působit, jako by esej byla napsána lidskou rukou a myslí. Pokud byste zadali výzvu, která říkala „Řekni mi o Abrahamu Lincolnovi“, generativní AI vám poskytne esej o Lincolnovi. To je běžně klasifikováno jako generativní AI, která funguje text-to-text nebo to někteří raději nazývají převod textu na esej výstup. Jak již bylo zmíněno, existují i ​​další režimy generativní umělé inteligence, jako je text-to-art a text-to-video.

Vaše první myšlenka by mohla být, že tato generativní schopnost nevypadá jako tak velký problém, pokud jde o vytváření esejů. Můžete snadno vyhledávat online na internetu a snadno najít tuny a tuny esejů o prezidentu Lincolnovi. Nakopnutím v případě generativní umělé inteligence je to, že vytvořená esej je relativně unikátní a poskytuje spíše originální kompozici než napodobeninu. Pokud byste se pokusili najít esej vytvořenou umělou inteligencí někde online, je nepravděpodobné, že byste ji objevili.

Generativní umělá inteligence je předem vycvičená a využívá složitou matematickou a výpočetní formulaci, která byla vytvořena zkoumáním vzorců psaných slov a příběhů na webu. V důsledku zkoumání tisíců a milionů psaných pasáží může AI chrlit nové eseje a příběhy, které jsou mišmašem toho, co bylo nalezeno. Přidáním různých pravděpodobnostních funkcí je výsledný text do značné míry jedinečný ve srovnání s tím, co bylo použito v trénovací sadě.

To je důvod, proč došlo k pozdvižení, že studenti mohou podvádět při psaní esejí mimo třídu. Učitel nemůže pouze vzít esej, o které podvodní studenti tvrdí, že je to jejich vlastní psaní, a snažit se zjistit, zda nebyla zkopírována z nějakého jiného online zdroje. Celkově vzato nebude existovat žádná definitivní již existující online esej, která by se hodila na esej vygenerovanou AI. Celkově vzato, učitel bude muset neochotně přijmout, že student napsal esej jako originální dílo.

Existují další obavy ohledně generativní umělé inteligence.

Jednou zásadní nevýhodou je, že eseje vytvořené generativní aplikací AI mohou obsahovat různé nepravdy, včetně zjevně nepravdivých faktů, faktů, které jsou klamavě zobrazeny, a zjevných faktů, které jsou zcela vymyšlené. Tyto vyrobené aspekty jsou často označovány jako forma AI halucinace, fráze, kterou nemám v oblibě, ale zdá se, že i tak získává na popularitě (podrobné vysvětlení, proč je to mizerná a nevhodná terminologie, najdete v mém příspěvku na odkaz zde).

Než se pustíme do dění na toto téma, rád bych objasnil jeden důležitý aspekt.

Na sociálních sítích se objevilo několik šílených přehnaných tvrzení Generativní AI tvrdí, že tato nejnovější verze AI je ve skutečnosti vnímající AI (ne, mýlí se!). Ti, kdo se zabývají etikou a právem umělé inteligence, mají z tohoto narůstajícího trendu rozšířených nároků značné obavy. Můžete zdvořile říci, že někteří lidé přeceňují, co dnešní umělá inteligence vlastně umí. Předpokládají, že umělá inteligence má schopnosti, kterých jsme dosud nebyli schopni dosáhnout. To je smůla. A co je ještě horší, mohou dovolit sobě i ostatním, aby se dostali do strašných situací, protože předpokládají, že AI bude vnímavá nebo podobná člověku, pokud jde o schopnost jednat.

Neantropomorfizovat AI.

Pokud tak učiníte, dostanete se do pasti lepkavé a zarputilé spoléhání se na očekávání, že AI bude dělat věci, které není schopna provést. Jak již bylo řečeno, nejnovější generativní AI je relativně působivá na to, co dokáže. Uvědomte si však, že existují významná omezení, která byste měli mít neustále na paměti při používání jakékoli generativní aplikace AI.

Pokud vás zajímá rychle se rozšiřující rozruch kolem ChatGPT a generativní umělé inteligence, připravil jsem ve svém sloupci sérii zaměřenou na informace, které by pro vás mohly být užitečné. Zde je pohled pro případ, že by vás některé z těchto témat zaujalo:

  • 1) Předpovědi generativních pokroků AI přicházejí. Pokud chcete vědět, co se pravděpodobně objeví o AI v průběhu roku 2023 a dále, včetně nadcházejících pokroků v generativní AI a ChatGPT, budete si chtít přečíst můj úplný seznam předpovědí pro rok 2023 na adrese odkaz zde.
  • 2) Generativní AI a rady pro duševní zdraví. Rozhodl jsem se zkontrolovat, jak se generativní AI a ChatGPT používají pro poradenství v oblasti duševního zdraví, což je problematický trend, podle mé cílené analýzy na odkaz zde.
  • 3) Základy generativní umělé inteligence a ChatGPT. Tento díl zkoumá klíčové prvky toho, jak funguje generativní umělá inteligence, a konkrétně se ponoří do aplikace ChatGPT, včetně analýzy buzzu a fanfár na odkaz zde.
  • 4) Napětí mezi učiteli a studenty kvůli generativní umělé inteligenci a ChatGPT. Zde jsou způsoby, jak budou studenti úskočně používat generativní AI a ChatGPT. Kromě toho existuje několik způsobů, jak mohou učitelé s touto přílivovou vlnou bojovat. Vidět odkaz zde.
  • 5) Kontextové a generativní použití AI. Udělal jsem také sezónně ochucený průzkum kontextu souvisejícího se Santou zahrnující ChatGPT a generativní AI na odkaz zde.
  • 6) Podvodníci využívající generativní umělou inteligenci. Zlověstnou poznámkou je, že někteří podvodníci přišli na to, jak používat generativní umělou inteligenci a ChatGPT k provinění, včetně generování podvodných e-mailů a dokonce vytváření programovacího kódu pro malware, viz moje analýza na odkaz zde.
  • 7) Začátečnické chyby při používání generativní umělé inteligence. Mnoho lidí jak přestřeluje, tak překvapivě podstřeluje, co dokáže generativní AI a ChatGPT, takže jsem se podíval zejména na podstřelení, které mívají nováčci AI, viz diskuze na odkaz zde.
  • 8) Zvládání generativních výzev AI a halucinací AI. Popisuji špičkový přístup k používání doplňků AI k řešení různých problémů spojených se snahou zadávat vhodné výzvy do generativní AI a navíc existují další doplňky AI pro detekci takzvaných AI halucinovaných výstupů a nepravd, např. kryté na odkaz zde.
  • 9) Odhalení tvrzení Bonehead o odhalování generativních esejí vytvořených umělou inteligencí. Existuje zavádějící zlatá horečka aplikací umělé inteligence, které prohlašují, že jsou schopny zjistit, zda daný esej byl vytvořen člověkem nebo vytvořený umělou inteligencí. Celkově je to zavádějící a v některých případech zaostalé a neudržitelné tvrzení, viz moje pokrytí na odkaz zde.
  • 10) Hraní rolí prostřednictvím generativní umělé inteligence může představovat nevýhody duševního zdraví. Někteří používají generativní AI, jako je ChatGPT, k hraní rolí, přičemž aplikace AI reaguje na člověka, jako by existoval ve světě fantazie nebo v jiném vymyšleném prostředí. To by mohlo mít dopad na duševní zdraví, viz odkaz zde.
  • 11) Odhalení rozsahu výstupních chyb a nepravd. Shromažďují se různé shromážděné seznamy, aby se pokusily předvést povahu chyb a nepravd produkovaných ChatGPT. Někteří věří, že je to nezbytné, zatímco jiní říkají, že cvičení je marné, viz moje analýza na adrese odkaz zde.
  • 12) Školám, které zakazují generativní AI ChatGPT, chybí loď. Možná víte, že různé školy, jako například ministerstvo školství New York City (NYC), vyhlásily zákaz používání ChatGPT ve své síti a souvisejících zařízeních. I když se to může zdát jako užitečné opatření, nepohne to jehlou a bohužel úplně mine člun, viz moje zpravodajství na odkaz zde.
  • 13) Generativní AI ChatGPT bude všude díky chystanému API. S používáním ChatGPT přichází důležitý obrat, a sice, že prostřednictvím použití portálu API do této konkrétní aplikace AI budou moci ChatGPT vyvolat a využít i jiné softwarové programy. To dramaticky rozšíří používání generativní umělé inteligence a bude to mít pozoruhodné důsledky, viz moje zpracování na odkaz zde.
  • 14) Způsoby, jak může ChatGPT spadnout nebo se roztavit. ChatGPT má před sebou několik potenciálních nepříjemných problémů, pokud jde o podkopání dosavadní obrovské chvály, které se mu dostalo. Tato analýza podrobně zkoumá osm možných problémů, které by mohly způsobit, že ChatGPT ztratí sílu a dokonce skončí v psí boudě, viz odkaz zde.

Možná vás bude zajímat, že ChatGPT je založen na verzi předchozí aplikace AI známé jako GPT-3. ChatGPT je považován za mírně další krok, označovaný jako GPT-3.5. Očekává se, že GPT-4 bude pravděpodobně vydán na jaře 2023. GPT-4 bude pravděpodobně působivým krokem vpřed, pokud jde o schopnost vytvářet zdánlivě ještě plynulejší eseje, jít hlouběji a být úžasem. - inspirující zázrak, pokud jde o kompozice, které dokáže vytvořit.

Až přijde jaro a vyjde nejnovější generativní umělá inteligence, můžete očekávat nové kolo vyjádřeného úžasu.

Uvádím to, protože je třeba mít na paměti ještě jeden úhel, který se skládá z potenciální Achillovy paty k těmto lepším a větším generativním aplikacím AI. Pokud nějaký dodavatel umělé inteligence zpřístupní generativní aplikaci umělé inteligence, která zpěněně chrlí špatnost, mohlo by to zhatit naděje těchto tvůrců umělé inteligence. Společenské přelévání může způsobit, že všechna generativní umělá inteligence dostane vážné černé oko. Lidé budou nepochybně dost naštvaní nad nečestnými výstupy, které se staly již mnohokrát a vedly k bouřlivému společenskému odsuzujícímu odporu vůči AI.

Prozatím poslední varování.

Cokoli vidíte nebo čtete v generativní odpovědi AI, že zdá se, chcete-li být předáváni jako čistě faktická (data, místa, lidé atd.), zůstaňte skeptičtí a buďte ochotni znovu zkontrolovat, co vidíte.

Ano, data se dají vymyslet, místa se dají vymyslet a prvky, u kterých obvykle očekáváme, že budou bez výčitek, jsou všechno předmětem podezření. Nevěřte tomu, co čtete, a při zkoumání jakýchkoli generativních esejů nebo výstupů umělé inteligence mějte skeptický pohled. Pokud vám generativní aplikace umělé inteligence řekne, že Abraham Lincoln letěl po zemi ve svém vlastním soukromém tryskáči, nepochybně byste věděli, že jde o malárii. Naneštěstí si někteří lidé možná neuvědomují, že tryskáče v jeho době nebyly, nebo by mohli vědět, ale nevšimli si, že esej toto drzé a nehorázně nepravdivé tvrzení uvádí.

Při používání generativní umělé inteligence bude vaším nejlepším přínosem silná dávka zdravé skepse a vytrvalá nedůvěra.

Jsme připraveni přejít do další fáze tohoto objasnění.

Vědět, co se ďábel stane s tímto textem

Nyní, když jsme vytvořili základy, můžeme se ponořit do úvah o datech a informacích při používání generativní umělé inteligence.

Nejprve se krátce zamysleme nad tím, co se stane, když zadáte nějaký text do výzvy pro ChatGPT. Nevíme jistě, co se děje uvnitř ChatGPT, protože program je považován za proprietární. Někteří poukázali na to, že to podkopává pocit transparentnosti aplikace AI. Poněkud mazaná poznámka je, že pro společnost, která se nazývá OpenAI, je jejich AI ve skutečnosti uzavřena pro veřejný přístup a není dostupná jako open source.

Pojďme diskutovat o tokenizaci.

Když do výzvy zadáte prostý text a stisknete return, pravděpodobně dojde ke konverzi, ke které dojde okamžitě. Text je převeden do formátu sestávajícího z tokenů. Žetony jsou podčásti slov. Například slovo „hamburger“ by se normálně dělilo na tři žetony sestávající z části „šunka“, „bur“ a „ger“. Základním pravidlem je, že tokeny mají tendenci představovat asi čtyři znaky nebo jsou považovány za přibližně 75 % konvenčního anglického slova.

Každý token je poté přeformulován jako číslo. Různé interní tabulky určují, který token je přiřazen ke kterému konkrétnímu číslu. Vychytávka je v tom, že text, který jste zadali, je nyní celá sada čísel. Tato čísla se používají k výpočetní analýze výzvy. Síť porovnávání vzorů, kterou jsem zmínil dříve, je navíc založena na tokenizovaných hodnotách. Nakonec se při sestavování nebo generování výstupní eseje nejprve použijí tyto číselné tokeny a poté se před zobrazením převedou zpět na sady písmen a slov.

Přemýšlejte o tom na chvíli.

Když lidem řeknu, že takhle funguje mechanika zpracování, často je to zarazí. Předpokládali, že generativní aplikace AI, jako je ChatGPT, musí používat zcela integrativní slova. Logicky předpokládáme, že slova fungují jako základní kámen pro statistickou identifikaci vztahů v psaných vyprávěních a kompozicích. Ukázalo se, že zpracování má ve skutečnosti tendenci používat tokeny. Možná to přispívá k úžasu nad tím, jak se zdá, že výpočetní proces dělá docela přesvědčivou práci při napodobování lidského jazyka.

Provedl jsem vás tím procesem kvůli jedné běžné mylné představě, která se zřejmě šíří kolem. Zdá se, že někteří lidé věří, že protože se váš text výzvy převádí na číselné tokeny, jste v bezpečí, že vnitřnosti aplikace AI už nějak nemají váš původně zadaný text. Nárok tedy platí, i když jste do výzvy zadali důvěrné informace, nemusíte se obávat, protože vše bylo zdánlivě tokenizováno.

Ta představa je mylná. Právě jsem poukázal na to, že numerické tokeny lze snadno vrátit do textového formátu písmen a slov. Totéž lze provést s převedenou výzvou, která byla tokenizována. Na tokenizaci není nic magicky ochranného. Jak již bylo řečeno, po převodu na tokeny, pokud existuje další proces, který se rozhodne vyřadit tokeny, přesunout je a jinak míchat nebo rozsekat věci, v takovém případě existuje skutečně možnost, že některé části originálu již nejsou nedotčené (a za předpokladu, že původní kopie není jinak uchovávána nebo uložena někde interně).

Dále bych se rád podíval na různá oznámení a licenční podmínky ChatGPT.

Když se přihlásíte do ChatGPT, zobrazí se řada upozornění a informačních komentářů.

Zde jsou:

  • "Občas může generovat nesprávné informace."
  • "Příležitostně může produkovat škodlivé pokyny nebo neobjektivní obsah."
  • "Vycvičeni k odmítnutí nevhodných požadavků."
  • "Naším cílem je získat externí zpětnou vazbu, abychom mohli zlepšit naše systémy a učinit je bezpečnějšími."
  • „I když máme zavedená ochranná opatření, systém může příležitostně generovat nesprávné nebo zavádějící informace a vytvářet urážlivý nebo neobjektivní obsah. Jeho účelem není poskytovat rady."
  • "Konverzace mohou být kontrolovány našimi trenéry AI, aby zlepšili naše systémy."
  • "Prosím, nesdílejte ve svých konverzacích žádné citlivé informace."
  • „Tento systém je optimalizován pro dialog. Dejte nám vědět, zda byla konkrétní odpověď dobrá nebo neužitečná.“
  • "Omezené znalosti světa a událostí po roce 2021."

Dvě z uvedených upozornění jsou pro tuto diskusi zvláště relevantní. Podívejte se na šestou odrážku a sedmou odrážku.

Rozbalíme ty dva:

"Konverzace mohou být kontrolovány našimi trenéry AI, aby zlepšili naše systémy."

Tato šestá odrážka vysvětluje, že textové konverzace při používání ChatGPT může ChatGPT kontrolovat prostřednictvím svých „školitelů AI“, což se provádí za účelem zlepšení jejich systémů. Tímto vás informujeme, že všechny vaše zadané textové výzvy a odpovídající eseje, které jsou všechny součástí „konverzace“, kterou vedete s ChatGPT, mohou jejich lidé zcela vidět. Nabízené zdůvodnění je, že se to dělá za účelem vylepšení aplikace AI, a také nám bylo řečeno, že jde o typ pracovního úkolu, který provádějí jejich trenéři AI. Možná ano, ale výsledkem je, že vás upozornili, že se na váš text mohou podívat. Tečka, tečka.

Pokud by s vaším textem udělali něco jiného, ​​pravděpodobně byste požádali o právní radu ohledně toho, zda neúměrně překročili navrhované meze pouhého přezkoumání textu za účelem vylepšení systému (za předpokladu, že se vám podařilo zjistit, že tak učinili, který z se zdá být nepravděpodobné). Každopádně si dovedete představit právní tahanice, když se je na to snažili upozornit, a jejich pokusy vymýšlet si cestu z toho, že byli dopadeni za to, že nějak porušili meze jejich prohlášení.

"Prosím, nesdílejte ve svých konverzacích žádné citlivé informace."

Sedmý bod odrážky znamená, že ve svých konverzacích nemáte sdílet žádné citlivé informace. To se zdá relativně jednoduché. Předpokládám, že byste se mohli dohadovat, z čeho se skládá definice citlivých informací. Odrážka vám také neříká, proč byste neměli sdílet žádné citlivé informace. Pokud se jednoho dne budete muset pokusit a v hrozném potu vysvětlit, proč jste pošetile zadali důvěrná data, můžete zkusit zvednuté obočí prohlásit, že varování bylo nekonkrétní, a proto jste nepochopili význam. U toho zadrž dech.

Celkově vzato si troufám říci, že většina lidí, které jsem viděl používat ChatGPT, má tendenci nečíst body s odrážkami, nebo přehlédnout upozornění s odrážkami a jen pokývat hlavou, jako by to byla obvyklá blábolení, že vidíte všechny čas. Zdá se, že jen málokdo si bere varování přísně k srdci. Je to chyba prodejce, že nezvýšil opatření? Nebo bychom měli předpokládat, že uživatelé by měli být zodpovědní a pozorně si varování přečetli, porozuměli jim a následně se chovali uvážlivě?

Někteří dokonce tvrdí, že aplikace AI by vás měla opakovaně varovat. Pokaždé, když zadáte výzvu, software by měl vyskočit varování a zeptat se vás, zda chcete zasáhnout návrat. Znovu a znovu. I když se to může zdát jako užitečné opatření, nepochybně by to uživatele podráždilo. Jde o ožehavý kompromis.

Dobře, takže toto jsou zřejmá upozornění, která jsou prezentována všem uživatelům, aby je mohli snadno vidět.

Uživatelé, kteří by mohli být zvídavější, by se mohli rozhodnout pro některé z podrobných licenčních podmínek, které jsou také zveřejněny online. Pochybuji, že to mnozí dělají. Domnívám se, že málokdo se při přihlašování vážně dívá na body s odrážkami a ještě méně s velkým náskokem se pak podívá na podrobnosti o licencích. Opět jsme všichni v dnešní době k takovým věcem poněkud otupělí. Tím chování neomlouvám, jen konstatuji, proč k němu dochází.

Prozkoumám několik výňatků ze zveřejněných licenčních podmínek.

Nejprve je zde definice toho, co považují za „obsah“ spojený s používáním ChatGPT:

  • „Váš obsah. Můžete poskytovat vstup do Služeb („Vstup“) a přijímat výstup generovaný a vracený službami na základě Vstupu („Výstup“). Vstup a výstup jsou společně „Obsah“. Mezi stranami a v rozsahu povoleném platnými zákony vlastníte veškerý Vstup a za předpokladu, že budete dodržovat tyto Podmínky, vám OpenAI tímto přiděluje všechna svá práva, nárok a podíl na Výstupu. OpenAI může používat obsah podle potřeby k poskytování a údržbě Služeb, dodržování platných zákonů a prosazování našich zásad. Jste odpovědní za obsah, včetně zajištění toho, že neporušuje žádné platné zákony nebo tyto podmínky.“

Pokud tuto definici pečlivě prozkoumáte, všimnete si, že OpenAI prohlašuje, že může používat obsah tak, jak to považuje za nezbytné pro zachování svých služeb, včetně dodržování platných zákonů a prosazování svých zásad. To je pro ně šikovný úlovek. V nadcházejícím jednom z mých sloupců budu diskutovat o jiném, ale souvisejícím tématu, konkrétně o právech duševního vlastnictví (IP), která máte ohledně zadaných textových výzev a výstupních esejů (upozorňuji na to zde od definice Obsah se týká tohoto tématu).

V další části termínů, označené jako sekce c, zmiňují tento aspekt: ​​„Jednou z hlavních výhod modelů strojového učení je, že je lze časem vylepšovat. Abyste pomohli OpenAI poskytovat a udržovat Služby, souhlasíte a dáváte pokyn, že můžeme používat Obsah k vývoji a zlepšování Služeb.“ Toto je podobné dříve popsanému jednořádkovému upozornění, které se objeví, když se přihlásíte do ChatGPT.

Samostatný dokument, který je s tím spojen, poskytuje některé další aspekty těchto závažných záležitostí:

  • „V rámci tohoto neustálého zlepšování, když používáte modely OpenAI prostřednictvím našeho API, můžeme data, která nám poskytnete, použít ke zlepšení našich modelů. Nejen, že to pomáhá našim modelům být přesnější a lepší při řešení vašeho konkrétního problému, ale také pomáhá zlepšit jejich obecné schopnosti a bezpečnost. Víme, že soukromí a bezpečnost dat jsou pro naše zákazníky zásadní. Velmi dbáme na to, abychom používali vhodné technické a procesní kontroly k zabezpečení vašich dat. Z dat, která máme v úmyslu použít ke zlepšení výkonu modelu, odstraňujeme jakékoli osobní údaje. Pro naše úsilí o zlepšení výkonu modelu také používáme pouze malý vzorek dat na zákazníka. Například pro jeden úkol je maximální počet žádostí API, které vzorkujeme na zákazníka, omezen na 200 každých 6 měsíců“ (výňatek z dokumentu nazvaného „Jak jsou vaše data využívána ke zlepšení výkonu modelu“).

Všimněte si, že ustanovení uvádí, že ustanovení se vztahuje na použití API jako prostředek pro připojení a používání všech modelů OpenAI. Je poněkud nejasné, zda to platí i pro koncové uživatele, kteří přímo používají ChatGPT.

V ještě jiném dokumentu, který obsahuje jejich seznam různých často kladených otázek, poskytují řadu otázek a odpovědí, z nichž dvě se zdají být zvláště relevantní pro tuto diskusi:

  • „(5) Kdo může zobrazit mé konverzace? V rámci našeho závazku k bezpečné a odpovědné umělé inteligenci kontrolujeme konverzace, abychom zlepšili naše systémy a zajistili, že obsah bude v souladu s našimi zásadami a bezpečnostními požadavky.“
  • “(8) Můžete odstranit konkrétní výzvy? Ne, nejsme schopni odstranit konkrétní výzvy z vaší historie. Ve svých konverzacích prosím nesdělujte žádné citlivé informace.“

Existuje další dokument, který pokrývá jejich zásady ochrany osobních údajů. Píše se v něm toto: „Shromažďujeme informace, které by samy nebo v kombinaci s jinými informacemi, které máme k dispozici, mohly být použity k vaší identifikaci („Osobní údaje“)“ a poté vysvětluje, že mohou používat data protokolu, údaje o používání, informace o komunikaci, informace o zařízení, soubory cookie, analýzy a další potenciálně shromažďovatelné informace o vás. Nezapomeňte si přečíst drobné písmo.

Myslím, že to do značné míry poskytuje prohlídku některých úvah, které jsou základem toho, jak mohou být vaše data použita. Jak jsem uvedl na začátku, nebudu pracně procházet všechna licenční ujednání.

Doufejme, že vás to dostane do rozpoložení mysli na tyto záležitosti a zůstanete na vrcholu vaší mysli.

Proč investovat do čističky vzduchu?

Už jsem to řekl dříve a řeknu to znovu, nezadávejte do těchto generativních aplikací umělé inteligence důvěrná ani soukromá data.

Zvažte několik užitečných tipů nebo možností této moudré rady:

  • Přemýšlejte před použitím generativní umělé inteligence
  • Odstraňte věci předem
  • Maska nebo falešný váš vstup
  • Nastavte si vlastní instanci
  • Ostatní

Dále uvedu, z čeho se každá z nich skládá. Nastavení vaší vlastní instance zde bylo popsáno dříve. Použití „jiné“ v mém seznamu je způsobeno možností jiných způsobů, jak se vypořádat se zabráněním zahrnutí důvěrných údajů, kterým se budu dále věnovat v budoucím sloupci.

Pojďme prozkoumat tyto:

  • Přemýšlejte před použitím generativní umělé inteligence. Jeden přístup zahrnuje úplné vyvarování se používání generativní umělé inteligence. Nebo si to alespoň dvakrát rozmyslete, než to uděláte. Předpokládám, že nejbezpečnější cestou je nepoužívat tyto aplikace AI. Ale i to se zdá být dost vážné a téměř přes palubu.
  • Odstraňte věci předem. Jiný přístup spočívá v odstranění důvěrných nebo soukromých informací z čehokoli, co zadáte jako výzvu. V tomto smyslu, pokud do něj nevstoupíte, není šance, že by se dostal do Borgů. Nevýhodou je, že možná odstranění důvěrné části nějak snižuje nebo podkopává to, co se snažíte přimět generativní umělou inteligenci, aby za vás udělala.
  • Maska nebo falešné vaše vstupy. Navrhovaný text můžete upravit změnou informací tak, aby vše, co se zdálo důvěrné nebo soukromé, bylo nyní zobrazeno jinak. Například místo smlouvy zmiňující Widget Company a John Smith změníte text tak, aby odkazoval na Specious Company a Jane Capone. Otázkou je, zda uděláte dostatečně vyčerpávající práci, aby byly všechny důvěrné a soukromé aspekty plně pozměněny nebo zfalšovány. Bylo by snadné přehlédnout některé zákalky a nechat tam věci, které by tam neměly být.

Zde je zajímavý dodatečný zvrat, který by mohl váš nugát na toto téma ještě více rozproudit. Pokud můžete zcela zajistit, aby žádná z vašich vstupních výzev neobsahovala žádné důvěrné informace, znamená to, že se nemusíte ani trochu obávat, že výstupní eseje obsahují také nějaké vaše důvěrné informace?

To by se zdálo axiomaticky pravdivé. Žádný důvěrný vstup, žádný důvěrný výstup.

Tady je vaše mysl-ohýbání twist.

Generativní umělá inteligence je často nastavena tak, aby se výpočetně přeškolila z textových výzev, které jsou poskytovány. Podobně je často navržena generativní umělá inteligence pro výpočetní přeškolení z vydaných esejů. Celá tato rekvalifikace má za cíl zlepšit schopnosti generativní umělé inteligence.

V jednom ze svých dalších sloupců jsem popsal následující experiment, který jsem provedl. Právník se snažil objevit nový způsob řešení právního problému. Po vyčerpávajícím nahlédnutí do právnické literatury se zdálo, že byly nalezeny všechny již vynořené úhly. Pomocí generativní umělé inteligence jsme dostali aplikaci AI k vytvoření nového právního přístupu, který zdánlivě nebyl dříve identifikován. Věřilo se, že nikdo jiný ještě nepřistál na této legální pozici. Legální zlatý valoun, jak to bylo. To by mohla být strategicky cenná konkurenční právní bonanza, kterou lze ve správný čas využít a využít.

Představuje tento vydaný esej formu důvěrných informací, které byly vytvořeny AI pro tuto konkrétní osobu a obsahují něco zvláštního a zdánlivě jedinečného?

Aha, to nás vede k dalšímu souvisejícímu a provázanému tématu o vlastnictví a právech duševního vlastnictví spojených s generativní AI. Zůstaňte naladěni a uvidíte, jak to dopadne.

Prozatím poslední poznámka.

Sofokles poskytl tuto moudrost: „Nedělejte nic tajně; neboť Čas všechno vidí a slyší a vše odhaluje." Předpokládám, že byste mohli modernizovat znění a tvrdit, že generativní AI a ti, kteří vymýšlejí a udržují AI, jsou také na místě.

Je to skromná symbolická rada hodná zapamatování.

Zdroj: https://www.forbes.com/sites/lanceeliot/2023/01/27/generative-ai-chatgpt-can-disturbingly-gobble-up-your-private-and-důvěrné-data-forewarns-ai- etika-a-ai-právo/