Zde je návod, jak OpenAI plánuje očistit ChatGPT od nepravdivých informací

OpenAI oznámila 31. května své úsilí o vylepšení schopností ChatGPT při řešení matematických problémů s cílem snížit výskyt halucinací umělé inteligence (AI). OpenAI zdůraznilo zmírnění halucinací jako zásadní krok k rozvoji sladěných AGI.

V březnu představení nejnovější verze ChatGPT, GPT-4, dále posunulo umělou inteligenci do hlavního proudu. Generativní chatboti s umělou inteligencí se však již dlouho potýkají s faktickou přesností a občas generují falešné informace, běžně označované jako „halucinace“. Snahy o snížení těchto halucinací AI byly oznámeny prostřednictvím příspěvku na jejich webových stránkách.

Halucinace umělé inteligence označují případy, kdy systémy umělé inteligence generují výstupy, které jsou fakticky nesprávné, zavádějící nebo nepodložené reálnými daty. Tyto halucinace se mohou projevovat v různých formách, jako je generování nepravdivých informací, vymýšlení neexistujících událostí nebo lidí nebo poskytování nepřesných podrobností o určitých tématech.

OpenAI provedla výzkum, aby prozkoumala účinnost dvou typů zpětné vazby – „dohled nad výsledky“ a „dohled nad procesem“. Dohled nad výsledkem zahrnuje zpětnou vazbu založenou na konečném výsledku, zatímco dohled nad procesem poskytuje vstup pro každý krok v řetězci myšlenek. OpenAI vyhodnotila tyto modely pomocí matematických úloh, vygenerovala více řešení a vybrala řešení s nejvyšším hodnocením podle každého modelu zpětné vazby.

Po důkladné analýze výzkumný tým zjistil, že procesní supervize přinesla vynikající výkon, protože povzbudila model, aby se držel procesu schváleného lidmi. Naproti tomu se ukázalo, že kontrola výsledků je náročnější na důslednou kontrolu.

OpenAI uznalo, že důsledky procesního dohledu přesahují matematiku a že je nutné další zkoumání, abychom pochopili jeho účinky v různých oblastech. Vyjadřovala možnost, že pokud pozorované výsledky platí v širších souvislostech, procesní supervize by mohla nabídnout příznivou kombinaci výkonu a sladění ve srovnání s výstupní supervizí. Pro usnadnění výzkumu společnost veřejně zveřejnila kompletní datovou sadu procesního dozoru, která vyzývá k průzkumu a studiu v této oblasti.

Související: Poptávka po AI krátce katapultuje Nvidii do $1T klubu

Ačkoli OpenAI neposkytla explicitní příklady, které by podnítily jejich vyšetřování halucinací, dva nedávné případy ilustrovaly problém ve scénářích ze skutečného života.

V nedávném incidentu právník Steven A. Schwartz v případu Mata v. Avianca Airlines uznal, že se spoléhá na chatbota jako na zdroj výzkumu. Ukázalo se však, že informace poskytnuté ChatGPT byly zcela vymyšlené a zdůrazňovaly daný problém.

ChatGPT od OpenAI není jediným příkladem systémů umělé inteligence, které se setkávají s halucinacemi. Umělá inteligence společnosti Microsoft během březnové demonstrace své technologie chatbotů zkoumala zprávy o výdělcích a generovala nepřesná čísla pro společnosti jako Gap a Lululemon.

Magazine: 25 XNUMX obchodníků sází na výběr akcií ChatGPT, umělá inteligence nasává házení kostkou a další

Zdroj: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information