FBI varuje před AI Deepfake vyděračskými podvody

Schopnosti generativní umělé inteligence vytvářet realistické obrazy jsou působivé, ale americký Federální úřad pro vyšetřování říká, že zločinci používají deepfakes k cílení na oběti vydírání.

"FBI nadále dostává zprávy od obětí, včetně nezletilých dětí a dospělých, kteří s tím nesouhlasili, jejichž fotografie nebo videa byly pozměněny na explicitní obsah," uvedla agentura v pondělním upozornění PSA.

FBI uvádí, že orgány činné v trestním řízení obdržely v loňském roce více než 7,000 XNUMX zpráv o online vydírání zaměřeném na nezletilé, přičemž od dubna došlo k nárůstu počtu obětí takzvaných „vydírání“ pomocí deepfakes.

Deepfake je stále častější typ video nebo audio obsahu vytvořeného umělou inteligencí, který zobrazuje falešné události, které je stále těžší rozpoznat jako falešné, díky generativním platformám umělé inteligence, jako je Midjourney 5.1 a DALL-E 2 OpenAI.

V květnu se stal virálním deepfake generálního ředitele Tesly a Twitteru Elona Muska s cílem podvést kryptoinvestory. Video sdílené na sociálních sítích obsahovalo záběry Muska z předchozích rozhovorů, upravené tak, aby odpovídaly podvodu.

Deepfakes nejsou všechny zlomyslné, deepfake papeže Františka v bílé bundě Balenciaga se stal virálním začátkem tohoto roku a nedávno byly deepfakes generované umělou inteligencí také použity k přivedení obětí vražd zpět k životu.

FBI ve svých doporučeních varovala před placením jakéhokoli výkupného, ​​protože to nezaručuje, že zločinci stejně deepfake nezveřejní.

FBI také doporučuje opatrnost při sdílení osobních informací a obsahu online, včetně používání funkcí ochrany osobních údajů, jako je nastavení účtů jako soukromých, sledování online aktivity dětí a sledování neobvyklého chování lidí, se kterými jste v minulosti komunikovali. Agentura také doporučuje provádět časté vyhledávání osobních údajů a informací o členech rodiny online.

Mezi další agentury, které bijí na poplach, patří Federální obchodní komise USA, která varovala, že zločinci používají deepfakes, aby přiměli nic netušící oběti k zaslání peněz poté, co vytvořili zvukový deepfake přítele nebo člena rodiny, který říká, že byli uneseni.

„Umělá inteligence už není přitažená za vlasy ze sci-fi filmu. Žijeme s tím, tady a teď. Podvodník by mohl pomocí umělé inteligence naklonovat hlas vašeho milovaného,“ uvedla FTC ve spotřebitelském upozornění v březnu a dodala, že vše, co zločinci potřebují, je krátký zvukový záznam hlasu člena rodiny, aby nahrávka zněla skutečně.

FBI zatím nereagovala Dešifrovat žádost o komentář.

Mějte přehled o krypto novinkách, dostávejte denní aktualizace do vaší schránky.

Zdroj: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams