AI Deepfake ID představující problémy Crypto Exchange KYC

  • Umělá inteligence eskaluje problém hluboce falešných podvodů při ověřování digitální identity, potenciálně přetváří kybernetickou bezpečnost a představuje problémy pro opatření KYC krypto burzy.

Oblast umělé inteligence (AI) zaznamenala v posledních letech pozoruhodný růst, přičemž projekce naznačují, že do roku 2030 by toto odvětví mohlo přidat do globální ekonomiky až 15.7 bilionu dolarů, což je číslo, které daleko převyšuje současné ekonomické výstupy hlavních hráčů. včetně Číny a Indie dohromady. 

Zvláštním vývojem v tomto ohledu vycházejícím z tohoto prostoru a sbírajícím v poslední době velkou pozornost je vývoj „deepfakes“ – tedy vysoce realistických video a/nebo zvukových nahrávek vytvořených pomocí AI, které mohou napodobovat skutečné lidské vzhledy nebo hlasy, často k nerozeznání od jejich pravé protějšky.

K tomuto bodu nedávný virální příspěvek na X demonstroval, jak někteří využívají snadno dostupný open source a komerční software ke změně selfie člověka pomocí generativních nástrojů AI, čímž vytvářejí padělané obrázky ID, které mohou potenciálně oklamat mnoho dnešních bezpečnostních kontrol.

Viz také: Vitalik Buterin zdůrazňuje důležitost bezpečnostní strategie Web3 v boji proti Deepfake videu

Hluboký hlavolam

Jak se digitální prostředí vyvíjelo, vzestup deepfakes generovaných umělou inteligencí představuje významné výzvy pro stávající paradigma Poznej svého zákazníka (KYC). 

Toufi Saliba, generální ředitel společnosti HyperCycle – společnosti vytvářející nezbytné komponenty umožňující mikroslužbám AI komunikovat mezi sebou – uvedl, že hlavním jádrem této výzvy jsou samotné stávající bezpečnostní procesy a dodal:

„Možná je KYC sám o sobě vektorem útoku na sebesuverenitu a tyto [hluboké] nástroje dokazují, jak by se dnešní systémy KYC mohly v blízké budoucnosti stát zastaralými. Odolné řešení by zahrnovalo správné použití určité kryptografie ke splnění proklamovaného záměru zastánců KYC, a tím také k ochraně budoucích generací.

Saliba dále upozornil na důsledky AI a deepfakes na sektor kryptoměn a zdůraznil naléhavost rychlé adaptace. 

„Tento problém vytváření falešných obrázků pravděpodobně naruší celé centralizované systémy zevnitř ven, a tak představuje jednu z nejlepších příležitostí pro dobře míněné regulátory a centralizované subjekty, aby si uvědomili, že kryptografie může přijít na pomoc, když je potřeba,“ prohlásil.

Na téma detekce hluboce falešného obsahu Dimitry Mihaylov, expert na výzkum AI pro OSN, uvedl, že když zločinci začínají používat sofistikované nástroje k vytváření realistických falešných identifikačních dokumentů, začínáme nyní čelit nepředvídaným výzvám. 

V důsledku toho se domnívá, že je nezbytné, aby se průmyslová odvětví rychle vyvíjela a dodává:

„Trh pro detekci obrazu generovaného umělou inteligencí se vyvíjí s projekty jako FakeCatcher, projekt, který byl vyvinut ve spolupráci s Umur Ciftci. Tato technologie ukazuje potenciál detekce deepfake v reálném čase s přesností 96 %.

Při pohledu do budoucna Mihaylov také očekává významný posun v regulačních přístupech ke KYC, což naznačuje budoucnost, kde se dynamické a interaktivní ověřovací procesy stanou normou. 

"Možná uvidíme zavedení dynamičtějších postupů KYC, jako je video KYC, protože regulační rámce se přizpůsobí tomuto technologickému pokroku," on navrhl.

Viz také: Deepfake Video Andrewa Forresta propaguje podvodnou krypto platformu na Facebooku

Dopad na burzy kryptoměn

Dopad deepfakes lze pociťovat v celé řadě odvětví, včetně kryptoměn. 

K tomuto bodu se platforma s názvem OnlyFake nedávno dostala do titulků, protože údajně úspěšně obcházela protokoly KYC několika známých platforem pro obchodování s kryptoměnami.

Platforma tvrdí, že za pouhých 15 dolarů za kus vyrábí padělané řidičské průkazy a pasy pro 26 zemí, včetně, ale bez omezení na Spojené státy, Kanadu, Spojené království, Austrálii a několik členských států Evropské unie.

5. února společnost s názvem 404 Media odhalil že použila služby OnlyFake, aby se úspěšně vyhnula procesu ověřování KYC populární kryptoburzy OKX.

Podobně uniklé diskuse odhalily, že klientela OnlyFake oslavuje svou schopnost obejít ověřovací procesy na mnoha dalších kryptoměnových burzách a finančních institucích, včetně Kraken, Bybit, Bitget, Huobi a PayPal.

Uvádí se, že proces generování padělaného dokumentu na webu je pozoruhodně rychlý, přičemž platforma údajně dokáže vygenerovat až 100 falešných ID najednou pomocí pouze dat z tabulky Excel. 

Uživatelé mají navíc možnost začlenit svou vlastní fotografii nebo vybrat jednu z vybraných „osobní knihovna kapek“, nespoléhat na neuronové sítě.

Falešné řidičské průkazy a pasy se objevují uspořádané na různých domácích površích, jako jsou kuchyňské linky, prostěradla, koberce a stoly, a napodobují typickou prezentaci pro online ověřování. 

Jeden příspěvek dokonce předváděl vyrobený australský pas s podrobnostmi o bývalém americkém prezidentovi položený na kusu látky.

Dopad umělé inteligence je pociťován široko daleko

Během druhé poloviny roku 2022 společnost CertiK pro zabezpečení blockchainu odhalil existence podzemního tržiště, kde lidé nabízeli své identity k prodeji za pouhých 8 dolarů. 

Tito jednotlivci souhlasili s tím, že budou sloužit jako legitimní tvář pro podvodné iniciativy v oblasti kryptoměn a založit bankovní a směnárenské účty pro uživatele, kteří by jinak měli na určité platformě zákaz.

Kromě toho převládající a přímočará dostupnost technologie AI deep fake vyvolala poplach mezi lídry v sektoru kryptoměn, zejména pokud jde o zjišťování spolehlivosti procesů ověřování videa používaných při určitých ověřováních identity.

Hlavní bezpečnostní ředitel Binance Jimmy Su v květnu 2023 řekl, že je znepokojen nárůstem podvodníků využívajících hluboce falešné technologie k obcházení směnných postupů KYC. 

Varoval, že tyto video padělky se blíží úrovni realismu schopného oklamat lidské hodnotitele.

Konečně studie zveřejněná nizozemskou Sensity AI ukázala, že testy živosti používané pro ověřování identity byly významně náchylné k falešným útokům, což podvodníkům umožnilo nahradit své vlastní tváře obličeji jiných osob.

Do tohoto bodu se muž z Keraly v Indii nedávno stal obětí lsti, kdy podvodník předstíral, že je jeho přítel, ukradl 40,000 500 rupií (přibližně XNUMX dolarů). 

Podobně deepfake video Loni se na Twitteru objevilo i to, že Elon Musk sdílel zavádějící investiční rady ohledně kryptoměn.

Co leží dopředu?

Když směřujeme k budoucnosti řízené umělou inteligencí, existuje dostatek důkazů, které naznačují, že hrozba "výměna obličeje" deepfake útoků bude stále přibývat. 

Vlastně nedávná studie poznamenat, že útoky proti vzdáleným systémům ověřování identity se mezi lety 704 a 2022 zvýšily o 2023 %, přičemž tento nárůst je připisován dostupnosti bezplatných a levných nástrojů pro výměnu obličejů, virtuálních kamer a mobilních emulátorů.

Kromě toho se s každým dalším měsícem zdá, že hackeři a podvodníci jsou se svými útoky stále sofistikovanější, jak je vidět se vznikem vektorů a emulátorů útoků digitální injekcí, které umožňují podvodníkům vytvářet a používat deepfakes v reálném čase vážnou výzvou pro mobilní i video autentizační systémy. 

Při pohledu do budoucna bude tedy zajímavé sledovat, jak se toto rodící se bezpečnostní paradigma bude nadále vyvíjet, zejména s ohledem na rostoucí závislost lidí na těchto vyspělých technologiích.

Zřeknutí se odpovědnosti: Uvedené informace nejsou obchodní rady. Bitcoinworld.co.in nenese žádnou odpovědnost za jakékoli investice provedené na základě informací uvedených na této stránce. Důrazně doporučujeme nezávislý průzkum a/nebo konzultaci s kvalifikovaným odborníkem před jakýmkoli investičním rozhodnutím.

 

#Binance #WRITE2EARN

Zdroj: https://bitcoinworld.co.in/ai-deepfake-ids-posing-problems-for-crypto-exchange-kyc-measures/