Odborníci na umělou inteligenci podepisují dokument porovnávající riziko „vymření z umělé inteligence“ s pandemií, jadernou válkou

Desítky odborníků na umělou inteligenci (AI), včetně generálních ředitelů OpenAI, Google DeepMind a Anthropic, nedávno podepsaly otevřené prohlášení zveřejněné Centrem pro bezpečnost AI (CAIS). 

Prohlášení obsahuje jedinou větu:

„Zmírnění rizika vyhynutí způsobeného umělou inteligencí by mělo být globální prioritou spolu s dalšími riziky společenského rozsahu, jako jsou pandemie a jaderná válka.“

Mezi signatáři dokumentu jsou opravdoví „kdo je kdo“ z osobností AI, včetně „kmotra“ AI, Geoffrey Hinton; University of California, Berkeley Stuart Russell; a Lex Fridman z Massachusetts Institute of Technology. Hudebník Grimes je také signatářem a je uveden v kategorii „další významné osobnosti“.

Související: Hudebník Grimes ochotný „rozdělit 50 % licenčních poplatků“ s hudbou generovanou umělou inteligencí

I když se toto prohlášení může navenek zdát neškodné, základní sdělení je v komunitě umělé inteligence poněkud kontroverzní.

Zdánlivě rostoucí počet odborníků se domnívá, že současné technologie mohou nebo nevyhnutelně povedou ke vzniku nebo rozvoji systému umělé inteligence schopného představovat existenční hrozbu pro lidský druh.

Jejich názorům však kontruje kontingent odborníků s diametrálně odlišnými názory. Například šéf AI společnosti Meta Yann LeCun při mnoha příležitostech poznamenal, že nemusí nutně věřit, že se AI stane nekontrolovatelnou.

Pro něj a další, kteří nesouhlasí s rétorikou o „zániku“, jako je Andrew Ng, spoluzakladatel Google Brain a bývalý hlavní vědec v Baidu, není AI problém, je to odpověď.

Na druhé straně argumentu se experti jako Hinton a Conjecture CEO Connor Leahy domnívají, že umělá inteligence na lidské úrovni je nevyhnutelná, a proto je čas jednat právě teď.

Není však jasné, jaké kroky signatáři prohlášení požadují. Generální ředitelé a/nebo vedoucí AI téměř každé velké společnosti zabývající se umělou inteligencí, stejně jako renomovaní vědci z celé akademické sféry, jsou mezi těmi, kdo podepsali, čímž je zřejmé, že záměrem není zastavit vývoj těchto potenciálně nebezpečných systémů.

Začátkem tohoto měsíce se generální ředitel OpenAI Sam Altman, jeden ze signatářů výše uvedeného prohlášení, poprvé objevil před Kongresem během slyšení v Senátu, kde se diskutovalo o regulaci AI. Jeho svědectví se dostalo do titulků poté, co většinu z nich strávil naléháním na zákonodárce, aby regulovali jeho odvětví.

Altman's Worldcoin, projekt kombinující kryptoměnu a proof-of-personhood, také nedávno obletěl média poté, co získal 115 milionů dolarů na financování série C, čímž se jeho celkové financování po třech kolech dostalo na 240 milionů dolarů.

Zdroj: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war