Desítky odborníků na umělou inteligenci (AI), včetně generálních ředitelů OpenAI, Google DeepMind a Anthropic, nedávno podepsaly otevřené prohlášení zveřejněné Centrem pro bezpečnost AI (CAIS).
Vydali jsme pouze prohlášení:
„Zmírnění rizika vyhynutí způsobeného umělou inteligencí by mělo být globální prioritou spolu s dalšími riziky společenského rozsahu, jako jsou pandemie a jaderná válka.“
Mezi signatáře patří Hinton, Bengio, Altman, Hassabis, Song atd. https://t.co/N9f6hs4bpa
(1 / 6)
— Dan Hendrycks (@DanHendrycks) 30
Prohlášení obsahuje jedinou větu:
„Zmírnění rizika vyhynutí způsobeného umělou inteligencí by mělo být globální prioritou spolu s dalšími riziky společenského rozsahu, jako jsou pandemie a jaderná válka.“
Mezi signatáři dokumentu jsou opravdoví „kdo je kdo“ z osobností AI, včetně „kmotra“ AI, Geoffrey Hinton; University of California, Berkeley Stuart Russell; a Lex Fridman z Massachusetts Institute of Technology. Hudebník Grimes je také signatářem a je uveden v kategorii „další významné osobnosti“.
Související: Hudebník Grimes ochotný „rozdělit 50 % licenčních poplatků“ s hudbou generovanou umělou inteligencí
I když se toto prohlášení může navenek zdát neškodné, základní sdělení je v komunitě umělé inteligence poněkud kontroverzní.
Zdánlivě rostoucí počet odborníků se domnívá, že současné technologie mohou nebo nevyhnutelně povedou ke vzniku nebo rozvoji systému umělé inteligence schopného představovat existenční hrozbu pro lidský druh.
Jejich názorům však kontruje kontingent odborníků s diametrálně odlišnými názory. Například šéf AI společnosti Meta Yann LeCun při mnoha příležitostech poznamenal, že nemusí nutně věřit, že se AI stane nekontrolovatelnou.
Superlidská umělá inteligence není ani zdaleka na vrcholu seznamu existenčních rizik.
Z velké části proto, že ještě neexistuje.Dokud nebudeme mít základní návrh pro umělou inteligenci na úrovni psa (natož na úrovni člověka), je předčasné diskutovat o tom, jak zajistit bezpečnost. https://t.co/ClkZxfofV9
— Yann LeCun (@ylecun) 30
Pro něj a další, kteří nesouhlasí s rétorikou o „zániku“, jako je Andrew Ng, spoluzakladatel Google Brain a bývalý hlavní vědec v Baidu, není AI problém, je to odpověď.
Na druhé straně argumentu se experti jako Hinton a Conjecture CEO Connor Leahy domnívají, že umělá inteligence na lidské úrovni je nevyhnutelná, a proto je čas jednat právě teď.
Vedoucí všech hlavních laboratoří umělé inteligence podepsali tento dopis, čímž výslovně uznali riziko vyhynutí z AGI.
Neuvěřitelný krok vpřed, gratuluji Danovi za jeho neuvěřitelnou práci, kterou dal dohromady, a děkuji všem signatářům za to, že udělali svou část pro lepší budoucnost! https://t.co/KDkqWvdJcH
— Connor Leahy (@NPCollapse) 30
Není však jasné, jaké kroky signatáři prohlášení požadují. Generální ředitelé a/nebo vedoucí AI téměř každé velké společnosti zabývající se umělou inteligencí, stejně jako renomovaní vědci z celé akademické sféry, jsou mezi těmi, kdo podepsali, čímž je zřejmé, že záměrem není zastavit vývoj těchto potenciálně nebezpečných systémů.
Začátkem tohoto měsíce se generální ředitel OpenAI Sam Altman, jeden ze signatářů výše uvedeného prohlášení, poprvé objevil před Kongresem během slyšení v Senátu, kde se diskutovalo o regulaci AI. Jeho svědectví se dostalo do titulků poté, co většinu z nich strávil naléháním na zákonodárce, aby regulovali jeho odvětví.
Altman's Worldcoin, projekt kombinující kryptoměnu a proof-of-personhood, také nedávno obletěl média poté, co získal 115 milionů dolarů na financování série C, čímž se jeho celkové financování po třech kolech dostalo na 240 milionů dolarů.
Zdroj: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war