Etika umělé inteligence ostře zpochybňuje klonování lidského hlasu, jako jsou hlasy vašich zesnulých příbuzných, určené pro použití v autonomních systémech umělé inteligence

Jejda, zdánlivě šikovný kousek nové technologie dostal sebe i svého výrobce do horké vody.

Mám na mysli vznik klonování lidského hlasu na bázi umělé inteligence jako nové technologie, které se v poslední době podařilo dostat do hlavních zpráv. V tomto případě je společností Amazon a její stále se rozvíjející Alexa.

Čtenáři mého sloupku si možná vzpomenou, že jsem se předtím věnoval neslušnému bučení, ke kterému došlo, když bylo oznámeno, že Alexa nabádal mladíka, aby dal cent do elektrické zásuvky (nedělejte to!), viz moje zpravodajství na odkaz zde. Za těchto okolností se naštěstí nikdo nezranil a dopad byl v tom, že systém Alexa AI zjevně zachytil předchozí virový trend a bez jakéhokoli zdání zdravého rozumu pouze zopakoval bláznivý návrh, když byl požádán o něco zábavného. dítě interagující s Alexou. To zdůrazňuje obavy AI etiky, že jsme zaplaveni umělou inteligencí, která zcela postrádá jakoukoli zdání zdravého uvažování, což je zvláště náročný problém, kterému AI čelí a který nadále vzdoruje snahám o vtělení do AI (pro mou analýzu o odvození zdravého rozumu založeného na AI úsilí, viz odkaz zde).

Nejnovější dustup zahrnuje klonování hlasu, známé také jako replikace hlasu. Nejnovější technologie a umělá inteligence zvyšují naléhavou etiku a etické aspekty umělé inteligence. Mé průběžné zastřešující pokrytí etiky AI a etické AI viz odkaz zde a odkaz zde, Abychom jmenovali jen několik.

Klonování hlasu založené na umělé inteligenci je jednoduchý koncept.

Systém umělé inteligence je naprogramován tak, aby zvukový záznam některých vašich mluvených slov. AI se pak pokusí vypočítat vaše řečové vzorce. Na základě zjištěných vzorců řeči se pak AI pokusí vydávat zvukovou řeč, která zní stejně jako vy. Záludná část je v tom, že řeč pokrývá slova, která jste předtím neposkytli jako zvukové vzorky AI. Jinými slovy, umělá inteligence musí matematicky odhadnout, jak můžete slova vyslovit. To zahrnuje všechny vlastnosti řeči, jako je tón, zvyšování a snižování hlasu, tempo nebo rychlost řeči a tak dále.

Když uslyšíte, jak se člověk pokouší vydávat za jiného člověka, obvykle poznáte, že jde o zosobnění. Z krátkodobého hlediska, například když napodobitel použije jen několik slov, může být obtížné zjistit, že hlas není původní mluvčí. Kromě toho, pokud napodobitel napodobuje slova, která skutečně mluvil původní mluvčí, je pravděpodobné, že dokáže svůj vlastní hlas naladit na hlas druhé osoby pro tento konkrétní výrok.

Stručnost a slyšení přesně stejných slov může někomu dovolit, aby se napodobil.

Výzvou se stává zakrývání slov, která druhá osoba nemluvila nebo pro která napodobitel nikdy neslyšel, že osoba tato konkrétní slova mluví. Jste poněkud ve tmě, když se snažíte zjistit, jak by napodobená osoba tato slova řekla. Dobrou zprávou je, že pokud kdokoli jiný, kdo napodobitele poslouchá, také neví, jak by původní osoba ta slova řekla, může být napodobitel relativně daleko od pravého hlasu, a přesto se může zdát šmrncovní a cílevědomý.

Rád bych také na chvíli odstranil z rovnice manýry a fyzický pohyb zosobnění. Když uvidíte napodobitele, můžete být uchváceni, pokud je schopen vrásčit obličej nebo máchat rukama způsobem, který také napodobuje osobu, za kterou se vydává. Přidané náznaky těla a obličeje oklamou vaši mysl, abyste si mysleli, že hlas je také mrtvý, i když tomu tak nemusí být. Purista zosobnění hlasu by trval na tom, že jako kritérium pro určení, zda hlas vhodně napodobuje zosobněnou osobu, by měl být použit pouze samotný hlas.

Určitě jste viděli různá deepfake videa, která se v dnešní době objevují na sociálních sítích. Někdo chytře upraví video, aby se ve videu objevil obličej někoho jiného a překryl obličej někoho jiného v původním záznamu. To je obvykle také doprovázeno hlubokým falšováním hlasu. Získáváte dvojitou ránu, která zahrnuje vizuální změnu videa pomocí deepfake AI a změnu zvuku pomocí deepfake AI.

V zájmu zde uvedené diskuse se soustředím pouze na AI založené na deepfake audio aspektech, které, jak již bylo zmíněno dříve, se běžně označují jako hlasové klonování nebo hlasová replikace. Někteří to drze označují jako hlas v plechovce.

Jsem si jistý, že někteří z vás právě teď nabádají, že už nějakou dobu máme možnost používat počítačové programy pro klonování hlasů. To samo o sobě není nic nového. Souhlasím. Zároveň musíme uznat, že tato špičková technologie je stále lepší a lepší. No, říkám stále lépe, ale možná, jak za chvíli uvidíte, bych měl říkat, že je to čím dál znepokojivější a znepokojivější.

Drž se té myšlenky.

Technologická zdatnost se při klonování hlasu jistě rozvíjí. Kdysi se například stávalo, že byste museli „trénovat“ program replikace zvuku AI tak, že byste vyslovovali celý příběh smíšených slov. Podobně jako ke slavné nebo nechvalně známé linii rychlé hnědé lišky, která přeskočila líného psa (linka určená k tomu, aby někdo pokryl všechna písmena abecedy), existují speciálně vytvořené povídky, které obsahují směs slov pro účely přimět vás k tomu, abyste řekli dostatek slov a dostatečně širokou škálu slov, aby bylo přiřazování vzorů AI mnohem snazší.

Možná jste museli přečíst několik stránek slov, často včetně slov, která se vám nedaří vyslovit a ani si nejste jisti, co znamenají, abyste dostatečně umožnili porovnávání vzorů AI. To může trvat mnoho minut nebo někdy i hodiny mluvení, aby umělá inteligence měla dostatek zvuku, který by mohla použít k nalezení odlišných vzorců vašeho hlasu. Pokud byste tuto tréninkovou aktivitu zkrátili, byla šance, že výslednou hlasovou replikaci snadno sestřelí všichni vaši přátelé, kteří dobře znají váš hlas.

Dobře, zájem vývojářů AI se tehdy soustředil na to, jak optimalizovat aspekty replikace zvuku. Tvůrci umělé inteligence mají rádi výzvy. Říká se, že jsou v jádru optimalizátory. Dejte jim problém a budou mít tendenci optimalizovat, bez ohledu na to, kam to může vést (uvádím to jako předzvěst, která bude brzy jasnější).

Odpověz mi na toto:

  • Jaké je nejmenší množství zvukového vzorku, které by bylo potřeba k maximálnímu naklonování hlasu osoby a pro které může být zvukovým vzorkem téměř jakákoli náhodně povolená sada slov, a přesto umožňuje klonování hlasu produkovat téměř jakákoli slova, která by mohla být kdy vyslovena? cíleným hlasem a zvukem v podstatě identickým s hlasem této osoby v konverzačním nebo jiném kontextuálním nastavení?

Je toho tam hodně k vybalení.

Mějte na paměti, že chcete minimální zvukový vzorek, který maximálně naklonuje hlas, takže výsledné promluvy umělé inteligence v tomto nyní automatizovaně replikovaném hlasu se budou zdát zcela nerozeznatelné od skutečné osoby. To je složitější, než si myslíte.

Je to skoro jako ta herní show, ve které se musíte pokusit pojmenovat skladbu na základě co nejmenšího počtu slyšených tónů. Čím méně zahraných not, tím těžší je uhodnout, o jakou skladbu se jedná. Pokud je váš odhad špatný, ztratíte body nebo prohrajete hru. Následuje boj o to, zda byste měli použít jen jednu notu, co nejmenší vodítko, ale pak se vaše pravděpodobnost uhodnutí skladby pravděpodobně výrazně sníží. Čím více tónů uslyšíte, tím vyšší je pravděpodobnost, že uhodnete správnou skladbu, ale umožňujete ostatním soutěžícím, aby také měli zvýšenou šanci uhodnout.

Pamatujte, že v případě klonování hlasu se také zabýváme pojmem předepsaných slov oproti jakýmkoliv slovům. Pokud člověk řekne slova „Nedokážeš si poradit s pravdou“ a my chceme, aby AI napodobovala nebo zosobňovala osobu, AI se pravděpodobně snadno chytí za vzor. Na druhou stranu předpokládejme, že máme tato slova pouze tak, jak je vyslovil onen člověk: „To je vše, na co se mě musíš zeptat“ a chceme tato slova použít k tomu, aby umělá inteligence řekla: „Nedokážeš si poradit s pravdou“. Myslím, že vidíte obtížnost trénování na jedné sadě slov a nutnosti extrapolace na úplně jinou sadu slov.

Dalším náročným prvkem je kontext pro mluvená slova. Předpokládejme, že vás přimějeme k audionahrávce věty, když jste klidní a v pohodě. AI vzoruje tato slova. Může se to také projevit na klidu vašeho hlasu. Představte si, že potom chceme, aby AI předstírala, že jste to vy, když křičíte šíleně a naštvaně jako sršeň. To, že umělá inteligence zkreslí původní vzorec, aby se z něj stala přesně rozhněvaná verze vašeho hlasu, může být skličující.

Na jaká minima se díváme?

Cílem je teď překonat hranici minut.

Popadněte nahraný hlas, pro který máte méně než minutu zvuku, a nechte umělou inteligenci, aby provedla veškeré úžasné klonování hlasu pouze z tohoto nepatrného vzorku. Chci objasnit, že téměř každý může vytvořit AI, která to dokáže obvykle za méně než jednu minutu, ačkoli výsledný hlasový klon je slabý a snadno detekován jako neúplný. Opět výslovně a neústupně spojuji, že doba vzorkování je minimální a mezitím je klonování hlasu na maximu. Dolt může dosáhnout minimálního vzorkování, pokud je také povoleno být hrubě submaximální při klonování hlasu.

Je to zábavná a vzrušující technologická výzva. Možná se ptáte, jaká je hodnota nebo výhody tohoto počínání. Jaký cíl hledáme? Jaké přínosy pro lidstvo můžeme očekávat, když budeme schopni tak efektivně a efektivně provádět hlasovou replikaci založenou na umělé inteligenci?

Chci, abyste se zamyslel nad tou masitou otázkou.

Špatná odpověď vás může dostat nechtěně do hromady kaše.

Tady je něco, co vypadá optimisticky a celkově pozitivně.

Předpokládejme, že bychom mohli mít staré nahrávky slavných lidí, jako je Abraham Lincoln, a mohli jsme tyto zaprášené zvukové úryvky použít k vytvoření hlasového klonu založeného na umělé inteligenci. Pak jsme slyšeli Lincolna mluvit Gettysburgskou řeč, jako bychom tam byli v den, kdy pronesl čtyři desítky a před sedmi lety nezapomenutelnou řeč. Jako okrajovou poznámku, bohužel, nemáme žádné zvukové nahrávky Lincolnova hlasu (tato technologie ještě neexistovala), ale máme hlasové nahrávky prezidenta Benjamina Harrisona (prvního z amerických prezidentů, kterému byl pořízen hlasový záznam ) a další prezidenti poté.

Věřím, že bychom se všichni pravděpodobně rozumně shodli, že toto konkrétní použití klonování hlasu založeného na umělé inteligenci je naprosto v pořádku. Ve skutečnosti bychom to pravděpodobně chtěli víc, než kdyby se dnes herec snažil předstírat, že mluví jako Lincoln. Herec by si pravděpodobně vymýšlel, jakkoli si mysleli, že Lincolnův skutečný hlas zní. Byl by to výmysl, možná na hony vzdálený Lincolnovu hlasu. Místo toho by díky použití dobře kvalifikovaného systému klonování hlasu AI bylo málo argumentů o tom, jak Lincolnův hlas skutečně zněl. Umělá inteligence by byla fakticky správná, alespoň do té míry, jak dobrá je umělá inteligence v replikaci cíleného hlasu.

V kategorii dobrot o klonování hlasu AI můžeme s tímto typem případu použití vyhrát.

Nechci být ponurý, ale i toto zjevně všestranné použití má svou nevýhodu.

Někdo používá systém klonování hlasu umělé inteligence, aby zjistil hlas Theodora Roosevelta („Teddyho“), našeho cenného 26th Prezident Spojených států, přírodovědec, ochránce přírody, státník, spisovatel, historik a téměř všeobecně označovaný za váženou osobu. Projevy, které přednesl a pro které nemáme žádné historicky dochované zvukové verze, by se nyní daly „vyslovit“ tak, jako by dnes mluvil on osobně. Chvályhodná vzpruha pro studium historie.

Pojďme to udělat ošklivě, jednoduše proto, abychom odhalili jeho stinné stránky.

Hlasový klon založený na Teddy AI používáme ke čtení řeči, kterou pronesl zlý diktátor. Umělá inteligence se nestará o to, co mluví, protože v AI není žádné zdání sentience. Slova jsou prostě slova, přesněji řečeno jen obláčky zvuku.

Můžete být zděšeni tím, že by někdo udělal něco takového podvodného charakteru. Proč by sakra měl být klonovaný hlas proslulého a uctívaného Theodora Roosevelta na bázi umělé inteligence použit k přednesení projevu, který nejenže Teddy původně nedělal, ale navíc mluví na téma, které zobrazuje nějaké zlo opovrženíhodného? diktátor?

Ohromné, můžete zvolat.

Snadno hotovo, přichází odpověď.

V podstatě je jedním z velmi důležitých obav ohledně replikace hlasu založeného na AI to, že se náhle ocitneme zaplaveni falešnými nebo řekněme hluboce falešnými projevy a výroky, které nemají nic společného s historickými fakty nebo přesnostmi. Pokud jich bude vytvořeno a vyhlášeno dost, mohli bychom být zmatení v tom, co je skutečnost a co je fikce.

Můžete vidět, jak to může vzniknout. Pomocí hlasového klonu založeného na umělé inteligenci někdo pořídí zvukovou nahrávku Woodrowa Wilsona pronášejícího projev, který ve skutečnosti nikdy nepronesl. Toto je zveřejněno na internetu. Někdo jiný slyší nahrávku a věří, že je to skutečná věc. Zveřejňují to jinde a zmiňují, že našli tuto skvělou historickou nahrávku Woodrowa Wilsona. Brzy studenti v hodinách dějepisu místo čtení písemné verze projevu používají zvuk.

Nikdo nakonec neví, zda řeč pronesl Woodrow Wilson nebo ne. Možná to tak bylo, možná ne, a každý si myslí, že na tom nezáleží (no, ty, které nejsou zaměřeny na historickou přesnost a fakta). Samozřejmě, pokud je řeč ošklivá, vyvolává to mylný dojem nebo dezinformační zobrazení této historické postavy. Historie a fikce jsou sloučeny v jedno.

Věřím, že jste doufejme přesvědčeni, že se jedná o nevýhodu spojenou s klonováním hlasu založeném na umělé inteligenci.

Opět můžeme tyto druhy věcí dělat bez novější a vylepšené replikace hlasu založeného na AI, ale bude snazší to udělat a výsledný zvuk bude extrémně těžké rozlišit mezi skutečným a falešným. V dnešní době pomocí konvenčních programů produkujících zvuk můžete obvykle poslouchat výstup a často snadno zjistit, že zvuk je falešný. S pokrokem v AI již brzy nebudete moci věřit svým uším, řečeno způsobem.

Jakkoli špatné může být klonování hlasu historických postav, musíme se zamyslet nad možná obzvláště hrozivými způsoby využití, které zahrnují dnešní živé lidi.

Za prvé, slyšeli jste někdy o poněkud populárním podvodu, který zahrnuje někoho, kdo se vydává za šéfa nebo jeho ekvivalent? Před několika lety se objevil znepokojivý výstřelek volání do restaurace nebo obchodu a předstírání, že jste šéf podniku. Falšování by znamenalo říkat zaměstnanci, aby dělal směšné věci, což by často poslušně dělal pod falešným přesvědčením, že mluví se svým šéfem.

Nechci se utápět v těchto rozhořčených nekalých činech, ale další relevantní je zavolat někomu, kdo by mohl být nedoslýchavý, a předstírat, že je jejich vnuk nebo vnučka. Imitátor se snaží prarodiče přesvědčit, aby poskytl peníze na pomoc nebo je možná nějakým způsobem zachránil. Na základě zosobněného hlasu je prarodič oklamán, aby tak učinil. Opovrženíhodný. Hanebný. Smutný.

Chystáme se vstoupit do éry, ve které klonování hlasu založené na umělé inteligenci umožní na steroidech, pokud jste byli, příchod podvodů a podvodů souvisejících s hlasem. Umělá inteligence odvede tak pozoruhodnou práci při replikaci hlasu, že kdokoli hlas uslyší, přísahá, že mluvila skutečná osoba.

Jak daleko to může zajít?

Někteří se obávají, že k uvolnění řekněme atomových zbraní a vojenským útokům by mohlo dojít tím, že by někdo použil hlasový klon založený na umělé inteligenci, který ostatní oklame, aby uvěřili, že nejvyšší vojenský důstojník vydává přímý příkaz. Totéž by se dalo říci o každém v jakémkoli významném postavení. Pomocí mimořádně přesného hlasového klonu umělé inteligence přimějte bankovního manažera k uvolnění milionů dolarů ve finančních prostředcích na základě toho, že jsou oklamáni, aby věřili, že mluví s bankovním klientem po ruce.

V minulých letech by to s AI nemuselo být nutně přesvědčivé. Ve chvíli, kdy se člověk na druhém konci telefonu začne ptát, AI se bude muset odchýlit od připraveného skriptu. V tom okamžiku by se klonování hlasu zhoršilo, někdy až radikálně. Jediným způsobem, jak udržet podvod v chodu, bylo vnutit konverzaci zpět do scénáře.

S typem umělé inteligence, který dnes máme, včetně pokroků ve zpracování přirozeného jazyka (NLP), můžete spustit skript a potenciálně se zdá, že hlasový klon umělé inteligence mluví přirozeným konverzačním způsobem (ne vždy tomu tak je, a stále existují způsoby, jak aktivovat AI).

Než se pustíme do dalšího masa a brambor o divokých a vlněných úvahách, které jsou základem klonování hlasu založeného na umělé inteligenci, pojďme si stanovit několik dalších základů pro hluboce zásadní témata. Musíme se krátce ponořit do etiky umělé inteligence a zejména do příchodu strojového učení (ML) a hlubokého učení (DL).

Možná si matně uvědomujete, že jeden z nejhlasitějších hlasů dnešní doby v oblasti umělé inteligence a dokonce i mimo ni spočívá v dožadování se většího zdání etické umělé inteligence. Pojďme se podívat na to, co znamená odkazovat se na etiku AI a etické AI. Kromě toho prozkoumáme, co mám na mysli, když mluvím o strojovém učení a hlubokém učení.

Jeden konkrétní segment nebo část etiky umělé inteligence, kterému se dostává velké pozornosti médií, se skládá z umělé inteligence, která vykazuje nepatřičné předsudky a nespravedlnosti. Možná si uvědomujete, že když začala nejnovější éra umělé inteligence, došlo k obrovskému výbuchu nadšení z toho, co někteří dnes nazývají AI pro dobro. Bohužel v patách toho tryskajícího vzrušení jsme začali být svědky AI pro špatné. Například bylo odhaleno, že různé systémy rozpoznávání obličeje založené na umělé inteligenci obsahují rasové a genderové předsudky, o kterých jsem mluvil na odkaz zde.

Snahy bránit se AI pro špatné aktivně probíhají. Kromě hlučného právní ve snaze omezit provinění na uzdě existuje také podstatný tlak na přijetí etiky umělé inteligence, aby se napravila odpornost umělé inteligence. Myšlenka je taková, že bychom měli přijmout a schválit klíčové etické principy umělé inteligence pro rozvoj a nasazení umělé inteligence, abychom podkopali AI pro špatné a současně ohlašovat a propagovat preferované AI pro dobro.

Pokud jde o související představu, jsem zastáncem pokusu o použití umělé inteligence jako součásti řešení problémů s umělou inteligencí a bojování ohně ohněm tímto způsobem myšlení. Mohli bychom například začlenit komponenty Etické umělé inteligence do systému umělé inteligence, který bude monitorovat, jak zbytek umělé inteligence dělá věci, a tak potenciálně v reálném čase zachytit jakékoli diskriminační snahy, viz moje diskuze na odkaz zde. Mohli bychom mít také samostatný systém AI, který funguje jako typ monitoru etiky AI. Systém umělé inteligence slouží jako dozorce, který sleduje a zjišťuje, kdy se jiná umělá inteligence dostává do neetické propasti (viz moje analýza takových schopností na odkaz zde).

Za chvíli se s vámi podělím o některé zastřešující principy, které jsou základem etiky umělé inteligence. Takových seznamů se tu a tam pohybuje spousta. Dalo by se říci, že zatím neexistuje jediný seznam univerzální přitažlivosti a souběžnosti. To je ta nešťastná zpráva. Dobrou zprávou je, že alespoň existují snadno dostupné seznamy etiky AI a bývají velmi podobné. Celkově to naznačuje, že formou odůvodněné konvergence svého druhu nacházíme cestu k obecné shodě toho, z čeho se skládá etika umělé inteligence.

Nejprve si stručně proberme některé z celkových etických zásad umělé inteligence, abychom ilustrovali, co by mělo být životně důležitým faktorem pro každého, kdo umělou inteligenci tvoří, využívá nebo používá.

Například, jak uvádí Vatikán v Řím vyzývá k etice umělé inteligence a jak jsem se podrobně věnoval odkaz zdeToto je jejich identifikovaných šest primárních etických principů AI:

  • Transparentnost: V zásadě musí být systémy umělé inteligence vysvětlitelné
  • zařazení: Potřeby všech lidských bytostí musí být brány v úvahu, aby každý mohl mít prospěch a všem jednotlivcům mohly být nabídnuty nejlepší možné podmínky k vyjádření a rozvoji.
  • Odpovědnost: Ti, kdo navrhují a nasazují použití AI, musí postupovat zodpovědně a transparentně
  • Nestrannost: Nevytvářejte ani nejednajte podle zaujatosti, a tím si zajistěte spravedlnost a lidskou důstojnost
  • Spolehlivost: Systémy umělé inteligence musí být schopny spolehlivě fungovat
  • Zabezpečení a soukromí: Systémy umělé inteligence musí fungovat bezpečně a respektovat soukromí uživatelů.

Jak uvedlo americké ministerstvo obrany (DoD) ve svém Etické zásady pro používání umělé inteligence a jak jsem se podrobně věnoval odkaz zde, toto je jejich šest primárních etických principů AI:

  • Odpovědný: Personál ministerstva obrany bude uplatňovat přiměřenou úroveň úsudku a péče, přičemž zůstane odpovědný za vývoj, nasazení a používání schopností AI.
  • Spravedlivý: Ministerstvo podnikne promyšlené kroky k minimalizaci nezamýšleného zkreslení schopností AI.
  • sledovatelné: Schopnosti AI ministerstva budou vyvinuty a rozmístěny tak, aby příslušní pracovníci měli odpovídající znalosti o technologii, vývojových procesech a provozních metodách použitelných pro schopnosti AI, včetně transparentních a auditovatelných metodologií, zdrojů dat a návrhových postupů a dokumentace.
  • Spolehlivý: Schopnosti umělé inteligence ministerstva budou mít explicitní, dobře definovaná použití a bezpečnost, zabezpečení a účinnost těchto schopností bude předmětem testování a zajištění v rámci těchto definovaných použití během celého životního cyklu.
  • ovladatelný: Ministerstvo navrhne a zkonstruuje schopnosti umělé inteligence tak, aby plnily zamýšlené funkce, přičemž bude mít schopnost detekovat a vyhnout se nezamýšleným následkům a schopnost odpojit nebo deaktivovat nasazené systémy, které vykazují nezamýšlené chování.

Diskutoval jsem také o různých kolektivních analýzách etických principů umělé inteligence, včetně toho, že jsem se zabýval souborem navrženým výzkumníky, kteří zkoumali a zhušťovali podstatu mnoha národních a mezinárodních zásad etiky umělé inteligence v dokumentu nazvaném „The Global Landscape Of AI Ethics Guidelines“ (publikováno v Příroda), a které mé pokrytí zkoumá na odkaz zde, což vedlo k tomuto klíčovému seznamu:

  • Průhlednost
  • Spravedlnost a férovost
  • Neškodlivost
  • Odpovědnost
  • Ochrana osobních údajů
  • Dobročinnost
  • Svoboda a autonomie
  • Věřte
  • udržitelnost
  • Důstojnost
  • Solidarita

Jak můžete přímo hádat, pokusit se určit specifika, která jsou základem těchto principů, může být extrémně obtížné. Snaha přeměnit tyto široké principy v něco zcela hmatatelného a dostatečně podrobného, ​​aby to bylo možné použít při vytváření systémů umělé inteligence, je navíc tvrdým oříškem. Celkově je snadné mávnout rukou nad tím, co jsou etická pravidla AI a jak by se měly obecně dodržovat, zatímco v kódování AI je mnohem složitější situace, kdy musí být opravdová guma, která splňuje silnici.

Principy AI etiky mají využívat vývojáři AI spolu s těmi, kteří řídí úsilí o vývoj AI, a dokonce i ti, kteří nakonec nasazují a provádějí údržbu systémů AI. Všechny zúčastněné strany během celého životního cyklu vývoje a používání AI jsou posuzovány v rámci dodržování zavedených norem etické AI. To je důležité upozornit, protože obvyklý předpoklad je, že „pouze kodéři“ nebo ti, kteří programují AI, podléhají dodržování etických pojmů AI. Jak již bylo řečeno, k vymýšlení a nasazení AI je zapotřebí vesnice a celá vesnice musí být zběhlá a dodržovat etická pravidla AI.

Pojďme se také ujistit, že jsme na stejné stránce ohledně povahy dnešní umělé inteligence.

Dnes neexistuje žádná AI, která by byla vnímavá. Tohle my nemáme. Nevíme, zda bude vnímající AI možná. Nikdo nemůže výstižně předpovědět, zda dosáhneme vnímající AI, ani zda se vnímající AI nějakým zázrakem spontánně objeví ve formě výpočetní kognitivní supernovy (obvykle označované jako singularita, viz moje pokrytí na odkaz zde).

Typ AI, na který se zaměřuji, se skládá z necítivé AI, kterou máme dnes. Pokud bychom chtěli divoce spekulovat o cítící AI, tato diskuse by se mohla ubírat radikálně jiným směrem. Vnímavá AI by měla mít lidské kvality. Měli byste vzít v úvahu, že vnímající AI je kognitivní ekvivalent člověka. A co víc, protože někteří spekulují, že bychom mohli mít superinteligentní AI, je možné, že by taková AI mohla být chytřejší než lidé.

Nechme věci více při zemi a uvažujme o dnešní výpočetní necítivé umělé inteligenci.

Uvědomte si, že dnešní umělá inteligence není schopna „myslet“ žádným způsobem na stejné úrovni jako lidské myšlení. Když komunikujete s Alexou nebo Siri, konverzační schopnosti se mohou zdát podobné lidským schopnostem, ale skutečnost je taková, že jsou výpočetní a postrádají lidské poznání. Nejnovější éra umělé inteligence široce využívá strojové učení (ML) a hluboké učení (DL), které využívají porovnávání výpočetních vzorů. To vedlo k systémům umělé inteligence, které vypadají jako lidské sklony. Mezitím dnes neexistuje žádná umělá inteligence, která by měla zdání zdravého rozumu, ani žádný z kognitivních zázraků robustního lidského myšlení.

ML/DL je forma porovnávání výpočetních vzorů. Obvyklý přístup je takový, že shromažďujete data o úloze rozhodování. Data vkládáte do počítačových modelů ML/DL. Tyto modely se snaží najít matematické vzorce. Po nalezení takových vzorů, pokud jsou nalezeny, systém umělé inteligence tyto vzory použije, když narazí na nová data. Po předložení nových dat se pro vykreslení aktuálního rozhodnutí použijí vzory založené na „starých“ nebo historických datech.

Myslím, že můžete hádat, kam to směřuje. Pokud lidé, kteří se rozhodovali podle vzoru, začlenili nežádoucí předsudky, je pravděpodobné, že data to odrážejí jemnými, ale významnými způsoby. Počítačové porovnávání vzorů Machine Learning nebo Deep Learning se jednoduše pokusí odpovídajícím způsobem matematicky napodobit data. Neexistuje žádné zdání zdravého rozumu nebo jiných vnímavých aspektů modelování vytvořeného umělou inteligencí jako takového.

Kromě toho si vývojáři AI nemusí uvědomit, co se děje. Tajemná matematika v ML/DL může ztížit odhalení nyní skrytých předsudků. Oprávněně byste doufali a očekávali, že vývojáři umělé inteligence budou testovat potenciálně pohřbené předsudky, i když je to složitější, než by se mohlo zdát. Existuje solidní šance, že i přes poměrně rozsáhlé testování, že v modelech porovnávání vzorů ML/DL budou stále zakomponovány zkreslení.

Dalo by se tak trochu použít slavné nebo nechvalně známé pořekadlo o smetí-do odpadu-ven. Jde o to, že je to spíše podobné předsudkům – in, které se zákeřně prolínají, když se předsudky ponoří do AI. Algoritmus rozhodování (ADM) umělé inteligence je axiomaticky zatížen nerovnostmi.

Špatný.

Vraťme se k našemu zaměření na hlasové klonování založené na umělé inteligenci.

Na nedávné konferenci měla prezentace Amazonu předvést žádoucí přednosti hlasového klonování založeného na umělé inteligenci a upozornit na nejnovější špičkovou umělou inteligenci používanou v Alexa pro rozvoj jejích schopností. Podle novinových zpráv připravený příklad, který měl být potěšující a pozitivní, spočíval v tom, že dítě požádalo Alexu, aby jim babička přečetla příběh Čaroděj ze země Oz. Divákům bylo řečeno, že babička zemřela a že to byl pro dítě prostředek k tomu, aby se v podstatě znovu spojilo se svým drahým prarodičem. To vše bylo zjevně součástí videa, které dal dohromady Amazon, aby pomohl předvést nejnovější průlomy v klonování hlasu AI od vývojového týmu Alexa (zahrnující funkce, které ještě nebyly formálně spuštěny pro veřejné použití).

Jednou z reakcí na tento příklad je, že se nás mohlo docela dotknout, že dítě opět slyší hlas své babičky. Pravděpodobně předpokládáme, že babička ještě nenahrála celou četbu příběhu, takže klonování umělé inteligence dělalo práci, aby věci vypadaly, jako by babička teď četla celou.

Pozoruhodný a úžasný způsob, jak se znovu spojit s milovanými, kteří již nejsou mezi námi.

Ne všichni reportéři a analytici (plus Twitter) byli tak nakloněni příznivému výkladu tohoto pokroku. Někteří to označili za přímo strašidelné. Pokusit se znovu vytvořit hlas zesnulého milovaného člověka byl prý zvláštní a poněkud bizarní podnik.

Otázky, jako např.

  • Bylo by dítě zmatené a věřilo, že zesnulý milovaný je stále naživu?
  • Mohlo by nyní být dítě svedeno do nějaké nepatřičné žerty nebo podvodu pod falešným přesvědčením, že babička je stále s námi?
  • Může dítě trpět slyšením o zesnulém milovaném člověku a být sklíčené a opět mu chybí prarodič, jako by otvíralo již zabydlené citové rány?
  • Bude si dítě myslet, že zesnulý může mluvit z druhé strany, totiž že k němu ze záhrobí promlouvá tento mystický hlas, který se jeví přesně jako jeho babička?
  • Je představitelné, že si dítě bude myslet, že AI nějak ztělesnila jeho babičku a antropomorfizovala AI tak, že dítě vyroste s vírou, že AI dokáže plně replikovat lidi?
  • Předpokládejme, že se dítě tak zamiluje do babiččina hlasu replikovaného umělou inteligencí, že se stane posedlým a použije hlas pro všechny způsoby poslechu zvuku?
  • Může se prodejce, který replikuje hlas, rozhodnout, že tento hlas použije pro ostatní, kteří používají stejný celkový systém, aniž by dostal výslovné povolení od rodiny, a tak „těžil“ z navrženého hlasu?
  • A tak dále.

Je důležité si uvědomit, že můžete vykouzlit právě tolik negativ jako pozitiv, nebo řekněme tolik pozitiv jako negativ. Za těmito pokroky AI jsou kompromisy. Dívat se jen na jednu stranu mince je možná krátkozraké.

Klíčem je ujistit se, že se díváme na všechny strany těchto problémů. Nenechte se zatemnit ve svém myšlení. Může být snadné zkoumat pouze pozitiva. Může být snadné prozkoumat pouze negativa. Musíme prozkoumat obojí a zjistit, co lze udělat, abychom, doufejme, využili pozitiva a snažili se snížit, odstranit nebo alespoň zmírnit negativa.

To je do určité míry důvod, proč je etika a etická umělá inteligence tak zásadním tématem. Předpisy etiky AI nás nutí zůstat ostražití. Technologové umělé inteligence mohou být občas zaneprázdněni technologií, zejména optimalizací špičkových technologií. Nezbytně nezvažují větší společenské důsledky. Mít etické myšlení v oblasti AI a dělat to nedílně pro vývoj a nasazení AI je zásadní pro vytváření vhodné AI.

Kromě používání etiky umělé inteligence existuje odpovídající otázka, zda bychom měli mít zákony, které by řídily různá použití umělé inteligence, jako jsou funkce klonování hlasu založené na umělé inteligenci. Na federální, státní a místní úrovni se šíří nové zákony, které se týkají rozsahu a povahy toho, jak by měla být umělá inteligence navržena. Snaha navrhnout a přijmout takové zákony je postupná. Etika umělé inteligence slouží přinejmenším jako zvažovaná překážka.

Jak již bylo řečeno, někteří tvrdí, že nepotřebujeme nové zákony, které se týkají umělé inteligence, a že naše stávající zákony jsou dostatečné. Ve skutečnosti varují, že pokud uzákoníme některé z těchto zákonů AI, zabijeme zlatou husu tím, že potlačíme pokroky v AI, které nabízejí obrovské společenské výhody. Viz například moje pokrytí na odkaz zde a odkaz zde.

Vsadil bych se, že v tomto okamžiku této závažné diskuse si přejete nějaké ilustrativní příklady, které by toto téma mohly předvést. Existuje speciální a jistě oblíbený soubor příkladů, které jsou mému srdci blízké. Víte, jako odborník na AI včetně etických a právních důsledků jsem často žádán, abych určil realistické příklady, které předvádějí dilemata etiky AI, aby bylo možné snáze pochopit poněkud teoretickou povahu tématu. Jednou z nejvíce sugestivních oblastí, která živě prezentuje tento etický problém umělé inteligence, je příchod skutečně samořídících vozů založených na umělé inteligenci. To poslouží jako praktický příklad použití nebo příklad pro rozsáhlou diskusi na dané téma.

Zde je pak pozoruhodná otázka, která stojí za zamyšlení: Osvětluje příchod skutečně samořídících aut na bázi umělé inteligence něco o klonování hlasu na základě umělé inteligence, a pokud ano, co to ukazuje?

Dovolte mi chvíli rozbalit otázku.

Za prvé, všimněte si, že ve skutečném samořídícím autě není žádný lidský řidič. Mějte na paměti, že skutečně samořídící auta jsou řízena systémem AI. Není potřeba, aby za volantem byl lidský řidič, ani neexistuje ustanovení, aby vozidlo řídil člověk. Pro mé rozsáhlé a průběžné pokrytí Autonomních vozidel (AV) a zejména samořiditelných vozů viz odkaz zde.

Rád bych dále objasnil, co je míněno, když mluvím o skutečných samořídících autech.

Porozumění úrovním samořídících automobilů

Pro upřesnění, skutečná samořídící auta jsou ta, kde AI řídí auto zcela samo a při řízení není žádná lidská pomoc.

Tato vozidla bez řidiče jsou považována za úroveň 4 a úroveň 5 (viz mé vysvětlení na adrese odkaz zde), zatímco vůz, který vyžaduje, aby se na řízení společně podílel lidský řidič, se obvykle považuje za úroveň 2 nebo úroveň 3. Vozy, které spolu sdílejí úkol řízení, jsou popsány jako semi-autonomní a obvykle obsahují různé automatizované doplňky, které se označují jako ADAS (Advanced Driver-Assistance Systems).

Na úrovni 5 ještě není skutečné auto s vlastním řízením a ještě ani nevíme, zda toho bude možné dosáhnout, ani jak dlouho bude trvat, než se tam dostaneme.

Mezitím se úsilí úrovně 4 postupně snaží získat určitou trakci tím, že podstupují velmi úzké a selektivní testy na veřejných komunikacích, ačkoli existuje spor o to, zda by toto testování mělo být povoleno jako takové (všichni jsme pokusnými pokusnými králíky na život a na smrt odehrávající se na našich dálnicích a vedlejších cestách, někteří tvrdí, viz moje zpravodajství na odkaz zde).

Protože poloautonomní auta vyžadují řidiče, přijetí těchto typů automobilů se nebude výrazně lišit od řízení konvenčních vozidel, takže o tomto tématu není samo o sobě nic nového (jak vidíte, uvidíte) za okamžik jsou obecně použitelné následující body).

U poloautonomních automobilů je důležité, aby veřejnost musela být upozorněna na znepokojující aspekt, který se objevuje v poslední době, a to navzdory těm lidským řidičům, kteří neustále vysílají videa, která usínají za volantem auta úrovně 2 nebo 3 , všichni se musíme vyhnout tomu, aby byli uvedeni v omyl v přesvědčení, že řidič může odvrátit jejich pozornost od úkolu řízení při řízení poloautonomního automobilu.

Jste odpovědnou stranou za řízení vozidla, bez ohledu na to, kolik automatizace může být hodeno do úrovně 2 nebo úrovně 3.

Samořídící auta a hlasové klonování založené na umělé inteligenci

U vozidel s vlastním řízením úrovně 4 a 5 nebude do řízení zapojen lidský řidič.

Všichni cestující budou cestující.

AI řídí.

Jedním z aspektů, které je třeba okamžitě projednat, je skutečnost, že umělá inteligence zapojená do dnešních řídicích systémů umělé inteligence není vnímavá. Jinými slovy, AI je celkově kolektiv počítačového programování a algoritmů a nejspíše není schopen uvažovat stejným způsobem jako lidé.

Proč je tento dodatečný důraz na to, aby AI nebyla vnímavá?

Protože chci zdůraznit, že při diskusi o roli řídícího systému AI nepřičítám AI lidské vlastnosti. Uvědomte si, že v dnešní době existuje trvalá a nebezpečná tendence k antropomorfizaci AI. V zásadě lidé dnešní AI připisují lidskou vnímavost, a to navzdory nepopiratelné a nepopiratelné skutečnosti, že taková AI dosud neexistuje.

S tímto vysvětlením si můžete představit, že systém řízení AI nebude nativně nějak „vědět“ o aspektech řízení. Řízení a vše, co to obnáší, bude muset být naprogramováno jako součást hardwaru a softwaru samořízeného automobilu.

Pojďme se ponořit do nesčetných aspektů, které na toto téma hrají.

Zaprvé je důležité si uvědomit, že ne všechna samořídící auta s umělou inteligencí jsou stejná. Každá automobilka a technologická firma s vlastním řízením přistupuje k navrhování samořídících vozů. Jako takové je obtížné činit rozsáhlá prohlášení o tom, co budou či nebudou dělat řídicí systémy AI.

Kromě toho, kdykoli uvedou, že řídící systém AI nedělá nějakou konkrétní věc, může to později předběhnout vývojáři, kteří ve skutečnosti naprogramují počítač, aby udělal právě tuto věc. Krok za krokem se postupně zdokonalují a rozšiřují systémy řízení AI. Stávající omezení dnes již nemusí existovat v budoucí iteraci nebo verzi systému.

Doufám, že to poskytuje dostatečnou litanii upozornění, která podpoří to, co se chystám vylíčit.

Pojďme si načrtnout scénář, který by mohl využít klonování hlasu založené na umělé inteligenci.

Rodič a jejich dítě nasednou do samořídícího auta založeného na umělé inteligenci. Jdou do místního obchodu s potravinami. Očekává se, že to bude relativně bezproblémová jízda. Stačí týdenní jízda do obchodu, i když řidič řídí systém AI a rodič nemusí nic řídit.

Pro rodiče je to velká výhoda. Namísto toho, aby se rodič musel soustředit na řízení a řízení, může místo toho věnovat svou pozornost svému dítěti. Mohou si spolu hrát v autonomním vozidle a trávit čas cenné povahy. Zatímco rodič by byl normálně řízením rozptylován a pravděpodobně by byl nervózní a napjatý při projíždění rušných ulic a jednání s jinými bláznivými řidiči v okolí, zde si rodič těchto obav blaženě neuvědomuje a pouze rozkošně komunikuje se svým drahým dítětem.

Rodič mluví s řídicím systémem AI a říká AI, aby je vzala do obchodu s potravinami. V typickém scénáři by umělá inteligence reagovala prostřednictvím neutrálního zvukového projevu, který můžete důvěrně slyšet prostřednictvím dnešních Alexa nebo Siri. AI může odpovědět prohlášením, že obchod s potravinami je vzdálený 15 minut jízdy. Umělá inteligence by navíc mohla uvést, že je samořídící auto vysadí úplně před obchodem.

To by mohla být jediná hlasová aktivita AI v takovém scénáři. Možná, že jakmile se samořídící auto přiblíží k obchodu s potravinami, AI možná řekne něco o přibližování cíle. Může se také objevit hlasová připomínka, abyste si při vystupování z autonomního vozidla vzali věci s sebou.

Vysvětlil jsem, že některé řídicí systémy AI budou takříkajíc upovídané kočky. Budou naprogramováni tak, aby plynuleji a nepřetržitě komunikovali s lidskými jezdci. Když nastoupíte do vozidla pro sdílenou jízdu, které řídí člověk, někdy chcete, aby řidič povídal. Kromě pozdravu můžete chtít, aby vám řekli o místních povětrnostních podmínkách, nebo možná poukázali na další místa v místní oblasti, která můžete vidět. Ne každý bude chtít upovídanou kočku, takže AI by měla být navržena tak, aby se zapojovala do dialogů pouze tehdy, když si to člověk vyžádá, viz moje zpravodajství na odkaz zde.

Nyní, když mám vše zavedené, pojďme věci změnit malým, ale významným způsobem.

Předstírejte, že řídicí systém AI má funkci klonování hlasu založenou na AI. Předpokládejme také, že rodič dříve nasadil klonování hlasu AI poskytnutím zvukového úryvku babičky dítěte. Překvapení, pomyslí si rodič, nechám systém řízení AI mluvit, jako by to byla zesnulá babička dítěte.

Během jízdy autem do obchodu s potravinami komunikuje systém AI s rodičem a dítětem a po celou dobu výhradně používá babiččin klonovaný hlas.

Co si o tom myslíš?

Strašidelné nebo příjemně zapamatovatelné?

Zvednu věci o stupeň výš. Připravit se. Připoutej se.

Někteří věří stejně jako já, že nakonec umožníme dětem, aby samy jezdily v samořízených autech založených na umělé inteligenci, viz moje analýza na odkaz zde.

V dnešních automobilech řízených lidmi musí být vždy přítomen dospělý, protože zákon vyžaduje, aby za volantem seděl dospělý řidič. Ze všech praktických důvodů nikdy nemůžete mít dítě v jedoucím autě, které je ve vozidle samo (ano, vím, že se to stává, jako například prominentní 10letý syn velké filmové hvězdy, který nedávno couval velmi drahé auto do jiného velmi drahého auta, ale každopádně to jsou rarity).

Dnešní rodiče by pravděpodobně usilovně protestovali proti tomu, aby umožnili svým dětem jet v samořídícím autě, ve kterém chybí dospělý, který slouží jako dozor nebo hlídá jejich děti. Vím, že se to zdá téměř nemožné si představit, ale vsadím se, že jakmile budou převládat samořídící auta, nevyhnutelně přijmeme myšlenku, že děti budou při jízdě v autě bez dospělých.

Zvažte faktor pohodlí.

Jste v práci a váš šéf vás pronásleduje, abyste dokončili nějaký úkol. Musíte vyzvednout své dítě ze školy a vzít je na trénink baseballu. Uvízli jste mezi kamenem a tvrdým místem, protože příliš usmiřujete svého šéfa nebo nevezmete své dítě na cvičiště. Nikdo jiný, koho znáte, není k dispozici, aby zajistil vašemu dítěti výtah. Pokud něco jiného, ​​určitě nechcete používat službu spolujízdy, která má lidského řidiče, protože byste se přirozeně obávali toho, co by ten cizí dospělý mohl říct nebo udělat, když vaše dítě sveze.

Žádný problém, žádný strach, stačí použít samořídící auto založené na umělé inteligenci. Na dálku nasměrujete samořídící auto, aby jelo vyzvednout vaše dítě. Prostřednictvím kamer samořídícího auta můžete vidět a sledovat, jak vaše dítě nastupuje do autonomního vozidla. Navíc jsou zde kamery nasměrované dovnitř a vy můžete své dítě sledovat po celou dobu jízdy. Zdá se to být stejně bezpečné, ne-li bezpečnější, než požádat cizího řidiče, aby zajistil odvoz vašeho dítěte. Jak již bylo řečeno, někteří se oprávněně obávají, že pokud se řízení nezdaří, máte dítě ponecháno samo pro sebe a není bezprostředně přítomen žádný dospělý, který by dítěti pomohl nebo ho vedl.

Ponecháme-li stranou četné výčitky, předpokládejme, že stejný rodič a dítě, které jsem popisoval v předchozím scénáři, jsou v pořádku, když dítě jezdí na vyjížďky bez přítomnosti rodiče. Jen se smiřte s tím, že toto je nakonec životaschopný scénář.

Tady je nakopávač finále.

Pokaždé, když dítě jede v samořídícím autě založeném na umělé inteligenci, je uvítáno a interaguje s umělou inteligencí, protože využívá klonování hlasu založeného na umělé inteligenci a replikuje hlas zesnulé babičky dítěte.

Co si myslíš o těch jablkách?

Když byl v samořídícím autě přítomen i rodič, možná bychom mohli omluvit použití hlasu AI, protože rodič je tam, aby dítěti poradil, co se děje, když mluví zvuk AI. Ale když rodič není přítomen, nyní předpokládáme, že dítě je s babiččinou hlasovou replikací idylicky v pořádku.

To je rozhodně jeden z těch okamžiků, kdy se můžete vážně zamyslet nad tím, zda je to pro dítě dobré nebo špatné.

Proč investovat do čističky vzduchu?

Udělejme malý myšlenkový experiment, abychom se zamysleli nad těmito závažnými záležitostmi.

Vymyslete prosím tři solidně pozitivní důvody, proč mít hlasové klonování založené na umělé inteligenci.

Počkám, až s nimi přijdeš.

Dále vymyslete tři solidně negativní důvodů, které podkopávají nástup hlasového klonování založeného na umělé inteligenci.

Předpokládám, že jste na nějaké přišli.

Uvědomuji si, že nepochybně můžete přijít s mnohem více důvody, než jen se třemi, které buď upřednostňují nebo znevýhodňují tuto technologii. Převažují z vašeho pohledu negativa nad pozitivy? Existují kritici, kteří tvrdí, že bychom na takové snahy měli dát kibosh.

Někteří se chtějí pokusit zablokovat firmám používání hlasového klonování založeného na umělé inteligenci, i když si uvědomují, že je to jedna z těch klasických průšvihů. Jakákoli firma, kterou přestanete používat, je pravděpodobné, že ji začne používat jiná firma. Zmrazit hodiny nebo zastrčit tento druh umělé inteligence bude téměř nemožné.

V poslední poznámce na toto téma si pro tuto chvíli představte, co by se mohlo stát, kdybychom jednoho dne dosáhli vnímající umělé inteligence. Neříkám, že se to stane. Každopádně můžeme spekulovat a uvidíme, kam to může vést.

Nejprve zvažte zasvěcený citát o mluvení a hlasu. Madeleine Albrightová řekla toto: „Trvalo mi docela dlouho, než jsem si vytvořila hlas, a teď, když ho mám, nebudu mlčet.

Pokud jsme schopni produkovat vnímající AI nebo nějak vzniká vnímavost, i když ji přímo nevyvoláváme, jaký hlas by tato AI měla mít? Předpokládejme, že dokáže využít své hlasové klonování založené na AI a ergo vytvořit jakýkoli hlas jakéhokoli člověka prostřednictvím nějakého malinkého úryvku zvukového vzorku, který by mohl být dostupný tak, jak je daný člověk vyslovil. Taková AI by pak mohla mluvit a oklamat vás, abyste uvěřili, že AI je zdánlivě tou osobou.

Pak znovu možná bude chtít AI mít svůj vlastní hlas a záměrně vymyslet hlas zcela odlišný od všech ostatních lidských hlasů, bude chtít být zvláštní svým okouzlujícím způsobem.

Proboha, tohle nechává člověka téměř beze slov.

Zdroj: https://www.forbes.com/sites/lanceeliot/2022/07/02/ai-ethics-starkly-questioning-human-voice-cloning-such-as-those-of-your-deceased-relatives- určené-pro-použití-in-ai-autonomní-systémy/