Spor o to, zda Tesla FSD přejede dítě nebo figurínu dítěte, postrádá smysl

A poslední video od TeslyTSLA
– kritik Dan O'Dowd z „Projektu Dawn“ ukazuje testovací dráhu se silnicí vyrobenou z kuželů. Tam řidič používající prototyp FSD od Tesly jede směrem k dětské figuríně a narazí do ní. Tvrdí se, že Telsa FSD pro děti spolehlivě nebrzdí. Kritici O'Dowda tvrdili, že video bylo falešné nebo špatně vytvořené, a někteří vytvořili vlastní ukázky, včetně toho, že k neštěstí všech provedli test se skutečnými živými „dobrovolnými“ dětmi. Málokdo se zabýval otázkou, zda má prototyp jako Tesla FSD spolehlivě brzdit pro děti, což je skutečně zajímavá záležitost.

O'Dowd často psal, že chce zákaz Tesla FSD. Předtím jsem se věnoval jeho kampani, a nedávno se ucházel o nominaci do kalifornského Senátu výhradně kvůli reklamě na kampaň proti Tesle FSD. Přirozeně vyvolal hněv Elona Muska a vokální pro-Teslovou komunitu. Okamžitě tedy došlo ke sparingu. Původní video odkazované výše neukázalo aktivaci FSD, i když pozdější verze ukázaly, že ano. Někteří tvrdili, že špatně čitelné obrázky na obrazovce říkaly, že řidič drží pedál. Jiné údaje ukazují, že auto zpomaluje nebo vydává varování, a argumenty o tom, jak skutečná demonstrace je, se střídaly tam a zpět.

REKLAMA

Demonstrace byla vybrána jako provokativní, protože nic není děsivější než auta srážející děti. Každý den v USA zemřou 3 děti při autonehodách a každý rok je v automobilech zabito asi 170 dětských chodců. Pro mnohé je reakce taková, že žádná technologie, která by kdy přejela dítě, není přijatelná. NHTHT
SA zahájilo vyšetřování nasazení Tesla Autopilot (což je vydaný produkt) a začíná se zabývat prototypem FSD. Jiní, jako Ralph Nader, také volali, aby prototyp FSD stáhli ze silnice. Poté, co velmi malý počet lidí zopakoval test se skutečnými dětmi, NHTSA vydala varování, aby to nedělali, a Youtube stáhl videa lidí, kteří to dělali. Tesla údajně požádala, aby byla odstraněna také videa, na kterých jejich auto naráží do testovací figuríny. The Washington Post hlásí, že viděl dopis o zastavení a ukončení od Tesly.

Tato problematika je velmi složitá, a jak není příliš neobvyklé, nikdo ji přesně nechápe. Systém FSD, ačkoli se nazývá beta, se přesněji nazývá prototyp. Samořídící prototypy (a beta verze) potřebují podle názoru většiny vývojářů velké množství testů na silnici a každý tým to dělá, přičemž lidští „bezpečnostní řidiči“ monitorují systém a pravidelně zasahují, když udělá chyby, aby se předešlo incidentům. Tesla je neobvyklá v tom, že umožňuje běžným zákazníkům zapojit se do tohoto testování, zatímco všechny ostatní společnosti mají zaměstnance s určitou úrovní školení a běžně mají 2 zaměstnance na vozidlo.

Prototypy ze své podstaty selhávají, včetně důležitých věcí, jako je zastavení kvůli chodcům na silnici. Každý tým od nejlepších, jako je Waymo až po ty nejhorší, dal na silnice vozidla, která by kromě zásahu pravidelně dělala něco vážně špatného.a většina se domnívá, že testování těchto vozidel v rané fázi bylo a stále je nutné k dosažení pokroku a nakonec k nasazení vozů. Jakmile budou auta nasazena, budou mnohem kvalitnější a zachrání životy – spousty z nich –, takže každý chce, aby k nasazení došlo co nejdříve, ale existuje mnoho otázek, které je třeba prodiskutovat o tom, jak se k tomuto bodu dostaneme a kdy ho dosáhneme. to.

REKLAMA

Asistence řidiče vs. Samořízení

Kromě otázky, zda je použití zákazníků Tesla k testování jejich prototypu dobrý nápad, se mnoho problémů točí kolem rozdílu mezi asistenčními systémy řidiče, které zahrnují člověka plně zapojeného do řízení, ale dohlíží na systém, spíše než se fyzicky pohybuje. ovládací prvky a samořídící systémy, kde není potřeba žádný lidský dohled (a vozidlo skutečně nemůže jet, když v něm nikdo není).

Mnoho zasvěcenců z oboru se domnívá, že se jedná o dvě dosti odlišné věci a že pro NHTSA bylo chybou prohlásit je pouze za dvě různé „úrovně“ automatizační technologie. Sterling Anderson, spoluzakladatel společnosti Aurora self-driving, si myslí, že přechod od asistenta řidiče (nebo ADAS, pro pokročilého asistenta řidiče) k samořízení je jako snažit se dostat na Měsíc stavbou vyšších žebříků.

Prvním velkým pokročilým asistenčním systémem, který umožnil člověku sundat nohy z pedálů, byl tempomat, zejména adaptivní tempomat. Později se objevilo hlídání jízdních pruhů, které vám umožnilo sundat ruce z volantu, a brzy byly tyto dva zkombinovány v produktech, jako je Tesla „Autopilot“. Jako nástroje ADAS (driver assist) jsou určeny k použití s ​​plnou pozorností.

REKLAMA

I když tomu zpočátku ne všichni věřili, dnes je obecným závěrem, že tyto systémy fungují a nepředstavují nebezpečí na silnici. O základním tempomatu lidé zpočátku pochybovali, ale brzy se stal velmi běžnou součástí automobilů.

Tesla Autopilot vyvolal nové otázky z různých důvodů, ale nejzajímavější problém se točí kolem skutečnosti, že je jasně lepší ve funkčnosti než dřívější produkty, včetně jednodušších tempomatů – ale tato nadřazenost by ho ve skutečnosti mohla učinit nebezpečnějším, a tedy i méněcenným. Vzniká zvláštní paradox, kdy čím lepší systém je, tím horší může být výsledek, protože nadřazený systém vyvolává „spokojenost s automatizací“, kdy dohlížející řidič věnuje méně pozornosti vozovce. (Někteří se také domnívají, že Tesla's „Autopilot“ a názvy FSD podporují tuto samolibost a veřejné zprávy kolem těchto produktů to také podporují.)

To není dobrý paradox. Chceme vyvinout lepší systémy, ale pokud se systém celkově zhorší, když ho vylepšíte, je mnohem těžší získat opravdu dobré systémy, když cestujete údolím nebezpečí, kde se věci zhorší, než se zlepší. Dnes bychom nikdy neobviňovali standardní tempomat za to, že srazí dítě nebo proletí na červenou – tyto systémy byly mnohem jednodušší a neměly vůbec žádnou schopnost se těmto chybám vyhnout. Ale mnozí chtějí obviňovat mnohem lepší systém, který se zastaví u většiny překážek, protože se nezastaví na 100 % – i když žádný systém nikdy nebude tak dokonalý, aby se vyhnul 100 % chyb, a přestože lidé také nebudou dokonalí.

REKLAMA

Podílel jsem se na návrhu prvních zákonů o testování autonomních vozidel na světě, v Nevadě a Kalifornii. Hráči se shodli, že by měla existovat nějaká základní pravidla o tom, jak provádět testování na silnicích (předchozí pravidla to nezakazovala, protože to samozřejmě nikoho nenapadlo.) Zároveň automobilky, které prodávají nářadí ADAS, nechtěli, aby jejich vozy ADAS podléhaly zkušebním předpisům pro autonomní řízení, takže provoz ADAS byl vynesen tak, že se na něj tyto předpisy nevztahují.

Zejména v Kalifornii to vytvořilo otevřenou otázku. Všechny testy samořídícího vozidla (až na několik nedávných výjimek) jsou prováděny s dohlížejícím bezpečnostním řidičem. Tímto způsobem je to velmi podobné řízení vozu ADAS. Zákon nebyl v tomto rozlišení jasný, což vedlo k některým zajímavým situacím. Později byl šéfem Uberu Anthony Levandowski, který se také podílel na tvorbě předpisůUBER
ATG. Prohlásil, že protože všechna jejich auta v té době fungovala pouze s bezpečnostním řidičem, byl to ADAS a Uber se nemusel řídit pravidly pro testování autonomního řízení. Kalifornský DMV řekl ne, že podle této logiky nikdo netestoval samořízení, a to nebylo záměrem zákona. Řekli Uberu, že se musí zaregistrovat jako samořídící testovací vozidla, jinak by pomocí svých speciálních schopností vytáhli poznávací značky vozů Uber. Uber vyhověl.

REKLAMA

DMV zvolilo přístup, že pokud se snažíte vytvořit samořídící systém, i když to byl předčasně nekompletní systém, který vyžadoval dohled a byl vždy pod dohledem, měli byste být považováni za testovací společnost s vlastním řízením, která se řídí pravidly.

Navzdory tomu Tesla pokračuje ve stejném přístupu. Vzhledem k tomu, že Tesla rozhodně má produkt ADAS, nikdy státu nehlásí, že by dělali testy na autonomní jízdu. DMV to zatím nechalo uklouznout – dokonce i testování Tesla FSD zaměstnanci Tesly, které je velmi těžké odlišit od toho, co zastavili Uber. DMV to může dobře regulovat. Ale co zákaznické použití, kde je to oficiálně (pokud si přečtete drobné písmo a ignorujete název) asistenční nástroj pro řidiče?

Ale zdá se, že to funguje

Hlavním řešením byly způsoby, jak zajistit, aby pozornost dozoru zůstala vysoká. K tomu existují různé techniky, včetně sledování řidiče různými způsoby a otravování, pokud nedává pozor, nebo, jak je uvedeno, mít vyškolené profesionální řidiče nebo dokonce jejich tým s více očima na silnici. Po mnoho desetiletí jsme školili dospívající řidiče v autoškolách tím, že jsme měli instruktora, který umí uchopit volant a má vlastní brzdu, aby zastavil auto, a tento systém fungoval velmi dobře.

REKLAMA

Silný závěr zatím je, že to funguje. Bezpečnostní záznamy velkých společností s vlastním řízením, jako je Waymo, jsou příkladné. Společnost Waymo ohlásila v roce 20 více než 2021 milionů mil testů s bezpečnostními řidiči a za tu dobu měla možná 2 zaviněné nehody. Lidské bytosti budou mít v tomto časovém období v průměru téměř 40 nehod. Stejně jako si studenti autoškol s autoškoly vedou mnohem lépe než čerstvě certifikovaní řidiči, monitorovací systém jednoznačně funguje a tato vozidla ve skutečnosti představují pro veřejnost menší riziko, než by podobné řízení běžnými lidmi.

Přinejmenším v USA, pokud se nikdo nezraní – nebo alespoň pokud je míra rizika nižší než u běžného řízení – by činnost obecně nebyla regulována. Přístup USA je mnohem tolerantnější – nemusíte dokazovat, že to, co děláte, je bezpečné, ale pokud se ukáže, že to není bezpečné, můžete být zastaveni a shledáni odpovědnými za jakoukoli škodu, kterou jste způsobili. Některé další země by vyžadovaly, aby regulační orgány předem rozhodly, zda je něco bezpečné, což je mnohem vyšší laťka, která mnohem méně napomáhá inovacím.

Samozřejmě, v jednom slavném případě se přístup bezpečnostního řidiče stal osudným, když vozidlo Uber ATG zabilo chodce v Arizoně. Vyšetřování NTSB a pozdější soudní případy zjistily, že bezpečnostní řidič byl nedbalý (dívala se na televizi místo toho, aby dělala svou práci), ačkoli Uber byl také obviňován z toho, že má špatnou kulturu řízení svých bezpečnostních řidičů, což přispělo k této chybě. Důležitý závěr je však takový systém bezpečnostního řidiče funguje a sám o sobě nevystavuje veřejnost nepřiměřenému riziku, ačkoli je zjevně možné, že řidiči pro bezpečnost lidí budou nedbalí a způsobí vysoké riziko.

REKLAMA

To je systém s vyškolenými placenými řidiči. Tesla jde ještě dál a práci nechává dělat obyčejné zákazníky. Došlo k řadě incidentů, kdy řidiči Tesly zjevně zanedbali dohled nad produktem Autopilot a docházelo k haváriím, včetně smrtelných. Vozy Tesla však s Autopilotem najedou mnohem více kilometrů než jakýkoli tým s vlastním řízením, takže přítomnost negativních a dokonce tragických událostí nemusí nutně dokazovat, že systém vystavuje veřejnost většímu riziku.

Tesla každé čtvrtletí zveřejňuje zavádějící statistiky, které uvádějí, že řidiči používající Autopilota mají lepší bezpečnostní záznamy než ti, kteří jej nemají, i když někteří uživatelé Autopilota jsou nedbalí. I když se tato čísla rovná lži, Já a další jsme se pokusili reverzní inženýrství reálných čísel, a skutečná čísla nejsou tak špatná a naznačují, že uživatelé Autopilota mají podobný bezpečnostní záznam jako neuživatelé. I když není lepší, nevystavuje lidi dalšímu riziku. Výsledek je dostatečně blízko, že NHTSA provádí vyšetřování nehod Tesla se záchrannými vozidly. Není známo, zda zaujmou preventivní přístup nebo se podívají na celkový bezpečnostní záznam.

Mnozí navrhli, že by Tesla mohla zlepšit jejich rekord lepším sledováním řidičů. Standardní monitorování jednoduše vyžaduje, aby řidič pravidelně vyvíjel sílu na kolo. Jiné společnosti mají kamery, které sledují oči řidiče, aby se ujistily, že sledují silnici – kdyby to Uber ATG udělal, zabránily by jejich smrtelnému výsledku. Tesla nedávno začala používat také sledování pohledu řidiče.

REKLAMA

Je třeba poznamenat, že výpočet, který ukazuje bezpečnost Autopilota Tesla jako podobnou běžné jízdě, je utilitární. Je to vlastně kombinace vyšší nehodovosti mezi malým počtem nedbalých uživatelů Autopilota, kteří ignorují vozovku nebo se dostanou do samolibosti v automatizaci, a lepší bezpečnosti od těch, kteří jsou pilní. Máme s tím filozoficky těžké časy – neradi děláme u některých lidí vyšší riziko, i když více lidí má nižší riziko. Nelíbí se nám natolik, že bychom mohli připravit pilné lidi o nástroj, díky kterému budou bezpečnější chránit ty, kdo jsou nedbalí, ačkoli to není naším cílem.

A co FSD

Výše uvedené údaje se týkají Autopilota, což je přepravní produkt. Tesla FSD není přepravní produkt. Říkají tomu „beta“ (což je téměř dokončený produkt ve své poslední testovací fázi před vydáním), ale není tomu tak. Nyní to zkouší přes 100,000 15,000 majitelů Tesly. Aby jej mohl majitel používat, musí zaplatit poplatek (nyní stoupající na XNUMX XNUMX USD) za předobjednávku případného systému FSD a projít jakousi zkouškou bezpečné jízdy, aby mohl být přijat do testovací kohorty. Test bezpečné jízdy je z velké části falešný a netestuje, co byste pro tento úkol skutečně chtěli, ale znamená to, že ne každý, kdo zaplatí, to dostane.

Varují řidiče, že systém má mnoho chyb a potřebuje neustálý dohled, jako je ADAS, a říkají: "V nejhorší chvíli udělá špatnou věc." To je poměrně jasné tvrzení, ale zároveň název „full self driving“ zjevně vyvolává jiný obrázek než ADAS. Jezdil jsem s tímto systémem a posoudil jsem jeho výkon jako docela špatný jako samořídící systém.

REKLAMA

I tak se zdá, že navzdory opačným intuicím přístup Tesly funguje. Se 100,000 XNUMX řidiči prochází systém miliony kilometrů provozu (ačkoli neexistují žádná veřejná data o tom, jak moc každý řidič systém používá.) Víme také, že jakékoli nehody spojené s testováním FSD podléhají velké veřejné kontrole. systému a jen malý počet menších incidentů se dostal na veřejnost. Zatímco někteří testeři Tesla FSD jsou tak velkými fanoušky Tesly, že by mohli skrývat nehodu, kterou měli, je extrémně nepravděpodobné, že by došlo k významnému počtu velkých nehod, aniž by žádná nebyla odhalena. Jakékoli vážné nehody hlášené policií, zejména nehody se zraněním, by velmi pravděpodobně získaly pozornost, stejně jako u Autopilota.

A přesto je nevidíme. I když se nejedná o skutečnou vědeckou analýzu, zdá se pravděpodobné, že program FSD společnosti Tesla v současné době nevystavuje veřejnost riziku. To může být způsobeno tím, jak špatný je systém. Většina řidičů ví, že by bylo opravdu hloupé nevěnovat tomuto systému pozornost v jeho současném stavu. Je možné, že až se to zlepší, změní se to. Pokud vezmete v úvahu základní tempomat, který je mnohem primitivnější, funguje, protože nikdo by se při jeho používání neodvážil nevěnovat pozornost vozovce.

REKLAMA

Pojmenování Tesly

Tesla si nepomáhá svými názvy produktů. Mnozí kritizovali autopilot jako název, protože (falešná) veřejnost vnímá, že autopiloti letadel létají letadlem sami. Ve skutečnosti je autopilot letadla mnohem, mnohem jednodušší systém než autopilot Tesla a funguje jen proto, že ve vzduchu jste velmi daleko od čehokoli, do čeho byste mohli zasáhnout. To však nezastaví falešné veřejné mínění. S FSD je to ještě horší. Ještě to není na úrovni samořízení, ani zdaleka, a rozhodně není „plné“. Tento zmatek vedl Waymo k tomu, aby se vzdal používání termínu self-driving k popisu svého produktu, ze strachu, že Tesla tento termín v mysli veřejnosti špatně definovala.

Tesla opravdu nepotřebuje větší humbuk pro své produkty. Prodávají vše, co umí. Je zarážející, že záměrně používají tato jména, spíše než aby je podceňovali a převyšovali. Ušetřili by si spoustu smutku – jiného než typu „veškerá publicita je dobrá reklama“.

Je tedy v pořádku, když Tesla narazí na figurínu velikosti dítěte?

Překvapivá odpověď je „pravděpodobně“. Všechny testovací prototypové systémy budou dělat takové věci a kromě zákazu veškerého testování prototypů neexistuje způsob, jak vyžadovat dokonalost ani v tak sugestivním problému, jako jsou havárie s dětmi. Je těžké vytvořit regulační režim, který by zakázal Tesla FSD, který by zároveň nezakázal nebo nezpomalil vývoj velmi důležité technologie, která časem zachrání miliony životů. Miliony životů nejsou žádná maličkost, bude to jeden z největších pokroků v oblasti bezpečnosti v historii lidstva.

REKLAMA

Maximálně bychom se mohli pokusit definovat věci tak, aby ti, kdo na takové testovací systémy dohlížejí, splňovali určitá kritéria. Mohli bychom trvat na tom, aby měli lepší monitorování (což Tesla dělá). Mohli bychom je požádat, aby byli profesionálové nebo prošli testem, ale pak bychom vytvořili orgán, který tyto testy definuje a vynucuje, což by bylo těžkopádné. Instruktorem autoškoly se můžete stát pouze složením písemného testu a získáním potvrzení o dobrém zdravotním stavu, žádná živá zkouška dovednosti se nedělá.

Nicméně bychom mohli definovat sadu pravidel pro to, kdo může dohlížet na prototypový systém, a to by mohlo zastavit činnost Tesly. Udělat to by však znamenalo upadnout do paradoxu „čím je to lepší, tím víc se nám to nelíbí“. Nechceme ztěžovat překonání tohoto údolí, abychom se stali lepším systémem. Skutečná otázka je, proč bychom tam vůbec chtěli jít, když se nikomu nic nestalo. Momentálně nejsou žádné zprávy o tom, že by byli lidé zraněni, rozhodně ne na žádné úrovni, která by naznačovala, že existuje větší riziko než při běžném řízení. Nechceme spadnout do pasti zakazování věcí, protože máme intuici, že jsou nebezpečné. Chceme zakázat pouze věci, které jsou skutečně nebezpečné.

Je docela možné, že testování Tesla FSD později začne být příliš nebezpečné. K tomu může dojít z důvodu neuspokojivé automatizace nebo změn v systému. Je rozumné, aby Tesla byla požádána, aby úřadům nahlásila, kolik incidentů se odehrálo během testování systému, abychom mohli vědět, zda a kdy se stane nebezpečným. O'Dowdův přístup „měli bychom to zakázat, protože se mi to zdá nebezpečné“ je nesprávný, alespoň v USA.

REKLAMA

Přečtěte si a zanechte komentáře zde

Zdroj: https://www.forbes.com/sites/bradtempleton/2022/08/25/the-argument-over-what-tesla-fsd-will-run-over-a-child-or-dummy-child- míjí smysl/