Cruise si po havárii „odvolá“ robotickou osu, ale přivolání je špatný mechanismus

V červnu měla jednotka „Cruise“ společnosti General Motor, která provozuje bezpilotní robotickou osu v noci v San Franciscu a která se chystá rozšířit službu, nehodu s lehkým zraněním, když zastavila uprostřed levotočivé zatáčky, a rychlým protijedoucím vozem. udeř to na stranu. To je zajímavé jak z hlediska toho, co se při nehodě pokazilo, ale také z hlediska způsobu, jakým byla oprava softwaru na žádost Národní agentury pro bezpečnost silničního provozu nazvána „Stažení z trhu“.

Cruise tento týden oznámil, že budou rozšiřuje své služby v San Franciscu a také otevírá Phoenix a Austin do konce roku 2022.

Je pravděpodobné, že se jedná o první nehodu, při které nebyl žádný bezpečnostní řidič, došlo k nějaké chybě v systému řízení a zranění třetích osob (cestujících i těch ve druhém vozidle). Nedávno byly o události odhaleny nové podrobnosti.

O nehodě

Cruiseovo vozidlo udělalo chybu, ale podle Cruise bylo zjištěno, že druhé vozidlo je „nejvíc na vině“, protože jelo 40 v zóně 25 a protože se přibližovalo v pravém odbočovacím pruhu, ale místo aby odbočovalo vpravo se přeřadil do průjezdního pruhu a křižovatkou projel v rychlosti. Některé podrobnosti lze nalézt v Zpráva CA DMV. Nebyly vydány žádné citace, ale událost může být stále v šetření.

Rekonstrukce události naznačují, že Cruise car doufal, že udělá levou zatáčku – slavnou „nechráněnou levou stranu“, kterou mnoho týmů našlo jako výzvu. Prius se blížil v pruhu, který vyžaduje odbočení doleva, s výjimkou autobusů a taxíků, a Cruise car předpokládal, že auto skutečně zahne doprava a že může zatočit jako první, než se tam Prius dostane. Prius nebyl taxíkem, ale není známo, zda si tím byl Cruise jistý, nebo na tom založil rozhodnutí. Zdá se pravděpodobné, že Cruise předpověděl, že auto zpomalí, takže mu ponechal čas na zatáčku a začal zatáčet.

Prius nezpomalil, takže Cruiseův predikční motor usoudil, že pokud bude Cruise pokračovat v zatáčce a rychlý Prius také zatočí, Prius do Cruise narazí. Cruise tedy udělal to, co považoval za konzervativní správnou věc, což bylo tvrdé zastavení na křižovatce, což by Priusu umožnilo udělat to správně.

Prius to neudělal. Ve skutečnosti se přesunula zpět do průjezdního pruhu a pokračovala do křižovatky. Dalo by se předpokládat, že měl vždy v úmyslu jet rovně a teď se možná snažil vyhnout autu, které zastavilo na křižovatce. Neudělalo to a narazilo do zadní části vozu Cruise a způsobilo lehká zranění v obou autech.

Cruise přiznal, že jejich software v a podání u NHTSA, ačkoli vinit nehodu na Prius pro jeho vysokou rychlost a je ve špatném pruhu. Cruise Bolt mohl nehodě zabránit buď tím, že nezastavil a nedokončil zatáčku, nebo se vůbec nepokusil zatočit. Většina robocarů je konzervativní a není tak úplně připravena vyhýbat se nehodám zrychlením, protože to může vést k dalším problémům.

Cruise odmítl odpovědět na většinu otázek o této události nad rámec toho, co je v jejich podání. Jak se uvádí v podání, auto bylo v „autonomním režimu bez řidiče“ a plavba potvrzuje, že na palubě nebyl žádný bezpečnostní řidič. Policejní zprávy říkají, že v zadní části Boltu byli 3 pasažéři (jeli zdarma) a jeden byl krátce do nemocnice s lehkým zraněním. V Priusu byli dva, kteří byli na místě ošetřeni. Protože se tento cestující neozval tisku, je možné, že Cruise této osobě nabídl pobídky, aby tak neučinila. Cruise nevyžaduje od jezdců NDA.

Cruise uvedl, že tento problém je velmi vzácný a stalo se to pouze jednou za více než 120,000 3 nechráněných levých zatáček. (Ale viz níže, abyste zjistili, zda je to dobré.) O XNUMX dny později vydali aktualizaci softwaru, o které se domnívají, že problém řeší. Přiznávají, že je jejich povinností udělat víc, aby se vyhnuli srážce, i když se ostatní účastníci silničního provozu chovají špatně, a to je dobrá filozofie. Většina samořiditelných týmů se snaží v simulátoru vytvářet situace s nevyzpytatelnými ostatními řidiči a snaží se najít všechny možné varianty. Tato situace je nyní jistě v Cruiseově simulátoru a také v simulátorech všech ostatních velkých týmů, které čtou zprávy, pokud je ještě neměly.

O Recall

Je zvláštní, že Cruise popsal tuto konkrétní aktualizaci softwaru jako „stažení“ a podal skutečné oznámení o stažení u NHTSA. Cruise a všechny ostatní týmy neustále provádějí aktualizace softwaru, aby opravily problémy, i když je samozřejmě velmi vzácné opravit problém, který způsobil nehodu – naštěstí. Neprovádějí to prostřednictvím mechanismu odvolání. Mechanismus odvolání se zdá být špatný z mnoha důvodů:

  1. Cruise ve skutečnosti nesvolával vozidla, tzn. požádejte je, aby byly vráceny do servisního střediska k opravě. Použil pouze svůj pravidelný proces aktualizace softwaru vzduchem.
  2. GM/Cruise tato vozidla nikdy neprodávala, vlastní a provozuje je, takže je ve skutečnosti nelze stáhnout od zákazníka.
  3. Proces stažení je obtížný a byrokratický a rozhodně jej nelze použít pro každou aktualizaci softwaru, dokonce ani pro aktualizace, které řeší bezpečnostní problém. Téměř všechny aktualizace softwaru opravují nějaký bezpečnostní problém nebo jiný, ale ne ten, který skutečně způsobil (spíše než mohl způsobit) selhání.

Dává smysl, aby byly tyto nehody a jejich opravy hlášeny, a skutečně byla tato nehoda hlášena kalifornskému DMV, policii a NHTSA dlouho před stažením. NHTSA požádala nebo přijala stažení některých dalších softwarových změn a musí tento proces zrevidovat a zefektivnit. Zatímco NHTSA má pravomoc regulovat bezpečnost automobilů prodávaných v USA, je méně jasné, jakou pravomoc mají nad vozy, které se neprodávají. Stojí za zmínku, že jen den před touto nehodou bylo společnosti Cruise uděleno povolení – ale ještě nezačalo – prodávat jízdy ve svých autech a mohlo by mít smysl regulovat auta, ve kterých se prodávají jízdy (i když to může být spíše státní záležitost, pokud nepřekračují státní hranice.)

Dříve, když měl Pony.AI nehodu v jednom z jejich bezpilotních vozidel, DMV jim stáhlo povolení k provozu v tomto stavu. V případě Ponyho se jednalo o sólo autonehodu, jednoznačně vinou jejich vozidla. Různé okolnosti mohly mít za následek různé jednání nebo nečinnost DMV.

Nehody robotů jsou různé

Tato havárie nám říká něco o odlišném vzoru nehod v robocarech. První reakce ukazují, že Cruise může být méně vyspělý, než je žádoucí. Waymo měl nehodu, kde to byla chyba, v roce 2016, 7 let po jejich projektu, i když bez zranění. Od té doby měli velmi málo, i když teprve nedávno jezdili těžkou jízdou na území, jako je San Francisco. Cruise měl v poslední době spoustu trapných chyb, včetně neobvyklého policejního zastavení, zastavení skupin aut kvůli komunikační chybě serveru, incidentu s hasičským autem, stížností na vyzvedávání/odvoz uprostřed ulice a zmrazení na začátku jízdy pro reportéra Today Show. To je víc, než o čem jsme slyšeli u Waymo a dalších, a jako takoví doufáme, že to jsou jen bolesti zubů. Každý tým bude mít snafus a ve skutečnosti každý tým bude mít pády a záleží na tom, jak často k nim dochází.

Cruise 12. září uvedl, že v San Franciscu provedli asi 300,000 250,000 mil servisu robotaxi bez bezpečnostního řidiče a v červnu by udělali méně. To není skvělé, protože lidští řidiči mívají zranění na každých milion kilometrů jízdy. Zatímco Cruise může být posouzen jako méně chybný než řidič Priusu, není to tak dobrý rekord, jak bychom si přáli. (Nehoda po, řekněme 4 4 mil, neznamená, že neujedou milion mil před další, ale není to skvělé znamení.) Na druhou stranu, obecně najezdili XNUMX miliony mil (s bezpečnostními řidiči Protože bezpečnostní řidiči zasahovali s jakýmikoli problémy během XNUMX milionů mil, nevíme, jaká byla skutečná nehodovost pro tento systém – což byl také starší a podřadný systém ve srovnání s nejnovějším. je dobře, že TeslaTSLA
uvádí, že jeho zákazníci bezpečně najeli 30 milionů mil s velmi nekvalitní Tesla FSD a neobjevily se žádné zprávy o žádné vážné nehodě, zejména zranění.

Jedinečný aspekt robotů byl však zmíněn výše. Cruise tento problém vyřešil za 3 dny a už se to nebude opakovat, alespoň ne tímto způsobem. Ostatní firmy si to nejspíš daly do svých simulátorů a ani jim se to nestane. Společnosti budují rozsáhlé knihovny simulačních scénářů (a dokonce, v projektu, který jsem pomáhal iniciovat, s nimi obchodují.) Když to dělají, mají algoritmy pro „fuzz“ scénáře, což znamená ladění všech parametrů různými způsoby. Zkusí to s druhým vozem při různých rychlostech nebo při změně jízdního pruhu v různých časech. Zkusí to s Cruise car působit jinak. Vyzkouší to s chodci, kteří na křižovatce dělají různé věci, aby otestovali, že v tisících variantách nenastává žádný problém.

Tohle není jako u lidí. Pokud měl člověk takovou nehodu – a to se děje –, lekce této osoby nikoho z ostatních nenaučí. V nejlepším případě by město časem mohlo zlepšit pravidla pro jízdní pruhy nebo rychlost, ale to si vyžádá mnoho incidentů. Ať už roboti dělají jakékoli chyby, obecně se budou jen zlepšovat.

Lidé se zhoršují. Zatímco většina lidí očekává, že mladí řidiči jsou nejdivočejší a mají nejvíce nehod, nejvíce se zabíjejí řidiči ve věku 80 let – graf má tragický tvar „U“. Částečně je to proto, že starší řidiči jsou křehčí, ale také se zjistilo, že se stávají více nehodami, jak se jejich schopnosti zmenšují. Zejména, a to je bizarní, se kvůli situacím, jako je tato v nechráněných levotočivých zatáčkách, stávají více nehodami, kdy je srazí auto, než auto, které srazí, i když je to stále jejich chyba. Roboti by měli být vynikající v posuzování fyziky těchto situací, ale Cruiseův systém dělal příliš mnoho předpokladů.

Toto je také klasický příklad problému predikce. Zatímco ve světě robocarů neustále mluvíme o senzorech, snímání není cílem, je to prostředek ke skutečnému cíli, kterým je předpověď. Nezáleží na tom, kde všechno je nyní, důležité je, kde to bude v blízké budoucnosti. Cruise špatně odhadl, kam by se Prius mohl vydat, a také co s tím dělat, když se situace změní. Mám podezření, že Cruiseovo auto není naprogramováno tak, aby dělalo věci, jako je závod vpřed, aby se vyhnul nehodě, nebo dokonce aby couval. Nemáme údaje o tom, zda za Cruise Boltem bylo auto, ale jedna věc, kterou roboti dělají, je, že se dívají na všechny strany najednou, a pokud by bylo za nimi jasně, mohlo auto jednat mnohem rychleji než člověk, který by musím zkontrolovat zrcátko a dostat se k řazení. Elektromobil a zrychlení velmi rychle a včas, robotická EV by měla být velmi hbitá při vyhýbání se nehodám – pokud se odváží.

Říkám, jestli se odváží, protože většina společností je velmi konzervativní. Nechtějí dělat náhlé pohyby, které by mohly situaci zhoršit, a to ani při 360stupňovém vidění. Zejména mnoho náhlých pohybů tohoto druhu je technicky nezákonných a nechtějí úmyslně porušovat zákon, zvláště pokud by se mohl pokazit. Například chodci mohou kdykoli vyjít zpoza věcí překvapením. Pokud před vámi skočí, není to vaše chyba, ale pokud jste na chodníku, abyste se vyhnuli nehodě, je to jiný příběh. (Ne, auta se nikdy nebudou pokoušet vybrat si, koho udeří, když si budou muset vybrat mezi dvěma lidmi, to je běžný mýtus a otravná otázka, ne něco, co se skutečně stane.)

Časem by se roboti měli v této situaci zlepšit než lidé. Zlepší se v předpovídání rozsahu věcí, které udělají jiná auta. Auto mělo neustále říkat: „Co budu dělat, když ten chlap nezatočí, jak vyžadují pravidla“ a ujistit se, že je možné podniknout nějakou akci – včetně zrychlení v zatáčce nebo couvání. Pokud neexistuje žádná akce, která by mohla fungovat, a riziko má dostatečně vysokou pravděpodobnost, auto by počkalo, ale v ideálním případě dojde k možné akci. Je nutné tolerovat určité riziko nehody, když ostatní jednají nevyzpytatelně. Defenzivní jízda je dobrá, ale zcela defenzivní řidič bude blokovat silnice opatrně, čímž se problém nevyřeší.

Číst / zanechat komentáře zde

Zdroj: https://www.forbes.com/sites/bradtempleton/2022/09/14/cruise-recalls-robotataxis-after-crash-but-the-recall-is-the-wrong-mechanism/