„Crash Course Elona Muska“ se letmo podívá na inženýrské a regulační selhání

Bez ohledu na to, jak chytrý nebo vizionářský se někdo může zdát být na povrchu, je důležité si uvědomit, že je to nakonec člověk a chybný. To, že se jim daří uspět v některých oblastech, neznamená, že totéž dokážou ve všem, o co se snaží. To je důvod, proč je nesmírně důležité, abyste lidi nepostavili na příliš vysoký podstavec, protože to bude bolet, když se zřítí. Nový dokumentární film zveřejněný New York Times
NYT
a nyní streamování na Hulu se pokouší podívat na snahy Elona Muska propagovat a prodávat automatizované řízení na Tesle
TSLA
vozidel, ale nedosahuje toho, co by mohlo být.

Při délce 74 minut, “Crash Course Elona Muska“ se snaží pokrýt hodně prostoru, ale nakonec se zdá, že některým tématům věnuje příliš mnoho času a některým nejdůležitějším málo. Režisérka Emma Schwartzová zahajuje film pohledem na počátky Tesly a snahy vyvinout automatizovaná vozidla, která sahá až k propagačnímu filmu GM z roku 1956 s konceptem Firebird II a DAR.
AR
Velká výzva PA.

Kde se však zdá, že se film nedaří, je trávit příliš mnoho času s Joshuou Brownem. Brown byl bývalý expert na likvidaci bomb námořnictva, který byl prvním známým úmrtím při používání asistenčního systému řidiče AutoPilot společnosti Tesla. Významné části filmu jsou dány k poslechu od některých Brownových přátel o tom, proč byl tak zamilovaný do AutoPilota, že na svém Modelu S najel více než 45,000 2016 mil za devět měsíců od uvedení AutoPilota do jeho smrti v květnu XNUMX.

Zatímco reportéři New York Times Neal Baudette a Cade Metz odvádějí zdatnou práci při vysvětlování některých omezení AutoPilotu, většina lidí, kteří by pravděpodobně měli sledovat film jako tento, má pravděpodobně malé nebo žádné technické znalosti o tom, jak funguje automatizované řízení. Tito členové široké veřejnosti by velmi těžili ze solidního základu, který odstraňuje mnoho mylných představ o automatizovaném řízení, z nichž mnohé byly v průběhu let vyhlášeny samotným generálním ředitelem Tesly Muskem.

Diváci by se mohli naučit několik důležitých lekcí o tom, co je vlastně potřeba k vytvoření, testování a ověřování automatizovaného vozidla, pokud by film obsahoval rozhovory s profesorem informatiky na Carnegie Mellon University Phillipem Koopmanem nebo advokátkou Jennifer Dukarski se sídlem v Ann Arbor. Místo toho dostáváme spoustu slov od přátel Browna, kteří vysvětlují, jak se zajímal o technologie a proč byl tak neústupný při testování limitů svého vozu.

Ke cti filmařů patří rozhovory s dvojicí bývalých inženýrů z týmu AutoPilot, členy Národní rady pro bezpečnost dopravy (NTSB) včetně bývalého předsedy Roberta Sumwalta a Bryana Thomase, bývalého ředitele komunikace Národního úřadu pro bezpečnost silničního provozu. (NHT
HT
SA).

Raven Jiang a JT Stukes uznali omezení AutoPilot. "Chtěli jsme se pokusit zajistit, aby byl AutoPilot bezpečný," řekl Jiang.

„V době té havárie jsem si byl vědom, že lidé důvěřují systému, že dělá věci, které nebyl navržen nebo schopen dělat,“ dodal Stukes. "Skutečnost, že se stala taková nehoda, je samozřejmě tragická, ale bylo to něco, co se mělo stát."

Jedním z důvodů, proč se to pravděpodobně stalo, je to, že se Tesla rozhodla jít nejprve s kamerou a nyní systémem pouze s kamerou. „Neproběhla žádná hluboká výzkumná fáze, kde by byla různá vozidla vybavena řadou senzorů, to by si mnoho členů týmu přálo, místo toho byl nejprve učiněn závěr a poté začaly testovací a vývojové aktivity, aby se potvrdilo, že je tento závěr správný.“

Za posledních 15 let Musk prosadil mnoho skvělých pokroků v raketové technice a popularizoval EV a softwarově definovaná vozidla. Ale pokud jde o systémy kritické z hlediska bezpečnosti, neexistují žádné zkratky. Když jsou v sázce životy, je odpovědností těch, kdo vytvářejí technologie, aby se náležitě starali. Když tak neučiní, jak to Musk opakovaně udělal s AutoPilotem a Full Self-Driving, je odpovědností bezpečnostních regulátorů, aby těmto lidem vládli.

V tom vidím největší slabinu tohoto filmu. NTSB má odpovědnost za vyšetřování dopravních nehod všeho druhu, včetně leteckých, železničních, námořních a pozemních vozidel. Po havárii Browna vydala NTSB mnoho vynikajících doporučení, včetně požadavku na robustnější monitorování řidičů u systémů, které stále vyžadují lidský dohled, jako je Tesla AutoPilot/FSD, GM Super Cruise a všechny ostatní systémy na dnešní silnici. NTSB také doporučila, aby systémy byly geograficky ohraničeny na silnicích, kde mohou bezpečně fungovat.

NHTSA je agentura, která má regulační a donucovací pravomoci v automobilovém průmyslu. Během šesti let od Brownovy smrti došlo k mnoha dalším smrtelným nehodám zahrnujícím zneužití AutoPilota, ale NHTSA neudělala vůbec nic pro implementaci jakýchkoli předpisů NTSB. Teprve za posledních 12 měsíců od změny administrativy ve Washingtonu NHTSA dokonce začala seriózně shromažďovat data na částečně automatizovaných systémech a je jen na koho domyslet, kdy se něco konkrétního udělá.

Film zcela upustí od zkoumání, proč NHTSA neudělala nic, aby zajistila, že částečné automatizační systémy jsou skutečně ověřeny jako bezpečné a účinné. Pokud něco, agentura umožnila společnosti Tesla pokračovat v prodeji technologie, která ve skutečnosti nefunguje, a propagovat ji více než kdy jindy. Abychom byli spravedliví, další vládní agentury, jako je Federal Trade Commission, by se také mohly snažit řešit alespoň marketingovou stránku tohoto problému, ale film se nezabývá selháním žádných vládních úředníků.

V kapitalistickém systému není vůbec neobvyklé, že se společnosti snaží získat co nejvíce toho, co mohou, v honbě za ziskem. Úkolem vlád je postavit zábradlí potřebná k ochraně veřejnosti před bezohlednými společnostmi. Úkolem novinářů je upozornit na všechna selhání v procesu, abychom si my jako obyvatelé mohli být vědomi a pohnat každého k odpovědnosti. Crash Course Elona Muska měl příležitost udělat s příběhem mnohem víc a upustil míč. Je třeba udělat více, abychom řekli pravdu o tom, co se děje se všemi stranami zúčastněnými v tomto tragickém příběhu.

Zdroj: https://www.forbes.com/sites/samabuelsamid/2022/05/23/elon-musks-crash-coursetakes-a-cursory-look-at-engineering-and-regulatory-failure/