V Tesle a dalších velkých technologických firmách nezpůsobují problémy stroje, ale předpoklady za nimi

Nové technologie vždy vyvolají nervózní nervy. V roce 370 př. n. l. přemítal Platón ve své knize Phaedrus že zvýšený „trend“ k psaní by muže přiměl ztratit veškerou svou zachovanou moudrost. V 1880. letech XNUMX. století se obávali, že elektrická tlačítka nás všechny způsobí ztrácíme tím naši kreativitu nechat tlačítko udělat úkol za nás. V naší generaci panuje hluboký strach, že jakékoli vystavení videohrám zhnije dětské mozky. Takové teorie se často nakonec ukážou jako mylné. Někdy se ale to, v co jsme možná doufali, že zůstane v oblasti sci-fi, stane realitou.

V posledních několika měsících jsme měli dvě velmi silná připomenutí o nebezpečích nespoutaného přijímání technologií. Naše nejhorší noční můry se staly skutečností a životy byly nenapravitelně poškozeny:

  • Během několika hodin poté, co vůdce Tesly Elon Musk na Twitteru propagoval svá samořídící auta, se Tesla v režimu samořízení rozhodla zastavit na straně Bay Bridge, 4proudé, rychle se pohybující dopravní tepny. způsobila nehodu 8 aut zranil 9 lidí včetně dvouletého dítěte. Toto je jedna ze stovek nehod, které byly způsobeny samořídícími systémy Tesly, což vede k 19 úmrtí od roku 2016.
  • Randall Reid byl na cestě na opožděnou večeři na Den díkůvzdání se svou matkou, když ho policie zastavila a poslala na týden do vězení. software pro porovnávání obličejů ho označil jako podezřelého v louisianském luxusním pouzdru na krádež peněženky. Jediný problém? Nikdy nevkročil do státu. Ale 28letý obyvatel Gruzie je Afroameričan a software pro rozpoznávání obličejů byl široce kritizován za svou neschopnost přesně rozlišovat mezi černými tvářemi.

"Řekli mi, že mám zatykač od Jeffersona Parishe." Řekl jsem: ‚Co je Jefferson Parish?'“ Reid poznamenala agentura AP. "Nikdy v životě jsem nebyl v Louisianě ani den." Pak mi řekli, že to bylo za krádež. Takže nejen že jsem nebyl v Louisianě, ale také nekradu.“

Možná ne na obranu Elona Muska, ale jako vysvětlení, často zaznamenal že jeho altruistickým cílem je v konečném důsledku snížit počet dopravních nehod a úmrtí tím, že auta budou chytřejší než lidé. A že aby byla ta auta chytřejší, možná se budou muset pohnout rychle (doslova) a rozbít některé věci (také doslova) na skutečných silnicích.

To je místo, kde by se člověk mohl sladit se svými cíli – bezpečnějšími cestami – ale zpochybnit jeho metody – experimentování s lidmi. Přešli jsme od testování léků na lidech – v případě bez jejich souhlasu Nacistické Německo a Tuskegee „studie“ – pro krysy, které nemohou souhlasit – s průmyslovými odvětvími, jako je kosmetika, která se učí, jak testovat produkty bez nákladů na životy, lidské, zvířecí nebo jiné. Lze technologii testovat, aniž by to poškodilo lidi? Zde se my – a vládní regulační orgány – můžeme rozhodnout, jakým druhům experimentů jsme ochotni podrobit naše občany.

A pak v případě umělé inteligence byla vyjádřena důvodná obava, že v kontextu technologických týmů, kterým obecně chybí rozmanitost našeho globálního světa, kde přes 85 % lidí žijí v Asii, Africe a Latinské Americe, tam je možnost významného poškození lze provést, pokud technologie nedokážou do svých návrhů začlenit rozmanitost. Lidé jako Timnit Gebru s Černá v AI dělají tvrdou práci ve snaze udržet lidi za stroji k odpovědnosti, ale mají čelil spoustě protivětru vzhledem k ekonomickým silám, které ovládají velkou část tohoto výzkumu.

Pokud odmítneme samořídící auta, nemusíme se vracet ke koním a kočárkům. To, co MŮŽEME udělat, je obhájce nového technologického motta pro příští desetiletí: „Pohybuj se pomalu a méně se lámej.“

Podobně Hermant Tenaja napsal v Harvard Business Review„Minimálně životaschopné produkty“ musí být nahrazeny „minimálně ctnostnými produkty“ – novými nabídkami, které testují účinek na zúčastněné strany a zabudovávají ochranu proti potenciálním škodám.“ Nabízí osm otázek, které si dnešní tech podnikatelé musí položit, včetně:

  • Jakou systémovou, společenskou změnu chcete svým produktem vytvořit?
  • Jak udržíte ctnost svého produktu?
  • Jaký je váš rámec pro zodpovědné využívání dat a umělé inteligence?
  • Jak definujete a podporujete diverzitu v kontextu vašeho podnikání?

Podnikatelé mohou tyto otázky u svých produktů reflektovat. A pak pro spotřebitele, než se obrátíte na nejnovější, nejlepší službu generující avatary, může být moudré si dvakrát rozmyslet, jak by se vám to mohlo vrátit. Nemusíme technologii ignorovat – ale možná se můžeme naučit být mnohem uvědomělejšími spotřebiteli technologií.

Zdroj: https://www.forbes.com/sites/morgansimon/2023/02/13/at-tesla-and-other-big-tech-firms-its-not-the-machines-but-the-assumptions- za nimi-způsobující-problémy/