Logo mybusinessculture.com

Feds Sagen, Tesla Autopilot Sei Teilweise Für Einen Absturz Im Jahr Verantwortlich

Feds Sagen, Tesla Autopilot Sei Teilweise Für Einen Absturz Im Jahr Verantwortlich
Feds Sagen, Tesla Autopilot Sei Teilweise Für Einen Absturz Im Jahr Verantwortlich
Anonim

Das Design der Autopilot-Funktion von Tesla trug zu einem Unfall im Januar 2018 bei, bei dem eine Limousine des Typs S in Südkalifornien in die Ladefläche eines Feuerwehrwagens prallte. Es ist das zweite Mal, dass das National Transportation Safety Board Tesla für einen Absturz mit der halbautomatisierten Funktion verantwortlich macht. Nach Angaben des Bundesrates werden außerdem zwei weitere Autopilot-Abstürze untersucht.

Bei dem Unfall im Jahr 2018 wurde niemand verletzt, doch die Ermittler stellten fest, dass der Fahrer etwa 14 Minuten vor dem Unfall den Autopiloten eingeschaltet und die letzten 13 Minuten nicht aktiv gelenkt hatte. Die Ermittler sagten, dass die Unaufmerksamkeit des Fahrers und das übermäßige Vertrauen in Autopilot wahrscheinliche Ursachen des Absturzes seien. Während dieser letzten 14 Minuten warnte das Auto den Fahrer, viermal Druck auf das Lenkrad auszuüben, aber er übte ungefähr vier Minuten vor dem Unfall keinen Druck aus, stellten die Ermittler fest.

Die Ermittler sagten, die Verwendung des Autopiloten durch den Fahrer widerspreche den Anweisungen von Tesla. Der Fahrer sagte, er habe von einem Tesla-Verkäufer gelernt, wie man mit Autopilot umgeht, habe aber nicht die Bedienungsanleitung gelesen, in der genau angegeben ist, wann und wo er Autopilot verwenden soll.

Möchten Sie die neuesten Nachrichten über selbstfahrende Autos in Ihrem Posteingang erhalten? Hier anmelden!

Der Vorfall unterstreicht, was Branchenwächter und sogar Tesla selbst zuvor gesagt haben: Autopilot ist keine selbstfahrende Technologie. Es erfordert die Aufmerksamkeit des Fahrers, auch wenn die Straße wie sanftes Segeln aussieht.

Die Ermittler scheinen jedoch auch zu glauben, dass Tesla nicht genug tut, um Autopilot sicher zu machen. In seinem Bericht hob der NTSB eine Empfehlung nach einem weiteren Unfall des Autopiloten hervor, bei dem 2016 ein Fahrer aus Florida ums Leben kam. Das Gremium forderte die Autohersteller auf, „Anwendungen zu entwickeln, mit denen das Engagement des Fahrers besser erfasst und der Fahrer benachrichtigt wird, wenn kein Engagement besteht“Tesla hat die Funktionsweise des Autopiloten geändert, sodass der Fahrer bei aktivierter Funktion häufiger Druck auf das Lenkrad ausüben muss. Aber das NTSB scheint zu glauben, dass es nicht genug ist.

"Täuschen Sie mich einmal Schande über Sie; täusche mich zweimal, schäme mich. Machen Sie mir vier, fünf oder sechs Mal etwas vor - das ist zu viel “, sagt David Friedman, ehemaliger amtierender Leiter der National Highway Traffic Safety Administration und jetzt Director of Advocacy bei Consumer Reports. "Wenn Tesla Autopilot nicht repariert, sollte [die Bundesregierung] dies für sie tun." (Die NTSB kann nur Sicherheitsverbesserungen empfehlen; die NHTSA kann Vorschriften erlassen.)

Tesla sagte in einer Erklärung, dass „Tesla-Fahrer bei eingeschaltetem Autopilot Milliarden von Kilometern gefahren sind, und Daten aus unserem vierteljährlichen Fahrzeugsicherheitsbericht zeigen, dass Fahrer, die Autopilot verwenden, sicherer sind als diejenigen, die ohne Unterstützung arbeiten. Unser Fahrerüberwachungssystem für Autopilot erinnert die Fahrer wiederholt an ihre Verantwortung, aufmerksam zu bleiben, und verbietet die Verwendung von Autopilot, wenn Warnungen ignoriert werden. Wir haben jedoch auch zahlreiche Aktualisierungen eingeführt, um unsere Sicherheitsmaßnahmen auf allen Hardwareplattformen intelligenter, sicherer und effektiver zu gestalten wir haben eingesetzt. Seit diesem Vorfall haben wir unser System aktualisiert und die Zeitintervalle zwischen den praktischen Warnungen und den Bedingungen, unter denen sie aktiviert werden, angepasst. “

Das Fahrzeug im Jahr 2018 in Culver City, Kalifornien, war ein Modell von 2014. Tesla hat seitdem die Hardware in seinen Fahrzeugen überarbeitet - die nach vorne gerichteten Kameras und das Radar, die Ultraschallsensoren. (CEO Elon Musk hat bekanntlich gesagt, dass der heutige Teslas über die gesamte Hardware verfügt, die er selbst benötigt. Der Elektroautohersteller arbeitet immer noch am Softwareteil.)

Die Ermittler untersuchten das Handy des Fahrers nach dem Unfall und stellten fest, dass er vor dem Vorfall weder eine SMS schrieb noch telefonierte. Der Bericht warnt jedoch davor, dass der NTSB nicht feststellen kann, ob er mit einer App auf seinem Telefon gespielt hat. (Er sagte den Ermittlern, dass er es nicht war.) Ein Zeuge, der neben dem Auto gefahren war, bevor es mit dem Feuerwehrauto kollidierte, sagte, der Fahrer scheine auf etwas in seiner linken Hand herabzusehen.

Dann gab es den Bagel und den Kaffee. Der Fahrer sagte, dass diese Lebensmittel im Auto mit ihm waren und dass er glaubte, dass während des Unfalls Essen neben ihm war. Aber der Kaffee wurde verschüttet und der Bagel zertrümmert, sodass er sich nicht sicher sein konnte und sie möglicherweise in seiner Hand waren.

ERFAHREN SIE MEHR



Feds sagen, Tesla Autopilot sei teilweise für einen Absturz im Jahr 2018 verantwortlich
Feds sagen, Tesla Autopilot sei teilweise für einen Absturz im Jahr 2018 verantwortlich

Der WIRED-Leitfaden für selbstfahrende Autos

Der Vorfall hebt auch hervor, was viele an Teslas Herangehensweise an Autopilot und an den halbautomatisierten Strategien einiger Autohersteller kritisiert haben, die sich auf Menschen stützen, um fortschrittliche Fahrfunktionen zu überwachen. Spätestens seit dem Zweiten Weltkrieg wissen Forscher, dass Menschen Abfälle bei der Überwachungstechnologie sind, die nahezu perfekt ist und auf die man sich nicht verlassen kann, wenn etwas schief geht. Die britische Royal Air Force stellte fest, dass Personen, die Radar überwachen, manchmal die Blips auf ihren Bildschirmen verpassten, die auf deutsche U-Boote hinwiesen. Der selbstfahrende Fahrzeugentwickler Waymo soll festgestellt haben, dass Fahrer, die mit der Überwachung ihrer Technik hinter dem Lenkrad beauftragt waren, manchmal einschliefen.

„Menschen können wirklich schlecht zusehen, wie der Lack trocken wird, und darum bitten Sie sie, wenn das Auto viele Funktionen selbst ausführen kann“, sagt Friedman.

General Motors, das seine halbautomatische Funktion SuperCruise nennt, verfolgt einen anderen Ansatz. Anstatt sich wie Tesla auf das Lenkraddrehmoment zu verlassen, hat der Detroit-Autobauer Kameras im Fahrzeug installiert, um die Augen der Fahrer zu überwachen und sicherzustellen, dass sie die Straße beobachten. Berichten zufolge haben die Führungskräfte von Tesla diesen Ansatz zur Fahrerüberwachung erwogen und dann abgelehnt.

Musk hat eingeräumt, dass es schwierig ist, das Gleichgewicht in halbautomatisierter Technologie zu finden. "Wenn es einen schweren Unfall gibt, ist es fast immer - in der Tat vielleicht immer - der Fall, dass es sich um einen erfahrenen Benutzer handelt, und es geht eher um Selbstzufriedenheit", sagte er.

Empfohlen:

Tipp Der Redaktion