Dienstag, 28. Januar 2020

Autopilot als Verlockung Tesla-Manager spricht von "Unterschied zwischen Leben und Tod"

Tödlicher Tesla-Unfall. Offenbar hat der Autopilot versagt, weil er einen weißen, querstehenden Lkw als Straßenschild interpretierte
REUTERS / Courtesy Robert VanKavelaar
Tödlicher Tesla-Unfall. Offenbar hat der Autopilot versagt, weil er einen weißen, querstehenden Lkw als Straßenschild interpretierte

Für Tesla-Chef Elon Musk ist klar: "Unter dem Strich wird der Autopilot Leben retten", zitiert ihn das "Wall Street Journal". Und deshalb werde er das umstrittene System nicht vom Markt nehmen oder abschalten - trotz eines tödlichen Unfalls im Autopilotmodus, trotz gehäufter Tesla-Unfälle ohne Todesfolge, trotz weitreichender Ermittlungen von US-Behörden.

Wie problematisch und letztlich gefährlich der (falsche) Umgang mit dem vermeintlich Leben rettenden System offenbar sein kann, sagte jetzt ein namentlich nicht genannter Tesla-Manager der "New York Times": Das "Autopilot"-System halte er für sicher, Tesla-Fahrer müssten sich aber darüber im Klaren sein, dass seine falsche Nutzung "den Unterschied zwischen Leben und Tod bedeuten kann" ("could mean the difference between life and death").

Das klingt zunächst einmal banal. Wer das Gaspedal eines herkömmlichen Autos falsch bedient, kann ebenso in tödliche Unfälle verwickelt werden. Doch handelt es sich beim "Autopiloten" von Tesla eben nicht um einen einfachen Hebel, der mal eben umgelegt wird.

Software-Update? Beim Autopiloten müssen Tesla-Fahrer ständig am Ball bleiben

Vielmehr geht es um ein komplex gesteuertes System, das Tesla per Datenfunk durch Softwareupdates aktualisiert - und das beim tödlichen Unfall ganz offensichtlich versagt hat. Ein Tesla-Fahrer, der den Autopilotmodus nutzt, muss sich also ernsthaft und aufmerksam auch mit dem Programm und seinen Updates beschäftigen.

Und auf die Straße achten - auch wenn das System es ihm verlockend einfach zu machen scheint, weil die automatische Lenkung und Geschwindigkeitskontrolle minutenlang arbeiten, ohne dass der Fahrer auch nur einen Wimpernschlag vollbringen muss, wie die "New York Times" weiter schreibt.

Software-Updates fordern Tesla-Fahrer heraus

Der Fahrer eines Tesla kann hiermit offenbar schneller zur Fehlerquelle werden als bei herkömmlich gesteuerten Fahrzeugen - und das im schlimmsten Fall mit tödlichen Folgen.

Ein Umstand, den jetzt auch die US-Verkehrsbehörde NHTSA genauer prüft. Die Behörde hat eine Vielzahl von Informationen zum "Autopilot" angefordert, wie die Zeitungen weiter schreiben. So fordern die Kontrolleure unter andrem eine detaillierte Beschreibung des Systems an, Daten zu Modifikationen, Testergebnisse und alle Beschwerden und Berichte zu weiteren Unfällen, die Tesla unlängst eingeräumt hat.

Tesla soll der Behörde auch Kopien aller Log-Daten aus dem tödlichen Unfall in Florida Anfang Mai aushändigen und erklären, zu welchem Zeitpunkt das System die Kollisionsgefahr hätte erkennen müssen.

Bei kürzlich bekannt gewordenen tödlichen Unfall von Anfang Mai raste ein Tesla mit eingeschaltetem "Autopilot"-System unter einen Lastwagen-Anhänger, der die Straße querte. Nach Unternehmensangaben hielt die Software die weiße Seite des Anhängers für ein hochhängendes Autobahn-Schild.

mit Nachrichtenagenturen

© manager magazin 2016
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung