Freitag, 27. April 2018

Tödlicher Crash eines autonom fahrenden Autos Roboterauto-Entwickler sollten auf die Bremse treten

Bild vom Unfallort in Tempe, Arizona, an dem eine Frau bei der Kollision mit einem Uber-Roboterwagen getötet wurde

Selbstfahrendes Fahrzeug killt Menschen - dass dieses Horrorszenario einmal eintreten wird, wissen Entwickler von Roboterautos und Automanager schon lange. Statistisch sei dies wahrscheinlich, hieß es hinter vorgehaltener Hand. Doch den Zeitpunkt für einen solchen Unfall verorteten Branchenvertreter gerne in fernere Zukunft. Von "Kollege Computer" gesteuerte Autos sollten eben von vorne herein potenzielle Unfall-Situationen vermeiden - und so gleich zu Anfang sicherer sein als menschliche Fahrer. Erst wenn irgendwann einmal viele selbstfahrende Autos auf den Straßen fahren, würden sich tödliche Unfälle nicht vermeiden lassen.

Seit gestern wissen wir, dass die schlimmste Befürchtung der Roboterauto-Protagonisten bereits eingetreten ist - und zwar lange bevor Roboterautos in größerer Zahl die Straßen bevölkern: In der US-Stadt Tempe in Arizona wurde eine Fußgängerin von einem autonom fahrenden Uber-Testwagen niedergefahren, als sie die Straße überquerte. Die 49-jährige starb im Krankenhaus, sie ist damit das erste Todesopfer eines Roboterautos.

Die US-Polizei ist nach einer ersten Sichtung der Videoaufnahmen der Ansicht, dass Uber - beziehungsweise den von den Uber-Ingenieuren programmierte Computer - keine unmittelbare Unfallschuld trägt. Die Frau sei aus dem Schatten heraus auf die Fahrbahn getreten, auch ein menschlicher Fahrer hätte den Unfall nur schwer verhindern können, heißt es in ersten Stellungnahmen der US-Behörden.

Doch die Statements der Polizei zum Unfallhergang werfen Fragen auf: Warum hat das System die Frau im Halbschatten nicht erkannt und das Auto sofort abgebremst? Selbst schlechte Lichtverhältnisse sollten für Kollegen Computer eigentlich kein Hindernis für rechtzeitiges Erkennen sein. In Roboterauto-Testwagen sind neben Kameras auch Lidar-Sensoren an Bord, die unabhängig von Lichtverhältnissen ein Bild der Umgebung erstellen können. Das dies aber nicht geschah, erklärt vermutlich, warum auch der menschliche Kontrollfahrer an Bord nicht reagierte.

Ein Roboterauto als Temposünder?

Und noch ein zweites Detail verwundert am Unfallhergang: Laut ersten Angaben der Polizei war der Uber-Testwagen mit 61 km/h (38 Meilen/Stunde) unterwegs, erlaubt waren aber nur 56 km/h (35 Meilen/Stunde). Ein Roboterauto, das als - wenn auch geringfügiger - Temposünder durch die Stadt rauscht?

Das darf es laut bisheriger Darstellung von Roboterauto-Entwicklern gar nicht geben. Denn autonom fahrende Autos halten sich per Programmierung sklavisch an Tempolimits, heißt es doch.

Im Video: Tödlicher Unfall - autonomer Uber-Wagen rammt Fußgängerin

Video abspielen
Video anzeigen Video ansehen
Bild: REUTERS

Zusammengefasst lässt sich der Unfall also auch so beschreiben: Ein selbstfahrendes Auto mäht mit überhöhter Geschwindigkeit eine Frau nieder, weil sowohl das optische als auch das radarbasierte Erkennungssystem im Auto sie nicht rechtzeitig erkennen und als Gefahr identifizieren. Da muss sich nicht nur Uber fragen lassen, ob derart unausgereifte Technik überhaupt auf öffentlichen Straßen im Stadtgebiet getestet werden darf.

Folgen Sie Wilfried Eckl-Dorna auf twitter

Arizona hatte dazu bislang eindeutige Haltung: Der US-Bundesstaat hat die Tests von autonom fahrenden Autos, also von Computer gelenkten Fahrzeugen, auf seinen Straßen besonders leicht gemacht. Seit 2015 hat der Staat 600 Lizenzen für selbstfahrende Autos ausgestellt - und zwar auf sämtlichen öffentlichen Straßen. In Deutschland sind die Behörden viel zurückhaltender: Hierzulande sind nur wenige Streckenabschnitte für Roboterauto-Tests freigegeben.

Ganzer Branche drohen Einschränkungen - und das ist richtig so

Doch nun mehren sich auch in den USA mahnende Stimmen: Der Unfall zeige, dass die Technologie noch weit davon entfernt sei, sicher für Passagiere, Fußgänger und andere Fahrer zu sein, mahnte etwa ein US-Senator. Man dürfe dabei die grundlegende Sicherheit auch in der Eile, Innovationen voranzutreiben, nicht vergessen.

Es könnte also gut sein, dass auch die USA ihre Zulassungsregeln für solche Tests wieder verschärfen. Und sich ein wenig genauer ansehen, wer die Lizenzen für solche Straßentests bekommt. Das würde zwar den Zeitpunkt, in der komplett autonom fahrende Autos durch die Städte flitzen, wohl nach hinten verschieben. Doch das muss kein Nachteil sein.

Denn Stand heute steht fest, dass Ubers Selbstfahr-Technologie noch nicht ausgereift genug ist, um schwerwiegende Unfälle zu verhindern - und die anderer Unternehmen möglicherweise auch. Da gibt es keine andere Option, als mal auf die Bremse zu treten - und seine Technik lieber noch mal gründlich abseits des öffentlichen Verkehrs auf eigenen Testgeländen zu erproben.

© manager magazin 2018
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der manager magazin Verlagsgesellschaft mbH