Ein Roboterwagen von Uber hat im März eine Fußgängerin tödlich getroffen, weil die Software die Frau schlecht erkennen konnte und bei den Autos keine automatische Notbremsung vorgesehen ist. Die Frau, die beim Überqueren der mehrspurigen Straße ein Fahrrad schob, sei zwar sechs Sekunden vor dem Zusammenstoß von den Sensoren des selbstfahrenden Autos bemerkt worden, erklärte die US-Behörde NTSB in einem vorläufigen Unfallbericht am Donnerstag. Die Software habe sie aber zunächst als unbekanntes Objekt, dann als Fahrzeug und schließlich als Fahrrad eingeordnet - und sei sich unsicher gewesen, in welche Richtung sie sich überhaupt bewegt.
Erst 1,3 Sekunden vor dem Aufprall sei das Uber-Programm dann zu dem Schluss gekommen, dass eine Notbremsung notwendig sei, erklärten die NTSB-Experten weiter. Doch diese Entscheidung blieb folgenlos: "Uber zufolge sind Notbrems-Manöver abgeschaltet, wenn das Fahrzeug vom Computer gesteuert wird, um ein unberechenbares Verhalten des Fahrzeugs zu vermeiden." Stattdessen setzte Uber darauf, dass der Sicherheitsfahrer in Aktion tritt. Der muss sich aber auf seine Augen verlassen: "Das System sieht keine Warnmeldungen an den Operator vor."