Kann der Autopilot von Tesla durch einfache Mittel manipuliert werden? Das wollten Forscher des chinesischen Internetkonzerns Tencent (Messenger "Wechat") wissen. Die Antwort auf die Frage lautet: Ja. Und zwar mit einfachen Mitteln, wie "Golem" berichtet.
Keen Security Lab, die Sicherheitsabteilung von Tencent, manipulierte Fahrbahnmarkierungen, um zu sehen, wie der Autopilot reagieren würde. Getestet wurde mit dem Autopiloten der Version 2018.6.1. Der Autopilot nutzt unter anderem Fahrbahnmarkierungen, um sich au der Straße zu orientieren. Sind solche Markierungen vorhanden und korrekt, ist alles gut. Sind die Markierungen aber falsch - absichtlich oder unabsichtlich - dann kann es gefährlich werden.
Rote Aufkleber reichen aus
Bei ihren Tests brachten die Keen-Forscher am rechten Rand der Fahrbahn dem Bericht zufolge Linien an, die Richtung Mitte der Fahrbahn führten. Das Testfahrzeug folgte diesen Markierungen und fuhr Richtung Gegenfahrbahn - ein für die Insassen potenziell äußerst gefährliches Szenario.
Den Forschern zufolge reichten für die Irreführung des Autopiloten kleine rote Aufkleber auf der Straße aus, sie mussten den Angaben zufolge nicht einmal die geläufigen weißen Streifen auf der Straße anbringen. Die Ergebnisse ihrer Tests wurden auf der Webseite von Tencent Keen Security Lab sowie in einem Video dokumentiert.
Lesen Sie auch:
Tödlicher Unfall mit Lastwagen: Unfallermittler prüfen erneuten Tesla-Crash
Tesla-Modelle gibt's bald nur noch im Internet
Tweets von Elon Musk sorgen erneut für Ärger
Auseinandersetzung mit Börsenaufsicht: Musk legt nach
Tesla Model 3 verliert wichtige Kaufempfehlung
Aus dem Datencenter: