Die Entwicklung des autonomen Fahrens schreitet voran. Hersteller und Zulieferer arbeiten bereits an Visionen des Pkw-Innenraums, wenn Lenkrad und Pedale erst einmal überflüssig sind.
Aber es gibt auch noch eine ganze Reihe von Fragezeichen. Eins davon ist die Moral: Auch autonome Fahrzeuge können in ein Entscheidungsdilemma geraten–wie sollen sie zum Beispiel vor einem Unfall lenken, wenn es auf jeden Fall zu einem Schaden kommt?
Antworten haben US-Forscher mit einer weltweiten Umfrage gefunden. Demnach würde eine Mehrheit eher Kinder als Ältere verschonen sowie eher Menschen als Tieren ausweichen.
Das Ergebnis weise allerdings größere kulturelle Unterschiede auf, schreiben die Forscher um Iyad Rahwan vom Massachusetts Institute of Technology in Cambridge im Journal "Nature".
Die Internet-Umfrage mit dem Titel "Moral Machine" sorgte weltweit für Schlagzeilen. Die große Beteiligung machte es den Forschern möglich, fast 40 Millionen Entscheidungen in Dilemma-Situationen zu analysieren. Allerdings war die Befragung nicht repräsentativ; so waren etwa junge Männer überproportional vertreten.
Rahwan und Kollegen begründen ihre Befragung mit der Bedeutung für die Akzeptanz autonomer Fahrzeuge in der Bevölkerung: "Selbst wenn sich die Ethiker einig wären, wie autonome Fahrzeuge moralische Dilemmata lösen sollten, wäre ihre Arbeit nutzlos, wenn die Bürger ihrer Lösung nicht zustimmen würden."