Washington/Berlin –

Googles selbstfahrendes Auto baut Unfall

Rechtliche Fragen bei Kollisionen von autonomen Fahrzeugen sind noch weitgehend ungeklärt

Washington/Berlin.  Altgedienten Mobilisten, die sich noch darauf verstanden, Damen-Nylonstrumpfhosen vorübergehend als Keilriemen oder Abschleppseil zu montieren, war immer klar: Der Weg zum fahrerlosen Auto, das unsere Art der Fortbewegung revolutionieren will, wird auch mit Blechschäden gepflastert sein.

Dass die vor allem im Freiluftversuchslabor Kalifornien Kilometer fressenden Testfahrzeuge des Großkonzerns Google mit Dutzenden Sensoren und Kameras ausgestattet sind, auf das sie ohne den Homo sapiens am Steuer verlässlich immer die richtige Entscheidung treffen, erschien vielen als das, was die Amerikaner so schön „too good to be true“ nennen: Zu schön, um wahr zu sein.

Und gestern lieferte der Branchen-Primus den Beweis: Zwischen einem fahrerlosen Lexus und einem Bus kam es laut Polizeibericht in Mountain View zu einem Missverständnis. Der Rest ist Lackschaden. Wer wen warum nicht verstanden hat, wird noch ausgewertet. Aber einiges spricht dafür, dass das Auto dem Busfahrer Sozialverhalten unterstellte, dem Busfahrer aber nicht danach war, das autonome Auto einfädeln zu lassen.

Google hat offiziell die Verantwortung für den Unfall übernommen. Ein großer Schaden entstand zwar nicht, aber das Ereignis zeugt trotzdem, wie viele Probleme beim Roboterfahren noch ungelöst sind.

Auf den ersten Blick scheint die Angelegenheit einfach. Die Software wird angepasst. Die Entwickler und das Auto lernen. Das Fahrzeug wird sicherer. Das ist eine der großen Hoffnungen: Vollautomatisch fahrende Wagen könnten in einigen Jahren viel weniger Unfälle verursachen, als Menschen es tun. Auf computergesteuerte Autos, deren Passagiere nicht mehr lenken, sondern Zeit für andere Tätigkeiten haben, setzen manche Unternehmen große Hoffnungen. Googles Testmobile haben seit sechs Jahren mehr als zwei Millionen Kilometer auf öffentlichen Straßen zurückgelegt – allerdings immer mit einem Fahrer, der zur Not eingreift. Daimler hat unlängst die Erlaubnis für autonomes Fahren auf Autobahnen im US-Bundesstaat Nevada erhalten. Und Nissan will ab 2020 Roboterautomobile in Tokio einsetzen.

Doch viele Fragen sind bisher weitgehend unbeantwortet. „Die Technik kommt schneller voran als die Klärung der rechtlichen Probleme“, sagt Christoph Enaux von der Kanzlei Greenberg Traurig. Die Anwälte beraten unter anderem Regierungen und Unternehmen, wenn es um den Rechtsrahmen der digitalisierten Ökonomie geht. Im vorliegenden Fall zeige sich, so Enaux, dass beispielsweise Probleme der Haftung beim autonomen Fahren gelöst werden müssten. Ist bei einem Unfall der Hersteller des Fahrzeugs oder der Entwickler der Software schuld? Schließlich konnte das Programm den Schaden nicht verhindern. Vielleicht war es mit der komplexen Situation überfordert.

Oder haftet der Fahrer, der eingreifen konnte, es aber nicht tat? Dass eine Maschine eigenständige Entscheidungen trifft, ist im heutigen Verkehrsrecht nicht vorgesehen, sagt Enaux. Weltweit gehe man noch davon aus, dass Menschen die Fahrzeuge permanent steuern und deshalb auch für Unfälle verantwortlich sind. Will man dagegen eine Haftung für die Softwareentwickler einführen, kann das für die Autohersteller sehr teuer werden.

Autonomes Fahren könnte außerdem neue ethische Bewertungen erfordern. Denn die Entwickler müssten der Software genau definierte Verhaltensweisen auch für schreckliche Alternativsituationen einspeichern: Im Extremfall beschrieben sie Kriterien dafür, welcher von zwei Menschen bei einem Unfall geopfert werden soll – der Fußgänger oder der Autofahrer. Solch unethisches Verhalten wird aber kaum jemand programmieren wollen – vielleicht ein Grund, warum es komplett autonomes Autofahren niemals geben wird.