Ethikkommission

Selbstfahrende Autos: Wer trifft die letzte Entscheidung?

Sergej Brin steht im Hof der Google X Labs in Mountain View. Im Hintergrund das selbstfahrende Auto des Unternehmens.

Sergej Brin steht im Hof der Google X Labs in Mountain View. Im Hintergrund das selbstfahrende Auto des Unternehmens.

Foto: Getty Images / Corbis News/Getty Images

Unfallgefahr: Eine Ethikkommission soll bis 2017 klären, ob der Mensch oder die Maschine beim autonomen Fahren das letzte Wort hat.

Berlin.  Wenn künftig der Autofahrer nur noch Passagier im eigenen Fahrzeug ist und nicht mehr selbst lenkt, muss der Computer schwierige Entscheidungen treffen. In extremen Unfallsituationen wäre folgendes Dilemma denkbar: Soll der Roboterwagen in die Leitplanke krachen und damit sehr wahrscheinlich die Insassen töten oder doch eher die Familie im Fahrzeug auf der Nebenspur? Technische und ethische Verfahren für solche Grenzfälle wird nun eine Kommission analysieren, die Bundesverkehrsminister Alexander Dobrindt (CSU) jetzt eingesetzt hat.

Die 14 Fachleute unter der Leitung des ehemaligen Verfassungsrichters Udo Di Fabio haben bis zum Sommer 2017 Zeit, einen ersten Bericht vorzulegen. Die Ergebnisse würden dann eine Basis liefern für nationale und internationale Regelungen, sagte Dobrindt. Mitglieder der Kommission sind unter anderem Philosophie-Professor Matthias Lutz-Bachmann (Uni Frankfurt/Main), Juristin Renata Jungo Brüngger aus dem Vorstand des Autobauers Daimler und Klaus Müller, Chef des Bundesverbands der Verbraucherzentralen.

„Es darf keine Klassifizierung von Menschen geben“

Das Problem beginnt zu drängen. Im Mai starb der Fahrer eines Fahrzeugs der Firma Tesla, weil die Computersteuerung während des automatisierten Fahrens einen Lkw übersah. Die Autokonzerne arbeiten mit Hochdruck an Rechnern, die den Fahrern das Lenken ihrer Autos abnehmen – zumindest in bestimmten Situationen. Künftig könnten auf den Autobahnen Kolonnen von Lastern unterwegs sein, deren Fahrer nicht steuern, sondern Büroarbeiten am Laptop erledigen. Daher stellt sich die Frage, welches Verhalten man den Robotern für Konfliktsituationen programmiert.

Zwei grundsätzliche Antworten gab Verkehrsminister Dobrindt schon selbst. Erstens: Bestehe die Wahl zwischen Sachschaden und Personenschaden, müsse sich die Maschine immer für ersteren entscheiden. Zweitens: „Es darf keine Klassifizierung von Menschen geben“, sagt Dobrindt. Moralisch in jedem Fall fragwürdige Kriterien für die Auswahl zwischen potenziellen Unfallopfern soll es also nicht geben. Alter oder junger Mensch – wer ist wertvoller? Diese Frage und mögliche Antworten darauf dürfen in den Programmen für das automatisierte Fahren nicht vorkommen, lautet das Postulat.

„Wie viel Automatisierung will die Gesellschaft erlauben?“

Das aber ist nur ein erster Rahmen. Genug heikle Themen bleiben – ethischer Konfliktstoff inklusive. Zum Beispiel: „Wie viel Automatisierung will die Gesellschaft erlauben?“ fragte Kommissionsvorsitzender Di Fabio.

Das ist sehr schwer zu regeln. Man könnte sich auf den Standpunkt stellen, dass am Ende immer der Fahrer entscheiden muss. In Konflikt- und Unfallsituationen läge die letzte Verantwortung bei ihm. Aber ist das realistisch und praktikabel? Besteht der Reiz des automatischen Fahrens doch gerade darin, dass man vorwärts kommt und dabei in Ruhe auf seinem Smartphone herumtippen kann. So erscheint es illusorisch, dass man ausgerechnet bei überraschenden Gefahren sofort richtig reagiert.

Möglicherweise entscheidet eine Zufallsauswahl

Wenn aber die Maschine die letzte Entscheidung trifft, geht es doch wieder um das wohl nicht zu lösende Dilemma der Auswahl zwischen verschiedenen Opfern. Oder man programmiert den Steuerungssystemen ein, in bestimmten Situationen irgendetwas zu tun. Zufallsauswahl?

Weil konsensfähige und ethisch legitimierte Antworten auf solche Fragen unmöglich sind, könnte die Lösung lauten: Vollautomatisiertes Fahren wird es auf hiesigen Straßen niemals geben. Einer im Auto wird sich wohl oder übel damit beschäftigen müssen, was draußen passiert.