San Francisco. Bisher stellen sich beim Thema autonomes Fahren vor allem technische Fragen. Doch künftig müssen Autos auch moralisch handeln können.

Chris Gerdes denkt viel nach über Computer auf vier Rädern. Also über selbstfahrende Autos. Auch wenn er mit dem Rennrad über die Hügel von San Francisco kurvt. Neulich hatte er wieder so einen Geistesblitz: Die Autos, die ihn überholten, wichen aus, sie überfuhren die doppelt durchgezogene Mittellinie. Würde ein selbstfahrendes Auto das auch tun, fragte er sich. Die kalifornische Straßenverkehrsordnung verbietet das Kreuzen der Mittellinie. Das Computerhirn im Fahrzeug würde sich wohl an die Regeln halten.

„Wir haben hier also ein gelerntes menschliches Verhalten, das gesellschaftlich sogar erwartet wird – Platz machen für Fahrradfahrer – das aber eigentlich nicht legal ist“, sagt Gerdes, Professor an der Eliteuniversität Stanford. „Wie bringen wir einen solchen erwünschten Regelbruch dem autonomen Auto der Zukunft bei? Und hat die Mittellinie für ein Roboterfahrzeug überhaupt noch einen Sinn?“

„Wir müssen versuchen, es so sicher wie möglich zu machen"

Der E-Autobauer Tesla geriet vor einem Jahr in die Schlagzeilen, als ein Fahrer im Autopilot-Modus tödlich verunglückte.
Der E-Autobauer Tesla geriet vor einem Jahr in die Schlagzeilen, als ein Fahrer im Autopilot-Modus tödlich verunglückte. © imago/Hartenfelser | Peter Hartenfelser

Gerdes glaubt, dass ein autonomes Auto die Situation besser einschätzen kann als jeder Mensch. Der Wagen beobachtet die Umwelt mit Sensoren und Kameras. Das Auto wird den Radfahrer also sowieso nur überholen, wenn ihm nichts entgegenkommt. Und es wird dem Radler so viel Raum wie möglich geben. Für Autos ohne Fahrer werden Fahrbahnmarkierungen in Zukunft also womöglich unbedeutend werden.

Gerdes forscht im Silicon Valley zu selbstfahrenden Autos. Mit Doktoranden steht er an einer Teststrecke. Gerade untersuchen sie, wie Shelley, ein umgerüsteter Forschungs-Audi, mit unerwarteten Situationen umgeht. Etwa damit, dass hinter jedem am Straßenrand parkenden Auto plötzlich ein erwachsener Fußgänger oder gar ein Kind hervorlaufen kann. „Wir werden nie ein perfektes System bauen“, räumt Gerdes ein. „Aber wir müssen versuchen, es so sicher wie möglich zu machen.“

Philosoph und Ingenieur arbeiten gemeinsam an Szenarien

Vor einiger Zeit bekam Gerdes eine E-Mail von Patrick Lin, einem Philosophieprofessor. „Denken Sie auch über all die ethischen Fragen nach, die die autonomen Autos uns bringen werden?“, wollte Lin wissen. Seitdem forschen die beiden Wissenschaftler gemeinsam. Der Philosoph entwirft ein Szenario, der Ingenieur sucht nach technischen Antworten.

Zum Beispiel: Ein Auto kommt in eine Gefahrensituation und kann einem Crash nur noch entgehen, indem es nach links ausweicht. Dort würde der Wagen eine 80-jährige Großmutter töten. Er könnte auch nach rechts umlenken, wo er in ein achtjähriges Mädchen steuern würde. Wie soll das Auto entscheiden? Philosoph Lin sagt: „Es gibt nicht die einzig richtige Antwort hier, das liegt in der Natur des ethischen Dilemmas.“

Die Autoindustrie muss sich unangenehmen Fragen stellen

Der Autobranche sind solche Fragen unangenehm. Die Hersteller betonen, Autos würden nicht dahin programmiert, zwischen Opfertypen zu unterscheiden. Vielmehr sollen die Fahrzeuge jede Kollision vermeiden, erst recht mit ungeschützten Fußgängern und Radfahrern.

Philosoph Lin fordert dennoch eine Diskussion über ethische Fragen: „Wie kommen die Programmierer zu ihrer Entscheidung? Haben sie die Konsequenzen durchdacht?“ Lin rät, dass die Autoindustrie darüber offen sprechen sollte. „Macht sie das nicht, wird dieses Informationsvakuum von anderen mit Spekulationen und Ängsten gefüllt werden.“

Die großen deutschen Autobauer sind schon mit Testlizenzen unterwegs

Für einen Aufschrei sorgte im Mai 2016 der erste tödliche Unfall mit einem computergesteuerten Tesla im US-Staat Florida. Der Fahrer hatte den Autopilot-Modus aktiviert, ein Assistenzsystem, das unter anderem Spur und Abstand halten soll. Laut US-Verkehrsbehörde NHTSA hatte das System funktioniert, der Fahrer hätte sich aber in diesem Moment nicht darauf verlassen dürfen.

Ein Deutscher hat die Roboterwagen-Welle entscheidend angeschoben: Sebastian Thrun, Professor für Künstliche Intelligenz in Stanford, entwickelte den autonomen Wagen Stanley auf Basis eines VW Touareg. Später engagierte ihn Google, um für den Konzern den ersten Prototypen zu bauen. Heute sind die großen deutschen Autobauer im Silicon Valley mit Testlizenzen unterwegs.

„Kind geht vor Großmutter“ – das verstößt gegen das Grundgesetz

BMW und Intel wollen bis 2021 gemeinsam einvollautonomes Auto auf die Straße bringen.
BMW und Intel wollen bis 2021 gemeinsam einvollautonomes Auto auf die Straße bringen. © imago/allOver | Karl Thomas

BMW will 2021 gemeinsam mit Intel ein vollautonomes Auto auf die Straße bringen. Der Mann für ethische Fragen bei BMW, Dirk Wisselmann, arbeitet mit Szenarien, wie sie der Philosoph Lin entwirft. Er versichert, dass ein Algorithmus – also eine Computerregel – mit Wertungen wie „Kind geht vor Großmutter“ niemals in ein deutsches Auto hineinprogrammiert werden dürfte. „Das verstößt gegen das Grundgesetz. Die Antwort kann immer nur lauten: Sachschaden vor Personenschaden.“

Mirko Franke, Entwickler bei Bosch, sieht sich in der moralischen Zwickmühle: „Technisch sind wir längst so weit, dass die Sensoren gut erkennen, was sich um das Auto herum tut. Eine etwa einen Meter große Person ist mit hoher Wahrscheinlichkeit ein Kind, jemand mit einem Stock wahrscheinlich ein älterer Mensch.“ Trotzdem soll das Auto solche Unterschiede nicht berücksichtigen. „Was ethisch ist und was nicht, ist eine gesellschaftliche Frage, das können wir nicht als Unternehmen festlegen“, betont Franke.

Im Notfall muss der Mensch schnell die Kontrolle zurückerlangen

Über Roboterautos wird nach den ersten Kollisionen zumindest schon diskutiert. Auch über den roten Notknopf. Damit könnte der Mensch im Krisenfall wieder die Kontrolle übernehmen. Aber wie realistisch ist das? BMW hat es getestet: „Wir haben über 400 Fahrsimulationsversuche gemacht, wo wir Realfahrer – natürlich unter Laborbedingungen – mit solchen Situationen konfrontiert haben“, sagt Wisselmann.

„Man schickt den Fahrer dabei in die komplette Ablenkung, zum Beispiel liest er ein Buch, wenn plötzlich ein Warnton im Auto ertönt. Der Fahrer muss sich dann in kürzester Zeit orientieren und ein Manöver einleiten, also bremsen oder ausweichen“, so der Experte. „Die Ergebnisse waren erstaunlich, die Schnellsten brauchten in einfachen Situationen nur zwei bis drei Sekunden.“

Stanford-Professor Gerdes hält menschliches Eingreifen für keine gute Idee. „Das Auto sollte seine eigenen Entscheidungen treffen können oder zu einem sicheren Stand kommen.“