Selbst fahrende Autos werden mit programmierter Logik für das sicherere Fahren entwickelt. Neben technischen Problemen gibt es eine Reihe von ungeklärten ethischen Fragen beim Wagen der Zukunft.

Los Angeles. Ein Lastwagen kommt einem Autofahrer plötzlich mit hoher Geschwindigkeit auf der eigenen Spur entgegen. Was tun? Das Lenkrad nach links reißen und einen Fahrradfahrer anfahren oder nach rechts, wo gerade eine Familie entlangläuft. Oder ist es doch besser, eine Vollbremsung zu machen und einen Frontalaufprall zu riskieren? Autofahrer müssen in Bruchteilen von Sekunden Entscheidungen treffen. Dabei verlassen sie sich oft nur auf ihren Instinkt, ohne die Gefahr aber rational einschätzen zu können.

Experten dagegen setzen auf das selbst fahrende Auto der Zukunft, das seine Umgebung fast perfekt wahrnimmt und dessen Entscheidungen auf programmierter Logik beruhen. Solche Autos werden entwickelt, um das Fahren sicherer zu machen. Allerdings gibt es neben den technischen Problemen noch eine Reihe von ungeklärten ethischen Fragen. So ist es zwar relativ einfach, einen Computer zu programmieren und dem Auto vorzuschreiben, wie es in bestimmten Situationen zu reagieren hat. Viel schwieriger ist es aber, die richtigen Antworten auf einige Fragen zu finden, sagen Wissenschaftler.

„Das Problem ist, wer stellt fest, was wir wollen“, fragt Jeffrey Miller von der Universität Southern California, der Software für automatisiertes Fahren entwickelt. Es werde nie eine 100-prozentige Sicherheit geben, betont er. Experten kündigten an, dass die Technologie für selbst fahrende Autos bis 2017 auf dem Markt sein soll. Zunächst soll es bei der Programmierung darum gehen, dass allgemeine Fahrsituationen beherrscht werden. Das sichere Fahren steht dabei im Vordergrund, um Unfallsituationen zu vermeiden.

Was passiert bei unvermeidbaren Unfällen?

Um ethische Fragen geht es bislang weniger. Denn Unternehmen, die fahrerlose Autos testen, befassen sich kaum mit moralischen Fragestellungen. Die Softwareentwickler sind in den meisten Fällen keine Autohersteller. So hat zum Beispiel Google in den vergangenen Jahren stark in die Technik investiert. Bis jetzt hat der Suchmaschinenanbieter aber nur die üblichen Fahrsituationen durchgespielt. Sogenannte unvermeidbare Unfälle wurden ausgespart. „Wir philosophieren darüber. Aber Fragen von wirklichen Situationen und realen Ereignissen, die uns betreffen können, haben wir noch nicht studiert“, gibt Ron Medford, Sicherheitsdirektor für das Google-Projekt der selbst fahrenden Autos, zu.

Prof. Patrick Lin, der zu ethischen und Sicherheitsfragen an der California Polytechnik State University arbeitet, spielte solche Experimente durch. „Das ist eine der schwierigsten Entscheidungen, die wir treffen müssen: Eine Maschine so zu programmieren, die voraussehbar zum Tod von Menschen führen kann“, sagt er. Eine der Fragen, über die sie dabei nachdenken müssten sei, ob die Entwickler beispielsweise den Tod von anderen Menschen in Kauf nehmen, um die Insassen im eigenen Fahrzeug zu schützen. „Wenn wir Programmierentscheidungen treffen, erwarten wir, dass diese so richtig sind, wie sie eben sein können“, sagt Lin.

Viele sind skeptisch gegenüber den fahrerlosen Autos

Doch was richtig ist, darüber könne es in den Unternehmen unterschiedliche Auffassungen geben, meint Lin. Er ist überzeugt, Autohersteller hätten die Pflicht zu zeigen, dass sie sich mit solch komplexen Fragen auseinandergesetzt hätten. Und sie müssten auch ihre unterschiedlichen Antworten darauf öffentlich machen.

Lin sagt, dass er die ethischen Fragen des selbst fahrenden Autos mit Google, aber auch mit Autoherstellern wie Nissan und BMW sowie mit dem Unternehmen Tesla, das Elektroautos baut, diskutiert habe. Dabei sei auch deutlich geworden, dass viele Autohersteller skeptisch in Bezug auf das fahrerlose Fahren seien – zumindest bezüglich der nächsten zehn Jahre.

Uwe Higgen, der bei BMW eine Technologieabteilung in Silicon Valley leitet, erläutert, dass der Autohersteller Fachleute aus den Bereichen Technik, Ethik, soziale Auswirkungen und Recht zusammengebracht habe, um Fragen zu besprechen, die mit der Entwicklung der selbst fahrenden Autos zusammenhingen. Das sei ein Prozess, der noch nicht abgeschlossen sei.

Für manche aber stehen nicht die grundlegenden moralischen Fragen des automatisierten Fahrens im Vordergrund. Für sie geht es vielmehr darum, wie man vorsichtig Schritt für Schritt die neue Technologie einführen kann, um damit Leben zu retten. Denn jährlich sterben etwa in den USA rund 30.000 Menschen im Straßenverkehr. In Deutschland gab es im vergangenen Jahr 3340 Verkehrstote.

Können Gesetze das automatisierte Fahren regeln?

„Niemand hat eine gute Antwort darauf, wie viel Sicherheit wirklich sicher macht“, sagt der Rechtswissenschaftler Bryant Walker Smith, der sich intensiv mit dem Thema der selbst fahrenden Autos befasst hat. Im Straßenverkehr gebe es eben Unfälle, sagt er. „Und das ist etwas, was die Unternehmen akzeptieren müssen, aber auch die Gesellschaft.“

Eine weitere Frage ist, wie und ob Gesetze das automatisierte Fahren regeln können. Was geschieht beispielsweise bei einem grausamen Unfall, der aber nicht durch eine Person verursacht wurde? „Das ist eine ganz natürliche Frage, die kommen wird“, sagt Bernard Soriano vom Straßenverkehrsamt in Kalifornien voraus.

Wie sollten jedoch Autos aus einer Reihe von schlechten Entscheidungen eine Auswahl treffen können? Autos könnten nur aus dem auswählen, was zuvor Programmierer festgelegt hätten, sagt Soriano. „Dafür wird es Erklärungen geben müssen.“