Berlin. Die Debatte über selbstfahrende Autos zeigt: Der Mensch muss gestalten. Maschinen können nicht ausreichend selber entscheiden.

Menschen tendieren dazu, technische Gegenstände als neutrale Dinge zu betrachten. Über ihre Verwendung bestimmt der Benutzer. Das Messer kann Brot schneiden und töten. Ob es zur Essenszubereitung oder zum Mord verwendet wird, entscheidet der Mensch, der es in der Hand hält. Das Messer ist immer nur ein Stück Metall.

Mit selbstfahrenden Autos ist die Sache nicht ganz so einfach. Das Kernstück dieser Fahrzeuge ist ein Computer, der dem Menschen Entscheidungen abnimmt. Es werden dadurch sicher weniger Unfälle passieren, weniger Menschen im Straßenverkehr sterben. Es wird aber natürlich trotzdem weiter Unfälle geben.

Die Technik muss wissen, welche Variante sie durchführen soll

Ein Computer kann auch in einer Unfallsituation noch bis zum letzten Sekundenbruchteil verschiedene Kollisionsvarianten gegeneinander abwägen. Nur, welche Variante soll die Technik wählen? Ein Gedankenexperiment verdeutlicht das Problem: Man stelle sich eine vierköpfige Familie in ihrem autonomen Fahrzeug vor, das auf einer einspurigen Straße fährt, die rechts und links von Mauern begrenzt ist. Plötzlich laufen vor dem Auto drei Fußgänger bei Rot über die Straße. Nur wenn die Steuerung das Auto gegen eine Mauer krachen lässt, könnte der Tod der Fußgänger vermieden werden. Doch dieses Manöver wäre für die Insassen lebensbedrohlich.

Ist ein Zusammenprall unvermeidbar, gerät die moderne Technik mit ihren Möglichkeiten der Vorausberechnung in ein Entscheidungsdilemma – der Informatik als Weichensteller-Problem bekannt: Soll das Auto möglichst viele Menschenleben verschonen? Dann müsste es im Zweifelsfall immer in die kleinere Menschenmenge fahren, auch wenn diese zum Beispiel nur aus Kindern besteht. Oder soll das Auto hauptsächlich den Fahrer schützen? Dann könnten leichtere Fahrzeuge zum Kollisionsziel werden.

Hierarchie des Programms entscheidet später über Leben und Tod

Soll das Auto darauf programmiert sein, Verletzungen möglichst gering zu halten? Dann müsste es sich bei einem möglichen Aufprall auf zwei Fahrradfahrer für denjenigen mit Helm entscheiden. Oder geht es gar um die Abwägung von potenzieller Lebenszeit? Dann wäre im Zweifelsfall ein alter Mensch eher als Unfallopfer zu wählen als ein junger.

An diesen Extrembeispielen kann man sehen: Die Hierarchie des Programms entscheidet später über Leben und Tod. Der Programmierer kann vorher bestimmen, nach welchen Kriterien sich das Auto entscheiden wird. Womit man beim nächsten Problem wäre. Denn Programmierer sind keine Ethiker, Philosophen oder Juristen. Sie können das Entscheidungsdilemma höchstens technisch lösen. Aber es liegt nicht in ihrer Befugnis, darüber zu entscheiden, wer künftig von selbstfahrenden Autos eher getötet wird und wer eher nicht.

Technik wird von Menschen und von Firmen mit Interessen gemacht

Deshalb ist die Arbeit der Ethik-Kommission der Bundesregierung zu begrüßen. Wichtige juristische und moralische Grundsätze haben die Experten festgehalten. Etwa, dass keine Menschenleben verrechnet werden dürfen, dass jedes Menschenleben gleich viel wert sein muss. Auch die Hoheit des Einzelnen über seine Bewegungsdaten ist ein wichtiges Gut.

Doch für echte dilemmatische Situationen fanden auch die Experten keine Lösung. Letztlich könne die Maschine nicht ersetzen, dass ein „sittlich urteilsfähiger, verantwortlicher Fahrzeugsführer“ eingreift, schreiben sie. Wie das praktisch gehen soll, erklären die Ethik-Experten nicht. Aber immerhin wird klar: Computertechnik ist niemals neutral. Sie wird von Menschen und von Firmen mit Interessen gemacht. Wer den Code programmiert, hat die Macht. Und die Voreinstellungen bestimmen vieles.