Überfahren oder selbst verunglücken – das Auto entscheidet

Technisch gesehen stehen autonom fahrende Autos kurz vor der Serienreife. Noch aber gibt es rechtliche und nicht zuletzt auch moralische Probleme. Mit einem davon hat sich nun eine Umfrage unter Roboter-Ethikern beschäftigt. Mit – je nach Perspektive – erschreckenden Ergebnissen.

Als Fragestellung hatten die Experten des kanadischen Online-Portals „Open Roboethics Initiative“ ein klassisches Dilemma gewählt: Darf man ein Menschenleben opfern, um ein anderes zu retten? Das Szenario sieht wie folgt aus: Ein autonom fahrendes Auto mit einem Passagier – in diesem Fall der Befragte – fährt über eine kurvige Bergstraße und nähert sich einem Tunnel. Kurz bevor es in diesen einfährt, springt ein kleines Mädchen auf die Straße. Nun steht die Maschine vor der Wahl: Soll sie das Kind überfahren und so den Passagier retten? Oder weicht es dem Mädchen aus und stürzt mit seinem Insassen in die Tiefe?

Die Teilnehmer an der Umfrage äußerten sich überraschend eindeutig. 64 Prozent plädierten für die Weiterfahrt und das Überrollen des Kindes. 36 Prozent würden ein Ausweichen und den eigenen Tod vorziehen. Die Antwort fiel den Teilnehmern offenbar überwiegend leicht. Ernsthafte moralische Schwierigkeiten bereitete sie nur rund einem Viertel der Befragten.

Was nach einem eher theoretischen Gedankenexperiment klingt, ist ein grundlegendes Problem bei autonom fahrenden Autos und wird aktuell unter Wissenschaftlern, die sich mit künstlicher Intelligenz befassen, eifrig diskutiert. Dabei geht es neben der Art der Entscheidungsfindung (die neben der Frage nach Leben oder Tod auch andere, vorwiegend ökonomisch bedingte Konstellationen enthalten kann) vor allem darum, wer diese dem Fahrzeug einprogrammiert – Hersteller, Gesetzgeber oder Insasse. In der Umfrage sprechen sich 44 Prozent für letzteren aus, 33 Prozent sehen den Staat in der Pflicht. Den Fahrzeughersteller nennen lediglich 12 Prozent.