Kaiserslautern. Die Menschen geben immer mehr Entscheidungen an Computer ab. Doch braucht Software auch Moral? Eine Informatikerin will das erforschen.

Vor einiger Zeit stand Katharina Zweig vor einem dieser Rätsel, die sie an ihrem Beruf so liebt. Die Informatik-Professorin der TU Kaiserslautern gab bei Google den Namen der Kanzlerin ein, um deren Alter herauszufinden.

Zweig tippte erst Angela, dann Merkel ein. Schon schlug ihr die Suchmaschine einen weiteren Begriff vor. „Angela Merkel schwanger“, las die Wissenschaftlerin und war elektrisiert. Zweig klickte auf den Vorschlag.

Tatsächlich fand sie Dutzende Webseiten, die sich mit dem Thema mehr oder weniger ernsthaft beschäftigen. Und weil offenbar schon vor ihr viele Nutzer nach „Angela Merkel schwanger“ gesucht hatten, war Google auch bei Zweigs Eingabe behilflich.

Merkel-Double mit Babybauch

Sie weiß inzwischen warum: Satiriker Jan Böhmermann hatte gerade seinen Song „Wer war mit Mutti im Bett“ veröffentlicht, darin die Zeile „Angela schwanger, Joachim sauer“. Das dazugehörige Video zeigte ein Merkel-Double mit Babybauch. So abwegig war der Google-Vorschlag nicht.

Empfohlener externer Inhalt
An dieser Stelle befindet sich ein externer Inhalt von Youtube, der von unserer Redaktion empfohlen wird. Er ergänzt den Artikel und kann mit einem Klick angezeigt und wieder ausgeblendet werden.
Externer Inhalt
Ich bin damit einverstanden, dass mir dieser externe Inhalt angezeigt wird. Es können dabei personenbezogene Daten an den Anbieter des Inhalts und Drittdienste übermittelt werden. Mehr dazu in unserer Datenschutzerklärung

Und doch ist er der Beweis, dass Intelligenz aus dem Rechner Grenzen hat: Ein Algorithmus hatte die Wissenschaftlerin überzeugt, sich für etwas (völlig Absurdes) zu interessieren; er hatte sie von ihrer eigentlichen Suche abgelenkt – und sie gesteuert. „Menschen lassen sich leicht verleiten“, sagt Zweig. Es ist ihr großes Thema.

„Richtig gute“ Software heißt: ethisch vertretbare Software

Die Informatikerin Katharina Zweig von der TU Kaiserslautern will Moral und Software verknüpfen.
Die Informatikerin Katharina Zweig von der TU Kaiserslautern will Moral und Software verknüpfen. © Alex Kraus | Alex Kraus

Die Informatikerin beschäftigt sich jeden Tag mit Algorithmen, die sie als „Handlungsanweisungen an den Computer“ umschreibt. Zweig will wissen, wie diese Handlungsanweisungen den Menschen dienen können – und wann sie ihnen gefährlich werden.

In Kaiserslautern leitet die 41-Jährige den Studiengang Sozioinformatik, den es in der Form nirgendwo sonst in Deutschland gibt. Ihre Absolventen sollen „richtig gute Software“ herstellen, sagt sie. „Richtig gut“ heißt: ethisch vertretbar.

„Software hat Auswirkungen: Auf Individuen, Organisationen, Gesellschaft“, erklärt sie. „Aber wir denken zu wenig an die Folgen von Software für jeden Einzelnen.“ Und die Google-Suche nach Angela Merkel ist für Zweig der Beleg, dass der dort angewandte Algorithmus den Menschen falsch versteht.

Hinter den Formeln eine anschauliche Sprache finden

In ihrem Büro in Kaiserslautern hängen zwei große Whiteboards, darauf kryptische Formeln und Rechenschritte. Für Laien wirres Zeug. In der Welt der Informatiker ist Katharina Zweig aber eine Ausnahmeerscheinung. Sie versucht, hinter den Formeln eine anschauliche Sprache zu finden.

Sie will den Menschen Einfluss und Nutzen von Algorithmen näherbringen. Ohne die Mathematik in Rechnern und Software-Systemen könnte die Gesellschaft kaum mehr auskommen. Zweig erforscht, ob Algorithmen klüger sind als Menschen, ob sie verlässlicher sind.

Sind Algorithmen genial?

Wann soll der Mensch entscheiden, wann soll es der Rechner tun? Algorithmen stellen auf kürzestem Wege alle verfügbaren Informationen bereit, nach denen man sucht. Sie arbeiten schneller und genauer als das Hirn. Aber sind sie genial? Sind sie, wenn man so will, der bessere oder gerechtere Mensch?

Jedenfalls sind sie nicht zu stoppen. Sie helfen in Dating-Apps, den Traumpartner zu finden. Sie filtern Nachrichten. Und manchmal entwickeln sie eine unheimliche Macht. In China wird derzeit ein Punktesystem zur Bewertung von Bürgern erprobt.

Facebook will Nutzer mit neuer Dating-Funktion verkuppeln

weitere Videos

    Wer nicht auffällig wird, im Verkehr und politisch zurückhaltend ist, hat bessere Chancen auf einen Bankkredit. Die Daten entscheiden. Ab 2020 soll diese Orwellsche Sozialkontrolle in ganz China eingeführt werden. Dann beurteilt die Maschine, welcher Mensch gut, welcher böse ist.

    In den USA ersetzen Algorithmen schon Richter

    Undenkbar in einer Demokratie? Mitnichten. In den USA benutzen immer mehr Richter ein Computerprogramm, das errechnet, ob ein Straftäter rückfällig werden kann. Die Täter müssen mehr als 100 Fragen beantworten, dazu kommen Daten aus Strafakten. Das System spuckt dann eine Prognose über die Wiederholungsgefahr aus.

    So soll die Verbrechensbekämpfung effizienter werden – und die Urteile objektiver. Und das in einem Land, das schon heute wie kein anderes auf der Welt Menschen einsperrt. Auf 100.000 Einwohner kommen in den USA 670 Inhaftierte, vor allem Schwarze und Latinos.

    „Bei uns wird ein Täter als Individuum wahrgenommen“

    Zweig befasst sich derzeit intensiv mit den Algorithmen im US-Justizsystem. Gerade weil es in Deutschland nicht vorstellbar wäre, einer Software mehr zu vertrauen als einem Richter. „Bei uns wird ein Täter als Individuum wahrgenommen und so behandelt. Zu sagen, Täter XY sei genauso wie viele andere vor ihm, käme einer Art Sippenhaft gleich“, kritisiert sie.

    Als Informatikerin fragt sie sich, wie ein solcher Algorithmus wie in den USA „trainiert“ wird. Schließlich soll er aus den Daten klare Regeln ableiten und beurteilen, welcher Verbrecher am ehesten resozialisierbar ist und welcher lange ins Gefängnis sollte.

    Im besten Fall Software mit Moral verknüpfen

    Wie die Software zu den Ergebnissen kommt, ist oft intransparent. Auch ist nicht klar, wie sehr sie Urteile schon beeinflusst hat. „Der dortige Algorithmus packt Menschen in drei Klassen: Hohes Risiko einer Rückfälligkeit, mittleres Risiko, niedriges Risiko“, so Zweig. Doch Nachforschungen hätten ergeben: „Tatsächlich werden in der Hochrisikoklasse nur 60 Prozent rückfällig, nur 20 Prozent begehen wieder schwere Gewalttaten.“

    Eigentlich soll der Algorithmus Willkür von Richtern verhindern, doch agiert die Maschine vielleicht willkürlicher? „Man kann viele Fehler machen, wenn man ein algorithmisches Entscheidungssystem baut“, erklärt Zweig. Auch deswegen bildet sie „Sozioinformatiker“ aus, die im besten Fall Software mit Moral verknüpfen.

    Werbe-Mail für Penisverlängerungen

    „Lasst uns Daten sammeln. Lasst uns mit einem Algorithmus Besonderheiten feststellen. Aber jeder Algorithmus muss getestet werden“, sagt Zweig. „Wie kommt ein Ergebnis zustande: durch eine zufällige Verknüpfung oder eine echte Kausalität?“ So eine Überprüfung finde bisher kaum statt. Das weiß sie aus Erfahrung.

    Zweig erhielt vor einiger Zeit eine Werbe-Mail für Penisverlängerungen. „Warum krieg’ ich die? Vermutlich, weil ein Algorithmus mich als Mann kategorisiert hat“, erklärt sie. „Ich bin in einem Berufsfeld tätig, in dem eher Männer anzutreffen sind. Ich surfe auf Technikseiten herum, die fast ausschließlich von Männern aufgesucht werden. Ich werde also in vielen Datenbanken für einen Mann gehalten, und entsprechend muss da mal meine E-Mail-Adresse an Werbetreibende verkauft worden sein.“

    Daten könnten zu bahnbrechenden Erkenntnissen verhelfen

    Dass Algorithmen mehr schaden als nützen, will Zweig nicht glauben. Sie hofft, die Daten könnten der Menschheit vielmehr zu bahnbrechenden Erkenntnissen verhelfen, etwa bei der Heilung von „seltenen Krankheiten“.

    In der EU gilt eine Erkrankung als selten, wenn nicht mehr als fünf von 10.000 Menschen betroffen sind. Ein Arzt allein kann kaum etwas über sie lernen, weil er zu wenige Fälle hat. „Betrachtet man nun die ganze Welt, dann sind da auf einmal Zehntausende Menschen mit derselben seltenen Krankheit. Sie bieten eine Datenmenge, die kausale Zusammenhänge erkennen lassen.“ Ohne Algorithmen käme die medizinische Forschung demnach kaum weiter.

    Die Informatikerin vertraut nicht nur ihrer Wahrnehmung

    Katharina Zweig selbst auch nicht. Sie hat sich für die Benotung ihrer Studenten eine Art Algorithmus ausgedacht, der Fehlentscheidungen ausschließen soll.

    Für die Bewertung einer mündlichen Prüfung vertraut Zweig nicht nur ihrer Wahrnehmung, sondern zwei unterschiedlichen, von ihr entworfenen Kriterienkatalogen: „Es kommt vor, dass ich zuerst eher eine Drei geben würde, aber meine beiden Bewertungskataloge am Ende jeweils eine Zwei ergeben. Dann gebe ich natürlich eine Zwei.“