Berlin. Sabine Bendiek, Chefin von Microsoft Deutschland, spricht über künstliche Intelligenz, Algorithmen als Jobkiller und über Datenschutz.

Künstliche Intelligenz (KI) elektrisiert fast alle großen Unternehmen. Vergangene Woche erst erklärte Google-Chef Sundar Pichai auf einer Entwicklerkonferenz, dass alle Produkte des Internet-Giganten dank KI künftig noch besser werden sollen. Gleichzeitig erzeugt KI bei vielen Menschen Unbehagen, ja sogar Angst – vor einer drohenden Herrschaft der Maschinen. Sabine Bendiek, Chefin von Microsoft Deutschland, glaubt an ein großes Missverständnis.

Frau Bendiek, warum brauchen wir eigentlich künstliche Intelligenz?

Sabine Bendiek: Maschinen helfen uns dabei, die Fähigkeiten des Menschen zu verbessern. Sie können uns produktiver machen, können uns helfen, Fehler zu vermeiden. Denken Sie etwa an selbstfahrende Lkw, die keine Auffahrunfälle mehr verursachen, weil der Bremsassistent nichtmüde wird. Außerdem werden Maschinen auch zunehmend besser in der Zusammenarbeit mit uns Menschen – und das ist tatsächlich ein Verdienst von künstlicher Intelligenz.

Wenn über künstliche Intelligenz geredet wird, klingt das manchmal nach etwas, das sich noch verhindern ließe.

Wenn wir unsere Produkte anschauen, dann steckt da mittlerweile überall Intelligenz drin. Letztlich beschreibt KI auch nichts anderes als Dienste, die in der Lage sind, große Datenmengen anzunehmen und über sogenannte Deep-Learning-Algorithmen daraus Schlüsse zu ziehen. Unsere digitale Assistentin Cortana, die man mögen kann oder nicht, im Wettbewerb mit Alexa und wie auch sonst die diversen Damen heißen – überall steckt KI drin. Selbst das Navi, das den schnellsten Weg zur Arbeit vorschlägt, greift auf künstliche Intelligenz zurück, um den Arbeitsweg überhaupt als solchen zu erkennen und proaktiv eine schnellere Route vorzuschlagen.

Sabine Bendiek ist Chefin von Microsoft Deutschland.
Sabine Bendiek ist Chefin von Microsoft Deutschland. © BM | Microsoft

Solche Dienste können heute nicht nur die ganz großen Konzerne anbieten, sondern auch kleine Start-ups. Ermöglicht wird das durch den massiven Zuwachs an Cloud-Infrastruktur und den damit einhergehenden Zuwachs an potenzieller Rechenleistung, Skalierbarkeit und natürlich der Vernetzung. Niemand muss in teure Rechenzentren investieren, jeder kann Rechenpower einfach nach Bedarf buchen.

Viele Menschen begegnen dem Thema künstliche Intelligenz mindestens mit Argwohn, teilweise sogar mit Angst. Woran liegt das?

Diese Angst hat meiner Meinung nach vor allem mit bestimmten Bildern zu tun, die wir zu diesem Thema im Kopf haben. Geben Sie einfach mal „künstliche Intelligenz“ in eine Suchmaschine ein – da werden Ihnen dann als Erstes Bilder von Mensch-Maschine-Wesen angezeigt – auch wenn das mit der künstlichen Intelligenz, von der wir reden, eigentlich gar nichts zu tun hat.

Warum glauben Sie, fühlen Menschen sich von diesen Science-Fiction-Bildern bedroht?

Etwas, was darin sehr stark impliziert ist, ist eine völlige Verschmelzung. Und dann folgt die Frage: Wenn wir verschmelzen, gewinnt dann nicht die Maschine, die so schnell rechnen kann, die so viel mehr Speicherkapazität hat? Es geht um die Angst vor einem Kontrollverlust. Aber wenn man ganz rational an das Thema herangeht, dann stellen wir fest, dass wir schon lange Industrieroboter haben, die uns an Kraft deutlich überlegen sind, aber niemand würde wohl sagen, dass solche Industrieroboter schlauer oder besser sind als wir Menschen.

Genauso ist es auch mit künstlicher Intelligenz. Sie unterscheidet sich grundlegend von menschlicher Intelligenz. Maschinen-Intelligenz ist etwas, was auf Basis großer Datenmengen entstanden ist und auf Basis von Verbesserungen in den Algorithmen – wie die Maschinen die Daten verwenden und daraus tatsächlich lernen. Das ist etwas völlig anderes als menschliche Kreativität, Intuition und natürlich Empathie. Wenn Sie unserer Cloud-Plattform Azure den Auftrag geben, Tolstois „Krieg und Frieden“ vom Russischen ins Englische zu übersetzen, dann ist das System nach 2,9 Sekunden fertig damit. Sachlich ist die auch richtig – aber ist das eine Übersetzung, die beim Menschen das auslöst, was eine gute Übersetzung von Tolstois Roman auslöst? Die Antwort ist wohl: nein. Und es gibt wirklich noch viele andere Themen und Bereiche, bei denen die Maschinen heute längst nicht so weit sind und mittelfristig auch nicht hinkommen werden.

Nun mag künstliche Intelligenz in absehbarer Zeit keine Romane schreiben oder übersetzen, aber ist die Angst, dass KI bestimmte Arbeitsplätze überflüssig machen könnte, nicht auch ein Stück weit berechtigt?

Ja, natürlich – und da müssen wir auch sehr ehrlich sein. Wir werden mit dem nächsten anstehenden Technologiesprung durchaus Veränderungen im Arbeitsmarkt sehen. Dabei werden bestimmte Jobs wegfallen, gleichzeitig gibt es aber auch viele neue Jobs, die dann entstehen werden. Nun muss man auch so ehrlich sein und sagen, diejenigen, deren Arbeitsplätze wegfallen, können vermutlich nicht ohne Weiteres und ohne Hilfe einen dieser neuen, digitalen Jobs übernehmen. Und an dieses Thema müssen wir als Gesellschaft, also Unternehmen, Politik, Schulen, Aus- und Weiterbildungssysteme, natürlich ran.

Deutschland ist in digitalen Belangen ja speziell: Woanders stellt Microsoft seinen digitalen Assistenten Cortana vor, und Kunden probieren ihn neugierig aus. In Deutschland fragt man zuerst: Und wie schalte ich das ab? Wie geht Microsoft mit dieser Herausforderung um?

Wir sehen den deutschen Markt sehr positiv als einen strukturell sehr anderen Markt. Und ja, er hält uns sehr ehrlich im Sinne von Datenschutz, Datensicherheit und in der Fähigkeit zu kommunizieren, was wir machen und wie wir es machen. Ich glaube, man sieht Deutschland immer als Prüfstein, ob wir es durchdacht haben, ob wir es richtig machen. Aber Microsoft versucht auch genau zuzuhören: Wir sehen uns ja nicht als amerikanischer Konzern, sondern wollen wirklich ein guter Bürger in dem jeweiligen Land sein, in dem wir aktiv sind.

Datenschutz ist hierzulande ein besonderes Thema. Die Verbraucherzentralen forderten jüngst einen Algorithmus-Tüv, der prüft, wie Programme mit den Daten der Anwender umgehen. Haben Sie Verständnis für die Forderung?

Letztlich steht hinter dieser Forderung ja die Frage, was man machen muss, um sicherzustellen, dass der Umgang mit den Daten sauber bleibt. Und die ist gar nicht falsch, eine Prüfbehörde wäre aber die falsche Antwort. Ich glaube auch, dass Hersteller in irgendeiner Form offenlegen sollten, wie sie mit den Daten umgehen, etwa durch ein entsprechendes Gütesiegel. Aber eine Behörde, die das einzeln prüft? Da werden wir wahnsinnig.