Stockholm/Berlin. Facebooks Algorithmen sollen den Nutzern das liefern, was sie am meisten interessieren könnte. Hilfreich sind sie auch für Pädophile.

Facebook ist wegen Fake News und seinem oft unzureichenden Einsatz gegen Hassbeiträge in der Diskussion. Zwei schwedische Zeitungen demonstrieren, dass das Netzwerk noch ein ganz anderes Problem hat: Die Algorithmen sind auch Handlanger für Pädophile und Kinderschänder. Das Netzwerk machte Journalisten mit Fake-Profilen Vorschläge, die schnell zu Bildern von Kindern mit zweideutigen Angeboten führten.

Bereits im vergangenen Jahr hatte eine BBC-Recherche öffentlich gemacht, dass es auf Facebook eine Reihe geheimer Gruppen gibt, in denen Nutzer kinderpornografisches Material und Bilder von Kindern und Jugendlichen mit obszönen Kommentaren austauschen. Vier Reporter der Zeitungen „Svenska Dagbladet“ und „Aftonbladet“ gingen nun noch einen Schritt weiter. Sie beobachteten, wie Facebook die Vorlieben eines Fake-Accounts mit pädophilen Neigungen bediente.

Nutzer likten „Kinderpornografie“

Deutsche Journalisten haben schon über Selbstversuche als AfD-Anhänger oder rechtsextremer Nutzer auf Facebook geschrieben. Sie machten dabei die Erfahrung, wie schnell sich dann in Facebook mit einem ganz anderen Newsfeed eine andere Welt auftun kann. Das erlebten die schwedischen Journalisten ganz ähnlich: Ihnen habe sich durch das Fake-Profil „eine Tür geöffnet, die den gewöhnlich netten Facebook-Feed in einen virtuellen Rotlichtbezirk verwandelt hat“, schreiben sie.

Sie hatten zuvor mit dem falschen Profil eines erfundenen 30-jährigen Mannes Gruppen und Bilder mit erotischen Inhalten gelikt, dazu etwa die automatisch generierten Themenseiten Pornografie und Kinderpornografie mit Wikipedia-Einträgen.

„Kinderpornografie“ als Interesse zu liken war in Schweden noch bis vor einer Woche möglich, schrieb Reporterin Lisa Röstlund unserer Redaktion. Für Nutzer mit deutschen Spracheinstellungen ist der Like-Button auf dieser Seite seit Mittwoch verschwunden. Facebook reagierte auf einen Hinweis unserer Redaktion. Zuvor war unsere Redaktion auch auf Dutzende Deutsche gestoßen, die die Seite gelikt hatten.

Facebook sieht Minderjährige ausreichend geschützt

Mit dem Fake-Account traten die Journalisten Gruppen bei, die mit mehrdeutigen Namen auch als Anlaufstationen für Opferhilfe verstanden werden können. Der Fake-Nutzer freundete sich mit anderen Mitgliedern dort an. Wenn die Journalisten nun in dem Fakeprofil ins Suchfeld etwas eingaben, schlug Facebook Mädchen aus Asien vor, oft mit freizügigen Fotos und Angeboten, mehr von sich zu zeigen oder mit ihnen zu spielen. Die Reporter stellen die Frage, „warum Facebooks Algorithmus junge Mädchen in Asien zusammenbringt mit Nutzern mit sexuellem Interesse an Kindern.“

Alleine das Liken von Interessen führt nach Darstellung von Facebook nicht dazu, dass dazu passende Kontakte vorgeschlagen werden. Bei dem Fakeprofil spielte offenbar die Vernetzung mit ähnlichen Profilen die entscheidende Rolle. Facebook verweist auch auf seine Technik: Wer minderjährig ist, kann aufgrund der Privatheitseinstellungen nicht einfach von fremden Erwachsenen kontaktiert werden. Kinder sind entsprechend geschützt – wenn sie ihr Alter richtig angegeben haben. In den asiatischen Accounts stießen die schwedischen Reporter allerdings oft auf eine Buchstabenkombination, die in der Szene als Code für „Unter 13“ gilt.

Professor: Facebook bedient Interessen

Für Hendrik Speck, Professor für Digitale Medien und Leiter des Information Architecture/Search Engine Labor der Fachhochschule Kaiserslautern ist die Frage technisch schnell beantwortet: „Wenn ein Nutzer seinen Hauptfokus auf bestimmtes Interessengebiet legt, sieht sich Facebook in der Pflicht, diese Interesse zu bedienen.“ Wie bei jedem anderen Produkt versuche Facebook zu ermitteln, was das Interesse des Nutzers treffe, um ihn zu möglichst intensiver Nutzung zu verleiten.“

Dazu greift Facebook auf seinen gigantischen Datenbestand zurück, um aus den Profilen von Nutzern mit vergleichbaren Interessen Vorhersagen treffen zu können. Dem Fake-Account wurde angezeigt, was bei anderen Accounts mit ähnlichen Eigenschaften bereits auf Resonanz gestoßen ist. Das ist komplexer als nur eine Einordnung in Interessenkategorien, „das ist eine mehrdimensionale Verknüpfung der verschiedenen Daten“, so Speck.

Facebook: „Böswillige, erfindungsreiche Nutzer“

Der Algorithmus liefert dabei neutral aus, was er findet, ohne Einordnung, ob diese Inhalte illegal sind. Technisch könne Facebook sehr wohl filtern, so Speck, und das an zwei Stellen: Bereits beim Aufbau des Profils könnte Facebook theoretisch bei bestimmten Verknüpfungen Alarmglocken schrillen lassen. Bei der Anzeige von Treffern könnte Facebook dann auch bestimmte Kombinationen ausschließen. Aber was technisch möglich ist, wird nicht unbedingt auch umgesetzt.

Ein Unternehmenssprecher erklärte unserer Redaktion, Facebook arbeite ständig daran, sein System und seine Prozesse so zu verbessern, dass Facebook ein sicherer Ort sei. Es gebe eine ständige Herausforderung für Facebook und die Kinderschutzorganisationen, mit denen das Netzwerk zusammenarbeitet: „Böswillige Nutzer können sehr erfindungsreich sein. Wann immer wir gegen eine bestimmte Art von missbräuchlicher Nutzung vorgehen, kommen sie mit etwas Neuem.“ Deshalb sei man dankbar für die Hinweise und habe sie bereits genutzt, um entsprechende Inhalte zu finden und zu löschen.

Software erkennt Bilder automatisch

Die schwedischen Journalisten berichteten, dass Facebook zwar diverse Postings, Profile und Gruppen gelöscht habe, nachdem die Zeitungen dem Netzwerk ihre Erkenntnisse weitergaben. Etliche andere Gruppen seien aber weiter zugänglich, sagen die Journalisten. Wenn es nicht eindeutig ist, sieht Facebook in seinen globalen Community-Standards keinen Grund zum Einschreiten.

Umgekehrt herum setzt Facebook aber auch bereits seit 2010 die Software PhotoDNA ein, um automatisch Bilder nackter Kinder zu erkennen und zu entfernen. Im vergangenen Jahr hatte das sogar zu der absurden Situation geführt, dass ein schwedischer Journalist für das Posten des ikonischen Foto des vietnamesischen „Napalm-Mädchens“ gesperrt wurde. Facebook entschuldigte sich später dafür.

Facebooks Problem: Es ist global

Experte Speck sagt, es sei im wirtschaftlichen Interesse von Facebook, populistische Beiträge, illegale und extreme Darstellungen möglichst früh zu erkennen. Facebook müsse dazu immer wieder durch geeignete Verfahren und Technologien reagieren. Zu bedenken sei aber, dass Facebook eine international operierende Plattform mit globaler Nutzerschaft und teilweise widersprechenden nationalen Wertemodellen sei. Sie treffe auf sich permanent verändernde Zensur- und Kontrollbestrebungen, sagt Speck.

Deshalb stehe Facebook vor besonderen Schwierigkeiten. „Wie definiert sich beispielsweise die gültige Gesetzgebung in einem internationalen Forum, insbesondere bei Nutzern, die ihre Herkunft vielleicht auch noch verschleiern?“ Facebook vermeide Firmensitze in anderen Ländern auch, um möglichst wenig Angriffsfläche für nationale Gesetze und Normen zu bieten.

Wann wird Schutz zu Zensur?

Frage sei aber auch, wann aus einem gesellschaftlich notwendigen Schutz von Kindern und Jugendlichen eine in vielen Staaten verbotene Zensur werde, und wo von wem die Grenze gezogen werde. Eine Debatte, die auch bei Hasspostings und Fake News geführt wird. Facebook wird auch dafür kritisiert, dass es prüde Fotos mit Brüsten sperrt und dabei auch oft vor Kunst und Statuen nicht Halt macht.

Auf der anderen Seite empören sich immer wieder Nutzer, wenn öffentlich gepostete Kinderfotos von Seiten geteilt werden, die die Kinder dort wie Auslage in einem Shop präsentieren. Was diese „Kinderladen“-Administratoren machen, ist aber zunächst völlig legal – und soll in diesen Fällen Mahnung auf die harte Tour sein, beim Posten von Fotos der eigenen Kinder vorsichtig zu sein.

Administrator „Wer kein echtes Inzestmaterial postet, fliegt“

Nach den Recherchen der schwedischen Reporter löschte Facebook zumindest viel von dem, was die Journalisten gefunden hatten. Die erstellten Profile waren glaubwürdig genug, um in geschlossene Gruppen aufgenommen zu werden. In einer fanden sie die klare Ansage des Administrators: „Wenn es in Euren Posts nicht um echte Inzesterlebnisse geht oder Eure Bilder nicht wirklich die Beteiligten zeigen, werden sie gelöscht. Das gilt für Fotos und Videos, also postet nur echtes Material.“ Mit einem Screenshot dokumentieren die Schweden auch, dass ein Nutzer fragte, wer Interesse an Bildern seines Kindes habe, insgesamt 2 Gigabyte.

Eine solche Frage beweist allerdings noch nichts – und wundert Wissenschaftler Speck: „Wenn jemand Facebook so unbedarft nutzen sollte, fehlen ihm wesentliche Grundverständnisse in Sachen Medienkompetenz.“

Vielen Nutzern ist aber sehr wohl bewusst, dass sie auf Facebook vorsichtiger sein müssen. Bei den Recherchen stießen die Schweden darauf, dass viele Nutzer schnell versuchten, auf andere, verschlüsselte Kommunikationswege zu wechseln.

Von Facebook gibt es einen Leitfaden, wie bei der Entdeckung von Fotos von Kindern in sexuellem Kontext vorgegangen werden soll. In elf Bundesländern können Anzeigen bei der jeweiligen „Onlinewache“ erstattet werden. Für Menschen, die wegen pädophiler Neigungen Hilfe suchen, hat das Präventionsnetzwerk „Kein Täter werden“ eine Webseite eingerichtet und bietet kostenlose Therapie unter Schweigepflicht an.