Berlin. Facebook steht wegen kritischer Inhalte in der Kritik. Nun zeigen geleakte Dokumente, wie das Netzwerk dagegen vorgeht.

  • Facebook steht in der Kritik, gemeldete Inhalte nicht schnell genug zu löschen
  • Dokumente zeigen, dass sich das Unternehmen nun aber bessern will
  • Die Arbeitsbedingungen der „Lösch-Teams“ sind nicht einfach

Erstmals haben Journalisten einen Einblick in die Richtlinien bekommen, mit denen Facebook gegen kritischen Inhalte vorgehen will. Der britische „Guardian“ berichtet über rund 100 Dokumente, die den digitalen Lösch-Einheiten zeigen sollen, wie sie mit Hasskommentaren, mit verstörenden Bildern, mit Sex, Gewalt und Terror umzugehen haben.

Die geleakten Dokumente – darunter Schulungsunterlagen, Präsentationen und Diagramme, in die auch die „Süddeutsche Zeitung (SZ)“ einen Einblick hatte – scheinen zumindest den Vorwurf ausräumen zu können, das soziale Netzwerk nehme das Problem nicht ernst. „Die Dokumente zeigen, dass sich der Konzern bemüht, das Problem in den Griff zu bekommen“, heißt es etwa in der „SZ“. Unproblematisch sei das Ganze jedoch nicht.

„Fick dich und stirb“ ist okay

Die Richtlinien seien sehr komplex und ließen die Mitarbeiter oft mit schwierigen Entscheidungen zurück. Beispiele: „Jemand soll Trump erschießen“ würde Facebook laut „Guardian“ lieber gelöscht sehen, weil Donald Trump als Staatsoberhaupt einen besonderen Schutz genieße. Andere Promis wiederum, also Menschen mit mehr als 100.000 Followern auf einer Social-Media-Plattform, würden hingegen als „öffentliche Personen“ weniger Schutz verdienen als Privatpersonen.

Darum muss Facebook 110 Millionen Euro Strafe zahlen

weitere Videos

    Auch Äußerungen wie „Fick dich und stirb“, „Lasst uns fette Kinder fertig machen“ oder „Ihr Arschlöcher solltet zu Gott beten, dass ich klar im Kopf bleibe, denn wenn nicht, werde ich Hunderte von euch töten“ stellen laut „Guardian“ für Facebook kein Problem dar, weil es sich nicht um glaubwürdige Drohungen handele, sondern lediglich um Ausdrücke heftiger Emotionen, die nicht gegen die Richtlinien verstoßen.

    Missbrauchs-Videos werden nicht automatisch gelöscht

    Auch der Umgang mit Live-Videos scheint kompliziert zu sein. Zuletzt waren Live-Clips in die Schlagzeilen geraten, weil sie immer öfter Gewaltausbrüche, sogar Vergewaltigungen und Morde zeigten und noch einige Zeit im Netz verfügbar waren. So gelte etwa für Videos von nicht-sexuellem Kindesmissbrauch oder Tierquälerei, dass die Inhalte nicht automatisch zu löschen seien, weil sie im ersten Fall helfen könnten, dem Kind zu helfen, und weil sie im zweiten Fall die Sensibilität für das Thema erhöhen könnten.

    All das sind Beispiele dafür, dass die Frage „löschen oder lassen?“ auf der Grundlage der Facebook-Richtlinien nicht immer einfach zu beantworten ist. Schwierige Entscheidungen, für die die Mitarbeiter allerdings nur Sekunden haben. Überhaupt seien neben den Inhalten selbst auch die Arbeitsbedingungen derjenigen, die sie überwachen sollen, ein großes Problem.

    Thailänder stellt Videos von Mord an Tochter auf Facebook

    weitere Videos

      Schwierige Arbeitsbedingungen für Lösch-Teams

      Eine Recherche der „SZ“ aus dem Dezember 2016 hatte ergeben, dass Mitarbeiter eines Dienstleisters, der für Facebook löscht, wenig verdienen und wenig psychologische Unterstützung erhalten, obwohl sie täglich Bilder und Videos von Gewalt, Mord und Missbrauch zu sehen bekommen.

      Speziell in Deutschland war der Druck auf Facebook wegen kritischer Inhalte zuletzt immer größer geworden. Justizminister Heiko Maas will soziale Netzwerke per Gesetz verpflichten, rechtswidrige Inhalte schnellstmöglich zu verbannen. Verstöße sollen mit Geldbußen geahndet werden.

      Eine erste Reaktion hatte Mark Zuckerberg Anfang Mai gezeigt. Der Facebook-Chef hatte angekündigt, bald 3000 neue Mitarbeiter für die Überwachung kritischer Postings einzustellen – bislang waren dafür 4500 zuständig. Ob sie bei Facebook selbst oder bei Dienstleistern angesiedelt werden, ist bislang unklar.