San Francisco. In den USA klagten Menschen, die Inhalte für Facebook prüfen, gegen das Online-Netzwerk, weil die Arbeit mit Gewalt und schlimmen Bildern sie krank gemacht habe. Facebook will sie jetzt entschädigen.

Facebook und seine Inhalte-Prüfer in den USA, die ihr Job krank gemacht hat, haben sich in einem Gerichtsverfahren auf eine Zahlung von 52 Millionen Dollar geeinigt.

Die betroffenen Beschäftigten sollen bei einer Diagnose wie einer posttraumatischen Belastungsstörung bis zu 50 000 Dollar für ihre Behandlungskosten bekommen, wie die Anwälte der Kläger am Dienstag mitteilten.

Die Menschen, die Inhalte beim Online-Netzwerk prüfen, müssen sich auch regelmäßig Szenen von Gewalt und Misshandlungen ansehen. Sie sind oft nicht direkt bei Facebook, sondern bei Dienstleistern angestellt. Im Herbst 2018 verklagte eine frühere Inhalte-Prüferin Facebook mit dem Vorwurf, sie habe durch die gesehenen Inhalte nach neun Monaten eine posttraumatische Belastungsstörung davongetragen.

Die nun erzielte Einigung, die noch vom zuständigen Richter gebilligt werden muss, gilt für mehr als 10.000 Menschen aus Kalifornien, Texas, Arizona und Florida, die seit 2015 für Facebook gearbeitet haben. Der Mindestbetrag liegt bei 1000 Dollar.

Facebook kündigte in der Einigung auch weitere Vorkehrungen zum Schutz der geistigen Gesundheit der Inhalte-Prüfer an. So soll bei Videos standardmäßig der Ton ausgeschaltet bleiben und sie in schwarz-weiß abgespielt werden.

Bewerber für die Jobs sollen speziell auf mentale Widerstandsfähigkeit geprüft werden, hieß es weiter. Man sei den Inhalte-Prüfern dankbar und werde sie auch über die Maßnahmen aus der Einigung hinaus unterstützen, erklärte das Online-Netzwerk.

Facebook setzt immer stärker Software ein, um Beiträge mit Gewalt, Kinderpornografie oder terroristischer Propaganda zu finden und zu löschen. Inzwischen würden rund 90 Prozent der verbotenen Inhalte entdeckt, noch bevor sie ein Nutzer zu sehen bekommt, betonte Facebook-Chef Mark Zuckerberg am Dienstag.

Vor zwei Jahren lag der Wert erst bei 24 Prozent. Bei Instagram würden 90 Prozent der Beiträge mit Bezug zu Selbstmord oder Menschen, die sich selbst Schaden zufügen, automatisch herausgefiltert.

Allerdings müssen oft auch noch menschliche Prüfer auf die Inhalte draufschauen, zum Beispiel um den Kontext von Äußerungen einzuschätzen, die Hassrede oder Beleidigungen enthalten könnten. Die Arbeitsbedingungen dieser Menschen vor allem in großen Zentren in Asien wurden immer wieder kritisiert.

In der Corona-Krise mussten auch die Inhalte-Prüfer ihren Arbeitsplatz nach Hause verlagern und das weckte auch Sorgen darüber, ob ihre mentale Gesundheit ausreichend geschützt werden kann.