Berlin.

Facebook isoliert und macht seine Nutzer intolerant. Zu diesem Ergebnis ist eine Gruppe italienischer und amerikanischer Forscher des US-Instituts „National Academy of Science“ in einer neuen Studie gekommen. Die Wissenschaftler untersuchten, wie genau sich Falschinformationen in sozialen Netzwerken verbreiten. Mithilfe von Datenmodellen werteten die Forscher um Alessandro Bessi von der Universität Southern California Tausende via Facebook und anderen sozialen Netzwerken geteilte Beiträge und ihre Verbreitung aus. Das Problem, das sie erkannten: Meist werden nur solche Inhalte ausgespielt, die laut Facebook-Algorithmus in das Weltbild des Nutzers passen.

Dieses als Filterblase bezeichnete Phänomen ist spätestens seit dem Brexit und der Wahl Donald Trumps zum US-Präsidenten ein Thema. Experten kritisierten Facebook schon während des US-Wahlkampfs dafür, keinen Einfluss auf dort verbreitete Falschmeldungen genommen und damit den Wahlsieg Trumps befördert zu haben.

Doch nicht nur der Algorithmus, der automatisch angezeigte Nachrichten auswählt, auch das Kommunikationsverhalten der Menschen selbst ist für die Forscher ein Problem. Denn selbst im direkten Gespräch würden Menschen dazu neigen, nur jene Dinge zu erzählen, von denen sie denken, dass der Gesprächspartner sie gerne hören würde.

Das führt dazu, dass sich Informationen verbreiten und mit Klicks bei Facebook belohnt werden – unabhängig davon, ob sie richtig oder falsch sind. „Nutzer zeigen die Tendenz, nach Dingen zu suchen, die ihre Einstellungen bestätigen“, sagte Forscher Alessandro Bessi dem US-Sender CNN. Statt sich selbst und die eigenen Ansichten zu hinterfragen, würden Nutzer unliebsame Informationen ausblenden – und der Algorithmus bei Facebook unterstütze dies. So bewegen sich viele Facebook-Nutzer laut Bessi in „einer homogenen Gruppe“, die Fremdes ausschließt. Um das zu verhindern, empfiehlt Bessi jedem Nutzer, Fakten zu prüfen, bevor er etwas in sozialen Netzwerken weiterverbreitet.