1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen
Politik

Wie Facebook seinen Ruf retten will

Helena Kaschel
16. Dezember 2016

Hetze, Falschmeldungen, eine undurchsichtige Löschpolitik: 2016 musste Facebook an mehreren Fronten gegen Imageschäden kämpfen. Jetzt denkt das Unternehmen um, unter anderem in Sachen Fake News - eine Gratwanderung.

https://p.dw.com/p/2UQjs
Facebook Fake News-Optionen
Teilen auf eigene Gefahr: So werden US-amerikanischen Nutzern demnächst Fake News bei Facebook angezeigtBild: picture-alliance/AP Photo/Facebook

Für die britische Zeitung The Guardian ist 2016 das Jahr, in dem Facebook zum "bad guy" wurde. Der Internet-Gigant blickt in vielerlei Hinsicht auf katastrophale zwölf Monate zurück: Während die Kritik an dem Umgang Facebooks mit Hasskommentaren nicht abreißt - die Süddeutsche Zeitung hat vor kurzem hinter die Kulissen des mysteriösen Löschapparats geschaut -, kämpft das Unternehmen längst gegen die nächste brisante Anschuldigung: Facebook ziehe sich beim Thema Fake News aus der Verantwortung, so der Vorwurf.

Zunächst kam das Dementi: Kurz nach der US-Wahl sorgte Facebook-Chef Mark Zuckerberg mit einem Statement für Aufruhr. Die Vorstellung, Facebook habe durch Untätigkeit gegenüber der Verbreitung von Fake News Donald Trump zum Wahlsieg verholfen, sei "eine ziemlich verrückte Idee". Eine Gruppe von Mitarbeitern probte daraufhin den Aufstand: Fünf Facebook-Angestellte wandten sich anonym an Buzzfeed. Man habe eine unabhängige Arbeitsgruppe organisiert, um Fake News zu bekämpfen. Kurz darauf meldete sich ein weiterer anonymer Facebook-Mitarbeiter zu Wort. Unabhängig von dem Zusammenschluss wütender Facebook-Beschäftigter bemühe sich das Unternehmen auch offiziell, eine Strategie gegen die Verbreitung von Fake News zu entwickeln.

Zusammenarbeit mit Faktencheck-Organisationen

Teile dieses Plans hat Facebook jetzt in einem Blogpost offengelegt. Verschiedene Maßnahmen sollen dabei helfen, das Grassieren von Fehlinformationen in dem sozialen Netzwerk einzudämmen. Zum Beispiel können Nutzer zukünftig Fake News melden. Unabhängige Organisationen führen anschließend einen Fakten-Check durch. Besteht der Beitrag diesen Test nicht, wird er Nutzern im Facebook-Feed als "umstritten" angezeigt. Ein weiterführender Link erklärt die Entscheidung der Fakten-Checker. Die Fake News können daraufhin zwar von Nutzern weiter verbreitet werden, allerdings nur mit einem Warnhinweis. Außerdem wird jeder Nutzer vorab gefragt, ob er den Beitrag wirklich teilen will.

Auch den Algorithmus will Facebook anpassen: Wenn Nutzer Artikel lesen, diese aber nicht teilen, bewertet Facebook die Beiträge schlechter. Fake News werden dadurch weniger häufig angezeigt. Außerdem will das soziale Netzwerk die finanziellen Anreize für die Verbreitung von Fake News verringern.

Facebook geht gegen Fake News vor

"Wenn ich eine 60-seitige Studie prüfen muss, wird es schwierig"

In einem Facebook-Post erklärt Mark Zuckerberg den Sinneswandel des Unternehmens: "Ich verstehe Facebook als Technologie-Unternehmen, aber ich sehe ein, dass wir eine größere Verantwortung haben, als Technologien zu schaffen, in denen Informationen verbreitet werden. Zwar schreiben wir die Nachrichten, die Sie lesen und teilen, nicht selbst, aber wir verstehen, dass wir mehr als eine Distributionsplattform sind. Wir sind eine neue Plattform für öffentlichen Diskurs." Zu stark will Facebook aber nicht eingreifen - und setzt im Kampf gegen Fake News auf die Nutzer. "Wir wollen Menschen eine Stimme geben und sind überzeugt, dass wir nicht Schiedsrichter über Wahrheit oder Unwahrheit sein können. Deshalb gehen wir dieses Problem vorsichtig an", heißt es in einer Mitteilung des Unternehmens. 

Markus Reuter beschäftigt sich bei Netzpolitik.org unter anderem mit digitalen Bürgerrechten und Hassrede. Er hält die Maßnahmen Facebooks für einen Schritt in die richtige Richtung: "Dieser Plan ist nicht so invasiv, dass er zu einer Zensur führt", sagt Reuter. Allerdings habe die Strategie einige Schwächen. Zum Beispiel könnten Nutzer im großen Stil Beiträge als Fake News melden, die ihnen nicht genehm sind, etwa mit der Hilfe von Social Bots. Außerdem sei der Faktencheck bei vielen Inhalten eine Herausforderung. "Eine wirklich an den Haaren herbeigezogene Meldung kann ich schnell überprüfen, aber wenn ich da eine 60-seitige Studie aus einer windigen Quelle prüfen muss, wird es schwierig. Da kommt man schnell in eine Grauzone", erklärt Reuter. Dabei komme es ja auch auf Schnelligkeit an: In der Zeit, in er ein Beitrag geprüft wird, könne er schon hunderttausendfach weiterverbreitet werden.

Vorerst keine Anti-Fake-News-Strategie für Deutschland

Dass Facebook in Sachen Fake News auf seine Nutzer setzt, findet Reuter richtig. "Es ist schwierig, Facebook einfach zu einem Medienunternehmen zu erklären. Wir haben im Moment die Tendenz einer Privatisierung dessen, was erlaubt ist und was nicht, auch in der Hate-Speech-Debatte. Viele finden, Facebook müsse alles machen, anstatt sich auf den Rechtsstaat zu verlassen. So macht man Facebook zum Richter und Henker gleichermaßen, das halte ich für gefährlich. Fragen der Meinungsfreiheit sollten vor Gericht entschieden werden."

Vorerst haben Nutzer in Deutschland nichts von den Anti-Fake-News-Maßnahmen. Die Strategie soll zunächst ausschließlich in den USA getestet werden - laut Reuter das übliche Verfahren. Er geht davon aus, "dass die Rufe in der Politik sehr laut sein werden, das auch in Deutschland einzuführen."

Zunächst sucht Facebook aber weiter nach einem neuen Head of News - ebenfalls eine Konsequenz aus dem Tumult-Jahr 2016. Wer den Job haben will, muss laut Facebook vor allem eines mitbringen: mehr als 20 Jahre Erfahrung in der Medienbranche.