1. Inhalt
  2. Navigation
  3. Weitere Inhalte
  4. Metanavigation
  5. Suche
  6. Choose from 30 Languages

Digitalisierung

Facebook: Was wird gelöscht, was nicht?

"Meinungsfreiheit", rufen die einen. "Hasskommentare", "brutale Gewalt", schimpfen andere. Ein Bericht des britischen "Guardian" bringt nun etwas Klarheit bei der Frage: Nach welchen Regeln arbeitet Facebook eigentlich?

Ein grüner Haken oder ein rotes Kreuz machen den Unterschied. Grün bedeutet: Das geht noch. Rot heißt: Löschen!! Ein paar Beispiele gefällig? Die Aufforderung, übergewichtige Kinder zu schlagen ("Let's beat up fat kids"), lässt Facebook durchgehen. Auch als rothaariges Opfer von Gewaltaufrufen hat eine Beschwerde keine Folgen ("Kick a person with red hair"). Anders sieht es aus, wenn jemand zum Attentat auf den US-Präsidenten ("Someone shoot Trump") oder zu Messerattacken auf Juden aufruft ("#stab and become the fear of the zionist"). Dafür gibt es ein rotes Kreuz, die Beiträge sollten gelöscht werden.

Das soziale Netzwerk Facebook und sein Umgang mit Hass und Gewalt: Selbst EU- oder Bundesbehörden haben da ihre Schwierigkeiten, genaue Informationen zu erhalten. Wie geht Facebook vor? Wo greift das Netzwerk, das man längst auch als Medienkonzern begreifen kann, ein?

Der britische "Guardian" hat in dieser Woche etwas Klarheit geschaffen und Facebooks internes Regelwerk über Sex, Terrorismus und Gewalt veröffentlicht. Dem Blatt sind auf mehr als 100 internen Folien die Schulungsunterlagen zugespielt worden. So können die Leser einen Eindruck davon bekommen, wie Facebook versucht, das Problem in den Griff zu bekommen. Denn der Konzern von Mark Zuckerberg steht hier inzwischen international unter massivem Druck.

"Permanent beschäftigt, nachzubessern"

"Facebook hat keine Kontrolle über den Content", zitiert der "Guardian" einen internen Informanten, der ungenannt bleiben will. "Es ist zu schnell zu groß geworden." In Deutschland hat Markus Reuter von der Organisation Netzpolitik.org seit Jahren einen Blick auf das Problem. "Facebook ist eigentlich permanent damit beschäftigt, nachzubessern", sagt Reuter der Deutschen Welle. "Deutlich wird auch, dass dies inzwischen eine riesige Aufgabe geworden ist." Reuter selbst ist aufgefallen, dass manchmal die Frage des Mediums - Foto oder Video - eine Rolle spielt, wie etwa bei diesem Beispiel von Tierquälerei.

 

Ist das schon Sadismus? Aus den Facebook-Unterlagen geht folgende Regel hervor: "Wir erlauben Nutzern nicht, Photos oder Videos zu teilen, auf denen Menschen oder Tiere sterben oder verletzt werden, wenn gleichzeitig Sadismus ausgedrückt wird."

Also kommt es nicht so sehr auf den Bildeindruck an als auf das, was die Nutzer dazu zu sagen haben? Wie problematisch dieses Feld ist, macht ein Beispiel aus den USA deutlich, das Markus Reuter nennt: ein Video, das die Tötung eines Schwarzen durch die Polizei dokumentiert und die Polizei Facebook zum Löschen aufruft.

USA Facebook-Zentrale (DW/C. Chimoy)

"Was geht Dir durch den Kopf?" Die Frage stellt Facebook nicht nur den eigenen Mitarbeitern in der US-Zentrale. Sie stellt sich auch immer häufiger, was die Nutzer des Netzwerks angeht

Das Unternehmen selbst gibt sich in dieser Angelegenheit in aller Regel wortkarg. "Wir haben mittlerweile fast zwei Milliarden Nutzer. Und da ist es sehr schwer, einen Konsens herzustellen darüber, was erlaubt sein kann und was nicht", zitiert der "Guardian" Monika Bickert, die bei Facebook als "Head of Global Policy Management" fungiert. Vielleicht ist auch der Anspruch, weltweit gültige Regeln aufzustellen, zu ambitioniert. "In Deutschland ist es etwas anderes als etwa in Thailand, wenn es um Majestätsbeleidigung geht", sagt Netzpolitik-Experte Reuter, derFacebooks  intransparente Löschregeln auf einen Blick zusammengefasst hat. 

Presseberichten zufolge sind für das Unternehmen inzwischen weltweit etwa 4.500 sogenannte Moderatoren im Einsatz, die sich um die Inhalte der Facebook-Seiten kümmern. Im Dezember berichtete die "Süddeutsche Zeitung" unter dem Titel"Inside Facebook" im "Süddeutsche Zeitung Magazin" über die Arbeitsbedingungen dieser Moderatoren in Deutschland, die bei der Bertelsmann-Tochterfirma Arvato im Auftrag von Facebook in Sekundenschnelle über das Löschen von Inhalten zu entscheiden haben. Schlecht bezahlt, unzureichend psychologisch betreut. 

"Was wir uns von Facebook wünschen würden, ist mehr Transparenz", sagt Netz-Experte Reuter der DW. Also: Alle Vierteljahre zum Beispiel einen Bericht, was und wie viel gelöscht wurde. Dies würde mehr helfen als etwa ein "Netzwerkdurchsetzungsgesetz" von Justizminister Heiko Maas, wo am Ende nach Kriterien des Staates entschieden werde, was noch Meinungsfreiheit sei. Und was nicht mehr.

"Es ist auch eine Kostenfrage", fügt Reuter hinzu. Sieben bis zwölf Sekunden Zeit bleiben einem der Facebook-Moderatoren, um darüber zu entscheiden: Löschen oder nicht? Selbst brutalste Hate-Speech-Autoren dürften sich da mehr Zeit nehmen.    

WWW-Links