1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen

Facebook konkretisiert Nutzer-Regeln

16. März 2015

Immer wieder wurde Facebook für seine undurchsichtigen Regeln kritisiert. Jetzt geht das Social Media Netzwerk in die Offensive und gibt ausführliche Beispiele dafür, was erlaubt ist und was nicht.

https://p.dw.com/p/1Erep
Die Startseite von Facebook (Foto: AP)
Bild: dapd

1,4 Milliarden Menschen nutzen Facebook weltweit. Und so unterschiedlich wie die einzelnen Nutzer sind auch die Inhalte, die sie in dem sozialen Netzwerk posten und teilen. Facebook hatte deshalb Gemeinschaftsstandards und Regeln für unerwünschte Inhalte eingeführt, doch offenbar gab es weiteren Klärungsbedarf.

Viele Nutzer hätten sich eine verständlichere Erklärung dafür gewünscht, was erlaubt oder nicht erlaubt ist, sagte Facebook-Sprecherin Monika Bickert. Als Reaktion darauf wurde in der Nacht zum Montag eine neue Version der sogenannten "Gemeinschaftsstandards" veröffentlicht. "Wir ändern unsere Regeln nicht, sondern wollen den Nutzern nur mehr Klarheit darüber verschaffen, wo und warum wir Grenzen ziehen", so Bickert.

Mehr Beispiele als bisher

Statt eines einzelnen Textes mit elf Kapiteln gibt es nun eine Website mit Links zu verschiedenen Themen und mehr Beispielen als bisher. Zum Beispiel im Umgang mit Nackheit. So heißt es auf der neuen Seite: "Wir entfernen Fotos von Personen, auf denen Genitalien oder vollständig entblößte Pobacken zu sehen sind. Außerdem beschränken wir Bilder mit weiblichen Brüsten, wenn darauf Brustwarzen zu sehen sind." Fotos von Frauen beim Stillen oder Vernarbungen nach Brustamputationen seien jedoch erlaubt. Neu sind auch die einzelnen Abschnite über sexuelle Ausbeutung und Inhalte terroristischer Organisationen.

Suche als tägliche Herausforderung

Für Facebook selbst ist die Umsetzung der Regeln eine tägliche Herausforderung. Laut Sprecherin Bickert arbeiten hunderte Mitarbeiter daran, untersagte Inhalte zu entfernen. Ihnen blieben oft nur wenige Informationen über den Zusammenhang eines Bildes. "Selbst ein Foto aus der Schule, unter dem einfach nur 'Nettes Kleid' steht, kann unter Umständen als Mobbing gemeint sein", gab Bickert zu bedenken. "Ähnlich kann ein Bild, auf dem Gewalt zu sehen ist, geteilt werden, um sie zu verurteilen, oder um sie zu zelebrieren." Unterstützung bei der Suche nach unerwünschten Inhalten bekommen die Mitarbeiter dabei von einer Software, die aktiv nach entsprechenden Bildern sucht.

Facebook war in der Vergangenheit immer wieder wegen Entscheidungen zu einzelnen Inhalten kritisiert worden. Zum Beispiel, weil Bilder von Protesten oder Fotos von Kunstwerken mit Nacktheit entfernt wurden.

djo/mm (afp, dpa)