1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen
Gesellschaft

Wie soziale Netzwerke zu Gewalt führen

Morgan Meaker ie
12. November 2018

Experten zufolge können die Algorithmen von Facebook & Co. Hass fördern. Auf Hetze und Falschinformationen in der Online-Welt folgt dann mitunter Gewalt in der Offline-Welt - ob in Myanmar, den USA oder Deutschland.

https://p.dw.com/p/386Xg
Facebook Symbolbild Hate Speech
Bild: picture-alliance/dpa/J.W.Alker

Als eine Buddhistin in Myanmar zur Polizei ging und berichtete, dass zwei muslimische Kollegen sie vergewaltigt hätten, verbreitete ein Mönch die Details der mutmaßlichen Tat auf Facebook. Damit löste er eine Welle der Empörung aus, die auch in Gewalt im echten Leben umschlug: Zwei Tage lang kam es in der Stadt Mandalay immer wieder zu Zusammenstößen zwischen Buddhisten, die in Myanmar die Mehrheit sind, und Muslimen.

Die traurige Bilanz: Zwei Menschen wurden getötet und 19 verletzt. Die Behörden konnten erst wieder Frieden herstellen, indem sie den Zugang zu Facebook vorübergehend sperrten. Später stellte sich heraus, dass der Vergewaltigungsvorwurf, der buddhistische Randalierer auf den Plan gerufen hatte, nicht stimmte. Fünf Menschen wurden wegen Verbreitung falscher Gerüchte verurteilt - inklusive des mutmaßlichen Opfers. Dieses hatte später angegeben, dass es dafür bezahlt worden war, der Polizei eine Vergewaltigung zu melden.

Der Vorfall aus dem Jahr 2014 kann heute als frühzeitiges Warnsignal verstanden werden. Er zeigt, wie sich aus Fake News, die in sozialen Netzwerken geteilt werden, handfeste Gewalt entwickeln kann. In Myanmar - wo seit dem letzten Jahr über 700.000 Angehörige der muslimischen Minderheit der Rohingya außer Landes geflohen sind - ist Facebook zum Nährboden für ethnische Gewalt geworden.

Vorprogrammiert: So erkennt man Fake News

Soziale Netzwerke können Vorurteile verstärken

Letzte Woche veröffentlichte die Non-Profit-Organisation "Business for Social Responsability" (BSR) einen Bericht, der zeigt: Einige User nutzen Facebook aus, um zu Gewalt in der Offline-Welt anzustiften. Im Bericht wird der Frage nachgegangen, wie Nutzer sozialer Netzwerke durch Falschinformationen manipuliert und zu Gewalt aufgestachelt werden können. Zwar gab und gibt es auch ohne Online-Plattformen Gewalt zwischen verschiedenen gesellschaftlichen Gruppen. Doch die Art und Weise, wie soziale Medien emotionale und polarisierende Inhalte pushen, führt dazu, dass bestehende Vorurteile weiter eskalieren.

Die von Facebook selbst in Auftrag gegebene Studie benennt Myanmars politische Atmosphäre als Teil des Problems. Jedoch ist durch Social Media befeuerte Gewalt ein Phänomen, dass auch viele andere Länder betrifft, etwa Sri Lanka, Indonesien, Mexiko, die USA und Deutschland.

So veröffentlichten Forscher der britischen Universität Warwick kürzlich eine Studie, die Angriffe auf Flüchtlinge in Deutschland zwischen 2015 und 2017 untersucht. Das Ergebnis: Verbrechen gegen Flüchtlinge fanden vor allem dann statt, wenn Facebook viel genutzt wurde und die rechtspopulistische Partei AfD flüchtlingsfeindliche Beiträge auf der Plattform teilte. Es wird deutlich, dass einige Nutzer die verzerrte Version der Realität, die sie online mitbekommen, so ernst nehmen, dass sie mitunter zur Tat übergehen.

Infografik Entwicklung flüchtlingsfeindlicher Posts und Angriffe DE

Kultur des Hasses

Bharath Ganesh vom Oxford Internet Institute beobachtet die Verzerrung der Realität unter Anhängern rechter Gruppierungen. "Online-Plattformen werden von diesen Menschen genutzt, um eine Kultur zu schaffen, in der Hass, Verunglimpfung und Entmenschlichung von Anderen in Ordnung sind", so Ganesh. 

In Chemnitz etwa sorgten falsche Gerüchte auf Twitter und Facebook dafür, dass circa 6000 Menschen im August an einer rechten Demonstration teilnahmen. Im US-amerikanischen Charlottesville konnte man ein Jahr zuvor rechte Protestler Slogans skandieren hören, die mit Verschwörungstheorien aus dem Internet zu tun hatten.

Wissenschaftlern zufolge kann die Funktionsweise von Plattformen wie Facebook und Youtube die Verbreitung von Verschwörungstheorien und extremen Standpunkte stark fördern. Um Nutzer solange wie möglich auf ihren Seiten zu halten, operieren Facebook & Co. nämlich mit Algorithmen, die Menschen bevorzugt Beiträge von Nutzern zeigen, die eine ähnliche Meinung wie sie selbst haben. Doch genau dies kann dazu führen, dass Menschen nur noch in Filterblasen agieren, in denen sie ihre Weltsicht nicht mehr infrage stellen müssen.

Radikalisierung in Filterblasen

Linda Schlegel, Referentin für Terrorismusabwehr und Konfliktmanagement bei der Konrad-Adenauer-Stiftung, spricht in diesem Zusammenhang von "digitalisierten Terroristen". Filterblasen betreffen ihr zufolge alle Nutzer sozialer Netzwerke, "aber wenn die Filterblase extreme Ansichten beinhaltet und bestimmte Perspektiven immer wieder als die Wahrheit dargestellt werden, kann das zu einer Radikalisierung führen".

Guillaume Chaslot, der drei Jahre lang als Software-Ingenieur am Algorithmus von Youtube mitgearbeitet hat, betont, dass Filterblasen auch einen negativen Effekt auf den öffentlichen Diskurs haben. 2016 rief er deshalb Algotransparency ins Leben, eine Seite, die über den Youtube-Algorithmus aufklärt.

Vorprogrammiert: Wie entstehen Filterblasen?

Zwar habe Youtube sich verändert, seit er 2013 das Unternehmen verließ, doch nicht genug, wie Chaslot findet: "Das grundsätzliche Problem bleibt weiter bestehen. Der Algortihmus dient vor allem dazu, die Zeit zu maximieren, die Nutzer mit dem Schauen von Videos verbringen, und damit die Werbeeinnahmen."

Kontroverse Videos bringen viel Geld

Und viele Nutzer werden nun einmal am meisten von kontroversen und polarisierenden Videos angesprochen. Chaslot vergleicht den Mechanismus mit einem Straßenkampf: Entweder die Leute drumherum machen mit, versuchen ihn zu beenden, oder sie bleiben stehen und gucken nur.

Wenn der Youtube-Algorithmus ein Video erkennt, das Potenzial für einen solchen Straßenkampf-Mechanismus habe, pusht er es. Das Video bekommt dann mehr Views, mehr Leute verbringen mehr Zeit auf Youtube und Youtube macht mehr Geld mit Werbung. Die Video-Plattform verbreitet also aktiv derartige Inhalte - zum Beispiel Verschwörungstheorien.

Chaslot nennt ein Beispiel: Einen Tag vor dem Attentat auf eine Synagoge in Pittsburgh letzten Monat habe Algotransparency bemerkt, dass Youtube ein Video promotete, in dem der Verschwörungstheoretiker David Icke gegen den jüdischen Milliardär und Philantrophen George Soros mobil machte. Soros soll demnach angeblich "politische Ereignisse weltweit manipulieren". Als der Algorithmus begann, das Video zu promoten, hatten es weniger als 1000 Nutzer gesehen - nun hat es fast 70.000 Views.

Mittlerweile äußern immer mehr Menschen Bedenken über die Art und Weise, wie soziale Netzwerke und Online-Plattformen ihre Inhalte verwalten. Denn was die Werbeeinnahmen steigert, ist oft genau das, was auch gewalttätige Kräfte entfesselt. "Ich denke, das alles schadet der Gesellschaft auf Dauer sehr", erklärt Chaslot, "aber das kann der Algorithmus nicht messen."