Minderheit steuert Hass-Kampagnen im Netz
20. Februar 2018- Wie durch ein Brennglas wird die Meinung einer winzigen Gruppe im Internet vergrößert.
- Durch zeitlich koordinierte Aktionen können wenige Trolle ganze Debatten kontrollieren.
- Auch für den Bundestagswahlkampf 2017 lassen sich solche gezielten Desinformationskampagnen nachweisen.
Für viele Hass-Kommentare im Internet ist Experten zufolge eine verschwindend kleine Minderheit der Nutzer verantwortlich. Das zeigt eine aktuelle Untersuchung von hunderten Diskussionen in sozialen Netzwerken, die dem Norddeutschen Rundfunk (NDR) in Hamburg vorliegt.
Bei Hass-Kommentaren auf Facebook geht demnach die Hälfte der Likes - also Klicks, die Zustimmung signalisieren - auf nur fünf Prozent der Accounts zurück. In dieser lautstarken Minderheit gebe es außerdem einen extrem aktiven Kern. So lassen sich der Analyse zufolge 25 Prozent der Likes auf nur ein Prozent der Profile zurückführen. Diese sehr aktiven Nutzer gingen oft gemeinsam vor, zumindest bei Diskussionen, in denen Hass-Inhalte eine Rolle spielen. Dagegen seien sie bei anderen Themen oft weitgehend passiv.
18.000 Kommentare ausgewertet
Für die Studie in Kooperation mit dem Institute for Strategic Dialogue in London (ISD) wertete der IT-Experte Philip Kreißel 3000 Veröffentlichungen und 18.000 Kommentare auf Facebook im Januar zu Beiträgen von "Bild", "Focus Online", "Kronen-Zeitung", "Spiegel Online", "tagesschau.de", "Welt" und den ZDF-"heute"-Nachrichten aus.
Ein Ergebnis der Analyse: Die meisten Nutzer der bei Hass-Inhalten sehr aktiven Accounts lassen sich als Anhänger von AfD und den sogenannten Identitären identifizieren. "Rechte Gruppierungen versuchen, gezielt die Facebook-Algorithmen zu manipulieren. Dazu einigen sie sich auf Uhrzeiten und Hashtags, um diese in die Top-Trends zu katapultieren", sagte Julia Ebner vom Institut für Strategic Dialogue dem NDR.
Facebook pusht polarisierende Debatten
Diese Kampagnen auf den Medienseiten würden mit zahlreichen gefälschten Accounts von rechtsextremen Kreisen koordiniert durchgeführt. Dadurch könnten sie den Online-Diskurs bestimmen. Nach Philip Kreißels Einschätzung zeigen die Statistiken eine "monumentale Täuschung": Anderen Nutzern und den Administratoren der Medienseiten - und auch dem News-Algorithmus von Facebook - werde suggeriert, dass bestimmte Themen eine große Öffentlichkeit beschäftigten, so der IT-Experte.
Tatsächlich stecke dahinter nur eine lautstarke Minderheit, die von der Funktionsweise von Facebook profitiere: Der Facebook-Algorithmus beschere polarisierenden Debatten eine höhere Reichweite als sachlichen Diskussionen. Die geschilderten Effekte hätten sich auch rückwirkend für die Zeit des Bundestagswahlkampfs im vergangenen Jahr nachweisen lassen, so das ISD.
Verfälschte Wahrnehmung
In ihrer Untersuchung haben sich die Wissenschaftler auf sogenannte Hass-Postings konzentriert, in denen vermeintlich real existierende Nutzer gegen Themen oder Personen hetzen. Diese haben durchschnittlich dreimal so viele Kommentare wie Artikel ohne Hass. Die Gefahr sei, dass andere Nutzer und Politiker sowie Medienmacher glauben könnten, die Kommentarspalten seien repräsentativ für die Stimmung in der Bevölkerung.
Facebook hatte im Januar angekündigt, seinen Nutzern künftig mehr Inhalte von Freunden und Familie anstatt von Unternehmen, Medien und politischen Gruppen anzuzeigen. Letztere sollten danach priorisiert werden, "ob sie zu bedeutungsvollen Interaktionen ermutigen", so das Unternehmen damals. Facebook will dabei mit Hilfe seiner Algorithmen versuchen, Voraussagen darüber zu treffen, über welche Beiträge sich die Nutzer austauschen wollen.
Unklar ist, welche Auswirkungen diese Änderungen bei Facebook auf das untersuchte Phänomen der lautstarken Minderheit haben: ob die Nutzer dann seltener Hass-Kommentare zu sehen bekommen - oder ob sie noch mehr von einigen wenigen Einpeitschern irregeleitet werden.
jj/se (dpa, ndr, tagesschau.de)