Digitale Plattformen als Gefahr für die Demokratie: Was tun?
7. November 2025
Elon Musk führte im Januar 2025 auf seiner Plattform X ein Interview mit der Chefin der in Teilen rechtsextremen AfD, Alice Weidel. "Ich möchte sehr klar sein. Nur die AfD kann Deutschland retten", sagte er - eine unverhohlene Einmischung eines mächtigen sozialen Netzwerks in den Bundestagswahlkampf.
In Rumänien gewann 2024 der rechtsextreme Kandidat Calin Georgescu überraschend den ersten Durchgang der Präsidentschaftswahl: Der Politik-Outsider hatte an keiner TV-Debatte teilgenommen und kein Geld in seine Kampagne gesteckt. Sein Erfolg kam vor allem durch das Videoportal TikTok, seine Videos waren extrem präsent in den Feeds vieler Rumäninnen und Rumänen.
Schnell kam der begründete Verdacht auf, dass Social Bots (das sind automatisierte Accounts) sowie Trolle (menschliche Nutzende, die gegen Bezahlung meist im Auftrag einer ausländischen oder staatlichen Stelle agieren) mitgemischt haben mussten. Die Wahl wurde annulliert. Auch in Bezug auf viele andere digitale Diskussionen und Themen ist bekannt, dass mithilfe von Bots und Trollen die öffentliche Meinung gezielt manipuliert wurde, etwa beim Brexit oder in der Corona-Pandemie.
Extreme Positionen und laute Minderheiten kriegen die meiste Aufmerksamkeit
Was digital passiert, hat demnach einen riesigen Einfluss auf die öffentliche Meinungsbildung. Medien- und Verfassungsrechtler Dieter Dörr findet auf der Konferenz Big Tech und digitale Demokratie: Wie viel Regulierung braucht der öffentliche Diskurs? aus der Veranstaltungsreihe Global Media Law der DW und der Uni Köln klare Worte: "Die Demokratie ist stark bedroht."
Zwar sind auch etablierte Qualitätsmedien auf den Plattformen präsent. Sie nutzen Instagram, Youtube & Co sogar als Ausspielweg für ihre Inhalte. Aber es tummeln sich auch noch zahlreiche andere Akteure. Und das müssen nicht mal Bots oder Trolle sein: viele Accounts halten sich nicht an gewisse Standards, sondern hetzen gegen andere, verbreiten Falschbehauptungen oder mithilfe künstlicher Intelligenz manipulierte und generierte Bilder und Videos.
Die Algorithmen sozialer Netzwerke, die entscheiden, welche Inhalte wem wann angezeigt werden, belohnen solches Verhalten. Dörr erklärt: "Extreme Meinungsäußerungen, das, was Reichweite erzielt, wird nach oben gespült." Denn es hilft, Nutzende länger auf den Plattformen zu halten und mehr Geld an ihnen zu verdienen.
Digital Services Act der EU: Ein Hoffnungsschimmer
Social Media sind für viele Menschen mittlerweile eine wichtige, wenn nicht die einzige Informationsquelle. Dass diese Machtfülle der Plattformen ein Problem darstellt, haben viele in Politik und Forschung erkannt. Nur: Lässt sich dagegen auch etwas tun?
Die Europäische Union hat in Sachen Digitalregeln in den vergangenen Jahren aufgesattelt - vor allem durch den Digital Services Act (DSA). Das Gesetz über digitale Dienste gilt seit Februar 2024 und verpflichtet vor allem große Online-Plattformen und Suchmaschinen wie Amazon, Google, X oder Facebook zu mehr Transparenz und zu mehr Schutz für Nutzende.
Renate Nikolay ist stellvertretende Generaldirektorin der DG CONNECT der Europäischen Kommission, welche den Digital Services Act durchsetzt. Sie sagt: "Wir verfolgen damit drei Prinzipien: Erstens müssen die Plattformen systemische Risiken bewerten und minimieren. Zweitens stärken wir die Rechte der Nutzenden, etwa durch Beschwerdemöglichkeiten. Drittens fordern wir Transparenz bei den Algorithmen und verpflichten die Plattformen, Forschenden Zugang zu ihren Daten zu geben."
Es hört sich nach einem großen Wurf an: Plattformen müssen Licht in das Dunkel ihrer Algorithmen bringen und Nutzenden sogar die Möglichkeit bieten, personalisierte Inhalte oder Werbung abzuschalten. Denn die Algorithmen tendieren eben nicht nur dazu, gemäßigte und differenzierte Inhalte zu benachteiligen. Letztendlich schaffen sie auch sogenannte Filterblasen oder Echokammern. Darin sind Nutzende hauptsächlich von Inhalten sowie von anderen Nutzenden umgeben, die ihre eigenen Ansichten widerspiegeln. So laufen sie Gefahr, in eine Spirale der Radikalisierung zu geraten.
Unausgewogene Sichtbarkeit
Der TikTok-Algorithmus ist dafür bekannt, den Feed besonders schnell und präzise anzupassen. Jüngst stellte eine Studie der Universität Potsdam und der Bertelsmann-Stiftungfest: Im letzten Bundestagswahlkampf sind die Parteien in den TikTok-Feeds junger Nutzender unausgewogen sichtbar gewesen. Videos von offiziellen Partei-Accounts der politischen Ränder, vor allem der AfD, wurden demnach häufiger ausgespielt als die von Partei-Accounts der Mitte.
So lud die AfD im untersuchten Zeitraum 21,5 Prozent aller Videos hoch, diese machten aber 37,4 Prozent der im Feed aufgetreten Videos aus. Dagegen lud die Union 17,1 Prozent aller Videos der Parteien hoch, sie machten aber nur 4,9 Prozent im Feed der Nutzenden aus.
Darauf angesprochen, antwortet Tim Klaws von TikTok in der Konferenz ausweichend. Doch seiner Aussage zufolge haben auch digitale Plattformen kein Interesse in einem Umfeld voller Desinformation und Populismus zu agieren. Sie versuchen mithilfe von KI - aber auch durch Mitarbeitende - Fake News, Hassrede & Co zu minimieren.
Finnland zeigt, wie Medienkompetenz geht
Übrigens gibt es neben dem DSA auch noch weitere Gesetze, die digitale Plattformen regulieren, etwa das Europäische Medienfreiheitsgesetz. Es ergänzt den DSA, indem es einen Sonderstatus für anerkannte Medien bei großen Plattformen vorsieht, damit deren Inhalte transparent behandelt und nicht etwa grundlos entfernt werden können.
Und auch wenn es nach einem alten Hut klingt, ist über Regularien hinaus noch etwas wichtig: eine bessere Medienkompetenz. Menschen müssen digitale Medien besser verstehen und verantwortungsvoller nutzen. Am Ende sind sie es, die Inhalte posten, konsumieren, teilen und kommentieren. Renate Nikolay erklärt: "Finnland ist da vorbildhaft, da können wir etwas von lernen." Tatsächlich hat Finnland eine umfassende nationale Strategie, um Medienkompetenz zu fördern. Sie setzt bereits im Kindergartenalter an und macht die Finnen sehr gut darin, Inhalte kritisch zu prüfen und Desinformation zu erkennen.
Ohnehin kann nur eine Kombination aller zur Verfügung stehenden Maßnahmen etwas gegen Einflussnahme und Manipulation im Internet ausrichten. Und selbst wenn alle Register gezogen werden, bleiben Fachleute wie Dieter Dörr skeptisch: "Gegen diesen Tsunami hilft nicht viel." Hinzu kommen ständig neue Herausforderungen, wie etwa KI-Chatbots, die falsche oder nicht objektive Informationen geben.
Auf der DW-Konferenz stellt Nikolay am Ende klar, dass Europa nicht "gegen die Plattformen" sei, sondern mit ihnen zusammen daran arbeiten wolle, "die Businessmodelle so zu ändern, dass sie die Demokratie nicht gefährden, sondern fördern".
Ein Beispiel für gute Zusammenarbeit sei etwa die diesjährige Parlamentswahl in Moldau gewesen. Im Vorfeld hatten sich EU-Vertreter, moldauische Behörden, zivilgesellschaftliche Akteure und Plattformbetreiber wie Google, Meta und TikTok an einen Tisch gesetzt, um Desinformation entgegenzuwirken und den Wahlprozess zu schützen. Anscheinend erfolgreich: Eine russische Desinformationskampagne gegen die pro-europäische Regierungspartei PAS konnte das Wahlergebnis nicht entscheidend beeinflussen.