1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen
GleichberechtigungUkraine

Wie Google sexistische Klischees pusht

Rodrigo Menegat Schuinski sd
8. März 2021

Frauen aus Osteuropa und Südamerika sind besonders sexy und lieben Dates? Eine DW-Analyse zeigt, wie die Suchmaschine Google negative Stereotype verstärkt.

https://p.dw.com/p/3qFnt
Illustration zu Googles Bildsuche nach Frauen
Bild: Nora-Charlotte Tomm, Anna Wills

"Google Images" gibt der Welt ein Gesicht: Wer sehen will, wie etwas oder wie jemand aussieht, wird das vermutlich googeln. Eine Untersuchung der Deutschen Welle zeigt nun aber, zu welch verzerrten Ergebnissen die Algorithmen des Suchriesen führen können: Journalistinnen und Journalisten der DW analysierten mehr als 20.000 Bilder und Websites.

Ergebnis: Bildsuchen auf Englisch nach den Begriffen "dominikanische Frauen", "brasilianische Frauen", "thailändische Frauen" oder "ukrainische Frauen" führen eher zu jüngeren Frauen in aufreizenden Posen und freizügiger Bekleidung als etwa die Suche nach "amerikanischen Frauen". Sucht man bei Google dagegen in englischer Sprache nach "deutschen Frauen", so stößt man vor allem auf Politikerinnen und Sportlerinnen.

Datenvisualisierung Google Bildsuchergebnisse sexualisierte Darstellung von Frauen - Bildauswertung nach Region

Dieses Muster ist bereits mit bloßem Auge sichtbar, schon einfache Suchen bestätigen das. Die Quantifizierung und Analyse der Ergebnisse ist dagegen schwieriger. Die Definition dessen, was ein sexualisiertes Bild ausmacht, ist naturgemäß subjektiv und abhängig von kulturellen, moralischen und sozialen Prägungen.

Was macht ein Bild anzüglich?

Um Tausende von Bildern zu klassifizieren, stützte sich die DW-Analyse auf Googles eigene "Cloud Vision SafeSearch", eine Künstliche-Intelligenz-Anwendung. Die Bildverarbeitungssoftware ist darauf trainiert, Bilder expliziten Inhalts zu erkennen. Google setzt sie ein, um "aufreizende" Bilder zu markieren, wenn die dargestellten Personen etwa "knappe oder durchsichtige Kleidung" tragen und solch strategisch verdeckte Nacktheit mit anzüglichen oder provokativen Posen zur Schau getragen wird. Erkannt werden aber auch Nahaufnahmen expliziter Körperbereiche.

Bei der Suche nach Frauen aus der Dominikanischen Republik und Brasilien liefert Google bis zu 40 Prozent anzügliche Bilder. Dagegen liegt die Rate bei der Suche nach "amerikanischen Frauen" bei fünf Prozent und bei der Suche nach "deutschen Frauen" bei vier Prozent. 

Vergleich von Screenshots der Ergebnisliste zu deutsche Frauen und brasilianischen Frauen
Treffer bei Googles Bildersuche zu "deutschen Frauen" und "brasilianischen Frauen"Bild: Screenshots DW

Die Verwendung solcher Algorithmen ist umstritten, zumal diese Art von Computerprogrammen ebenso vielen - wenn nicht sogar mehr - Vorurteilen und kulturellen Zwängen unterliegt als ein menschlicher Betrachter. An anderer Stelle hat diese spezielle Software sogar rassistische Ergebnisse erzeugt. Zudem arbeitet Googles KI als ein geschlossenes System, was zu weiteren Verzerrungen führen kann. Gleichwohl hat die manuelle Überprüfung aller Bilder, die Cloud Vision als mutmaßlich explizit kategorisiert hat, ergeben, dass die Ergebnisse dennoch nützlich sind: Sie geben nämlich einen Einblick, wie Googles hauseigene Technologie die von der Suchmaschine angezeigten Bilder bewertet.

Links zu einschlägigen Webseiten

Jedes Bild, das die Ergebnisseite anzeigt, verweist zugleich auf die Website, die es ursprünglich veröffentlicht hat. Auch wenn einige der Bilder nicht offenkundig anzüglich sind, liefern viele dieser Seiten Inhalte, die Frauen zum Sexobjekt reduzieren. Lateinamerikanische Frauen ebenso wie Frauen aus Osteuropa und Südostasien werden hier häufig in eklatant klischeehafter Weise dargestellt.

Um herauszufinden, wie viele Bild-Ergebnisse zu solchen Websites führen, wurde die Kurzbeschreibung, die direkt unter einem Bild in der Suchergebnis-Galerie erscheint, nach Wörtern wie "heiraten", "Dating", "Sex" oder "am heißesten" durchsucht. Alle Websites, die im Titel mindestens eines dieser Schlüsselwörter führten, wurden manuell überprüft, um festzustellen, ob sie tatsächlich sexistischen Content beinhalten.

Datenvisualisierung Google Bildsuchergebnisse sexualisierte Darstellung von Frauen - Bildauswertung

Die Ergebnisse zeigen, wie Frauen aus bestimmten Ländern nahezu komplett auf sexuelle Objekte reduziert werden. Von den ersten 100 Suchergebnissen, die nach einer Bildersuche nach den Begriffen "ukrainische Frauen" angezeigt wurden, verlinkten 61 auf diese Art von Inhalten. Ähnliche Ergebnisse erbrachte die Suche nach Frauen aus der Tschechischen Republik, der Republik Moldau oder Rumänien sowie nach Frauen aus Südamerika und Südostasien.

Zwar führt auch die Bildsuche nach westeuropäischen Frauen zu solchen Ergebnissen, jedoch weitaus seltener. Von 100 Bildern, die eine Suche nach "deutschen Frauen" erbrachte, waren nur 16 als anzüglich klassifiziert, bei französischen Frauen gerade mal sechs.

Stereotype befeuern Web-Ergebnisse

Die Schlüsselwörter sind zwar vielsagend, erzählen jedoch nicht die ganze Geschichte: Ein erheblicher Teil der Ergebnisse findet sich auf Websites mit Adressen wie "toprussianbrides.com", "hotlatinbrides.org" und "topasiabrides.net". Das Gros dieser Seiten präsentiert sich als internationale Heiratsagenturen oder sogenannte "mail-order bride"-Dienste. Diese Angebote versprechen, Männer mit Frauen bestimmter Nationalitäten gegen eine Gebühr zusammenzubringen.

Andere bieten stereotype Anleitungen für die Partnersuche aus bestimmten Kulturkreisen oder warten mit Bewertungen von Nischen-Apps für die Partnersuche auf. Dabei wird schnell deutlich, wer das Zielpublikum ist: westliche Männer, die entweder eine unterwürfige ausländische Ehefrau oder eine Sexualpartnerin suchen. "Hatten Sie bisher hauptsächlich mit karriereorientierten westlichen Frauen zu tun? Dann wird sich eine Beziehung mit einer ukrainischen Braut für Sie ganz anders anfühlen", heißt es etwa auf einer solchen Website, die prominent in der ersten Reihe der Google-Ergebnisse angezeigt wurde. 

Datenvisualisierung Google Bildsuchergebnisse sexualisierte Darstellung von Frauen - Auswertung Websites

Tamara Zlobina ist Chefredakteurin des ukrainischen Internet-Magazins "Gender in Detail". Diese Art der Darstellung, vermutet sie, hängt mit einem Phänomen zusammen, das in ihrem Land erstmals in den 1990er Jahren auftrat: "Nach dem Zusammenbruch der Sowjetunion war die Ukraine ein extrem armes Land. Viele Frauen gingen nach Westeuropa, um Geld für ihre Familien zu verdienen", sagt sie.

Mittlerweile ändere sich diese Realität rasant, da sich die wirtschaftliche Situation des Landes - und damit auch die Bildungs- und Berufsperspektiven ukrainischer Frauen - stark verbesserten. "Ich bekäme lieber Diplomatinnen, Politikerinnen, Revolutionärinnen oder die Frauen angezeigt, die in unseren Grenzkriegen kämpfen. Wir haben eine Menge wunderbarer Frauen. Das sollte sichtbar werden - nicht dieser Brautmarkt!"

Reale Klischees beeinflussen nach Einschätzung von Sirijit Sunanta, Professorin für Multikulturelle Studien an der Mhidol Universität in Bangkok, auch die Art und Weise, wie thailändische Frauen im Internet dargestellt werden: "Thailand gilt als eine Art Disneyland für Prostitution und Sextourismus. Das setzt sich im Internet fort, wenn man eine Google-Suche ausführt", so Sunanta gegenüber der Deutschen Welle. Und sie fügt hinzu: "Wenn sich die Stereotype auf Frauen einer bestimmten Nationalität beziehen, sind sie auf einer anderen Ebene schädlich: Es reduziert ihre Komplexität. Frauen sind überall anders."

Eine Frage der Sprache

Auch die bei der Suche verwendete Sprache kann die Ergebnisse beeinflussen. Sucht man etwa auf Englisch nach "Brazilian women" oder auf Portugiesisch nach "mulheres brasileiras", was exakt dasselbe bedeutet, so liefert Google unterschiedlich viele sexualisierte Inhalte: Bei der Suche nach "Brazilian women" werden 41 von 100 Bildern als anzüglich gekennzeichnet. Die Zahl sinkt auf neun, wenn man nach "mulheres brasileiras" sucht. Ähnlich verhält es sich bei anderen regionalen Sprachen.

Datenvisualisierung Google Bildsuchergebnisse sexualisierte Darstellung von Frauen - Sprachenvergleich

"Die Daten, mit denen die Algorithmen gefüttert werden, spiegeln die Wahrnehmungen, Vorurteile und Konsummuster von nur einem Ausschnitt der Menschheit", sagt Renata Avila, Fellow am US-amerikanischen Stanford Institute for Human-Centered Artificial Intelligence. "Diese Vorurteile sind nicht ausschließlich auf die Technologie zurückzuführen, sondern häufig auf kulturelle Faktoren. Frauen bestimmter Nationalitäten werden von einer männlichen, englischsprachigen Kultur in sexuelle und dienstleistende Rollen eingeteilt", so Renata Avila gegenüber der DW. 

Ihrer Beobachtung nach handelt es sich nicht um Einzelfälle, sondern das Ganze ist Teil eines tieferliegenden, systemischen Problems. Fairere Algorithmen passten einfach nicht in das Geschäftsmodell weltumspannender "Big Tech"-Firmen, denen es vor allem darum gehe, Daten zu sammeln und den Informationsumsatz zu steigern.

Ähnlich sieht das die brasilianische Anwältin Joana Varon, Gründerin des Think-Tanks "Coding Rights". Suchmaschinen neigten dazu, die Art von Inhalten zu reproduzieren, die online weit verbreitet sind, so Varon. Auch hätten weiße Männer aus entwickelten Ländern mehr Zugang zu den Werkzeugen und Strategien, die benötigt werden, um Inhalte zu veröffentlichen, die wiederum die Seitenaufrufe ankurbeln. "Wenn ein Algorithmus nichts tut, um dies zu kompensieren, dann ist er rassistisch, sexistisch und patriarchalisch", sagt die Juristin und stellt klar: "Kommerzielle Algorithmen und ihre Anbieter sollten für das, was sie erzeugen, Verantwortung übernehmen." Andernfalls verstärkten sie mithilfe eines globalen Suchwerkzeugs eine unterdrückende Weltsicht.

"Große Tech-Unternehmen müssen reguliert werden!"

Sie plädiert für mehr Aufsicht, mehr Transparenz und mehr Wettbewerb. "Es darf keine Monopole für alle Dienste geben. Große Tech-Unternehmen müssen reguliert werden." Zugleich sollte man alternative Tools fördern, die jedoch nicht dem gleichen Paradigma entspringen. Renata Avila stimmt dem zu: "Wir brauchen eine neue Art von Technologie, die auf Transparenz und Verantwortlichkeit basiert". Das sei mit dem heutigen Denken im Silicon Valley weitgehend unvereinbar. "Lösungen kann es also nur unter Beteiligung der diversen, weltweiten Gemeinschaft geben."

Die Deutsche Welle hat der Pressestelle von Google eine Liste mit Fragen zum voreingenommenen Verhalten des Bildersuch-Algorithmus vorgelegt. Das Unternehmen hat die Fragen nicht detailliert beantwortet. Stattdessen schickte es eine Erklärung, in der es einräumt, dass die Suchergebnisse "explizite oder beunruhigende Inhalte" zeigten, "einschließlich Ergebnisse, die negative Stereotype und Vorurteile widerspiegeln, die im Web existieren". Das sei ein Problem, weil es "ungleiche Auswirkungen auf Frauen und Women of Color" habe.

Laut Google werden die Inhalte, die in den Suchergebnissen erscheinen, durch die Art und Weise beeinflusst, wie Informationen im Internet organisiert und gekennzeichnet sind. Das Unternehmen gab an, daran zu arbeiten, "skalierbare Lösungen" für solche Probleme zu finden. Diese wurden allerdings nicht im Detail bekannt gegeben.

Die vollständige Erklärung von Google, die Daten, den Code und die Methodik hinter dieser Analyse finden Sie in diesem GitHub-Repository.