1. Inhalt
  2. Navigation
  3. Weitere Inhalte
  4. Metanavigation
  5. Suche
  6. Choose from 30 Languages

Digitale Sicherheit

Big Data: "Es gibt kein Zurück"

Immer größere digitale Spuren und stärkere Algorithmen enthüllen intimste Persönlichkeitsmerkmale. Privatsphäre gibt es nicht mehr, erklärt Michal Kosinski beim Global Media Forum. Wir sollten uns darauf einstellen.

DW: Michal Kosinski, Sie erklären die Privatsphäre für verloren. Der Rohstoff der Zukunft sind persönliche Daten; die Geschäftsmodelle der Zukunft basieren auf ihrer Ausbeutung. Was kann die Gesellschaft tun, damit die Vorteile von Big Data allen zu Gute kommen und nicht allein einer Handvoll von Silicon Valley Technologie-Giganten?

Michal Kosinski: Wenn man eine Flut nicht verhindern kann, muss man Wege finden, um den Schaden zu begrenzen und den Nutzen zu erhöhen: Baue dein Haus auf Stelzen! Benutze die Flut, um deine Felder zu düngen! Ich bin nicht glücklich darüber, dass wir unsere Privatsphäre verlieren. Aber je früher wir einsehen, dass wir nichts dagegen unternehmen können, umso eher denken wir darüber nach, wie wir eine Post-Privatsphären-Welt zu einem lebenswerten Ort machen können - und desto besser wird unsere Zukunft. 

Man kann etwas unternehmen: In einer toleranten Gesellschaft kümmert es niemanden, was meine Persönlichkeitsmerkmale sind. Warum sollte ich vorhersagen, ob du schwul bist oder nicht, wenn man das nicht gegen dich verwenden kann? In einer gebildeten Gesellschaft ist es schwerer, Menschen zu manipulieren, damit sie an Verschwörungstheorien glauben oder nicht zur Wahl gehen. In einer Gesellschaft von Gleichen ist es sehr viel schwerer für einige Leute, andere Menschen auszunutzen.

Michal Kosinski GMF (DW/M. von Hein)

Trotz des Verlustes der Privatsphäre Optimist: Michal Kosinski beim Global Media Forum in Bonn

Einer der Gründe für unsere Forschung liegt darin, potenzielle Risiken für die Privatsphäre zu erkennen. Aber es ist egal, ob wir diese Forschung betreiben oder nicht: Es wird Firmen nicht davon abhalten, in die Privatsphäre der Leute einzudringen. Die von uns entwickelten Modelle werden für große Unternehmen nichts Neues sein. Ich weiß mit Sicherheit, dass sowohl Regierungen als auch kommerzielle Unternehmen, intensiv an Modellen arbeiten, um anhand des digitalen Fußabdrucks Persönlichkeitsmerkmale zu enthüllen und zukünftiges Verhalten vorherzusagen. Meiner Meinung nach haben sowohl Öffentlichkeit als auch Politiker ein Recht zu wissen, was möglich ist.

Sie haben auf dem Global Media Forum der Deutschen Welle eindrucksvoll gezeigt, wie präzise Algorithmen bereits anhand von 300 Facebook-Likes, Aussagen über eine Person treffen können. Das Unternehmen Cambridge Analytica hatte erklärt, die US-Wähler mit maßgeschneiderten Botschaften zu Gunsten Donald Trumps beeinflusst zu haben. Nach eigenen Angaben besaß Cambridge Analytica Profile von 230 Millionen US-Bürgern mit jeweils 4000 Datenpunkten. Wie präzise können Vorhersagen mit einem solchen Datenschatz sein?

Meine Forschung und die Untersuchungen anderer Wissenschaftler legen nahe, dass man mit einer solchen Datenmenge sehr präzise Persönlichkeitsmerkmale bestimmen und Vorhersagen über zukünftiges Verhalten treffen kann. Ich weiß allerdings nicht genau, mit welchen Daten Cambridge Analytica tatsächlich gearbeitet hat. Jetzt, da eine Untersuchung gegen Cambridge Analytica angestrengt wurde, behaupten sie, eigentlich gar nicht so viele Daten gehabt zu haben. Aber völlig unabhängig von Cambridge Analytica: Die Erstellung präziser Persönlichkeitsprofile und Vorhersagen zu künftigem Verhalten sind möglich. Künftig gibt es vielleicht andere Unternehmen, die so arbeiten - möglicherweise ohne das öffentlich zu machen oder damit anzugeben.

Öffnet das nicht die Tür zu grenzenloser Manipulation?

Ich bin Optimist. Aber man muss über Nachteile und potenzielle Risiken solcher Technologien reden. Denn das verhindert, dass schlimme Dinge geschehen - hoffentlich! Ich  möchte nicht als jemand verstanden werden, der Ängste schürt. Ich glaube, diese Technologien verbessern täglich unser Leben - und haben das auch schon die letzten Jahre getan. Ihr volles Potenzial ist noch längst nicht ausgeschöpft. Aber wie jede andere Technologie kann auch diese missbraucht werden. Algorithmen können für dich die richtige Medizin finden, deine Depression feststellen oder auch vorhersagen, dass bei dir ein Selbstmordrisiko besteht und dann den besten Weg finden, damit umzugehen. Mit den gleichen Algorithmen kann man dich aber manipulieren, etwas zu kaufen oder an eine Lüge zu glauben. Das ist wie bei Medizin: Sie kann heilen, aber auch vergiften. Hier muss die Gesellschaft Grenzen setzen und auch durchsetzen.

Aber neben der schwierigen Frage, was eine vertretbare Nutzung von Algorithmen ist, gibt es noch ein Problem: Algorithmen und die Leute, die sie nutzen, sind schwer zu überwachen. Man kann Facebook und Google überwachen, große Versicherungsunternehmen oder auch Regierungsorgane. Aber es ist schwer, kleine Unternehmen zu überwachen oder Individuen, die nicht viel zu verlieren haben. Ein Laptop mit einem starken Prozessor und ausreichend Speicher gibt Individuen enorme Macht, in die Privatsphäre von Menschen einzudringen, sie zu manipulieren und an weitere private Informationen zu gelangen. Wir sollten uns nicht allein darauf konzentrieren, solche Machenschaften illegal zu machen. Wir sollten die Gesellschaft toleranter machen, offener, gebildeter. Das würde die Arbeit der Manipulatoren sehr viel schwerer machen. 

In Deutschland wird in diesem Herbst gewählt. Spielt psychometrische Technologie oder psychometrische Wahlkampfunterstützung in Europa, speziell in Deutschland, bereits eine Rolle?

Es wird zur Politik dazu gehören. Alle Politiker werden solche Werkzeuge nutzen - so, wie sie zuvor Radio, Fernsehen oder Anzeigen genutzt haben. Weil aber alle Teile des politischen Spektrums diese Technologie einsetzen, hat keine Seite mehr einen unzulässigen Vorteil. Im US-Wahlkampf haben sowohl Hillary Clinton als auch Donald Trump stark auf psychologisch maßgeschneiderte Wahlwerbung gesetzt. Hillary Clinton soll meines Wissens nach dafür sogar drei- bis viermal so viel Geld ausgegeben haben wie Donald Trump. Am Ende des Tages wird sich das durchsetzen; ich glaube nicht, dass wir das verhindern können. Es gibt kein Zurück!

 

Michal Kosinski ist Psychologe, Datenwissenschaftler und Psychometriker. Zur Zeit arbeitet Kosinski an der Stanford Graduate School of Business in den USA. Er untersucht die Eigenschaften von Menschen anhand der Spuren, die sie bei der Nutzung digitaler Plattformen und Geräte hinterlassen.    

Das Gespräch führte Matthias von Hein.

 

Die Redaktion empfiehlt