Lars Jaeger / 29. März 2018


Datenmissbauch und die Dressur des demokratischen Willens

Wie wir mittlerweile mit Hilfe der modernen digitalen Technologien Big Data und künstlicher Intelligenz (KI) manipuliert werden, bedarf einer breiten politischen und gesellschaftlichen Reaktion. Diese Reaktion muss über ein bloßes Achselzucken gegenüber den üblichen Lügen der großen Internetfirmen wie Facebook oder Google – dass ihr Datensammeln doch nur dem Allgemeinwohl diene und unsere Daten bei ihnen sicher seien – weit hinausgehen. Ein Essay von Lars Jaeger.

Cambridge Analytica ruft die Öffentlichkeit auf den Plan.(Foto: Clipealer.de)

Die Mechanismen öffentlicher Aufmerksamkeitserregung und Empörung besitzen eine nicht immer einfach nachvollziehbare Dynamik. Verständlich ist dagegen, dass die Geschäftspraxis der Firma Cambridge Analytica starke öffentliche Abwehrreaktionen hervorrufen. Die Kommentare in Print- und Onlinemedien sind selten so eindeutig wie in diesem Fall: Hier wurden die Grundregeln der Demokratie verletzt. Weniger verständlich ist der Zeitpunkt dieser Erregung. Das Gebaren der Firma, mit ihrem so unheimlich wie schnöselig auftretenden Chef Alexander Nix, war längst bekannt (auch, dass in deren Vorstand lange der ultrarechte NaziSympathisant Steve Bannon saß und dass Hauptanteilseigner der Hedge Fond Manager Robert Mercer ist, der größte Spender der Trump-Kampagne).

Wer es wissen wollte, konnte ohne weiteres in Erfahrung bringen, dass Nix und seine Leute mit Methoden des so genannten „Micro Targeting“ sowohl für Trump als auch für die BrexitKampagne aktiv waren und entscheidenden Anteil an ihren so überraschenden wie beklemmenden Wahlsiegen hatten. So dienten Cambridge Analytica und Micro Targeting beispielsweise in meinem im August 2017 erschienen Buch „Supermacht Wissenschaft“ (Gütersloher Verlagshaus) als prominente Beispiele dafür, wie der technogische Wandel die Spielregeln unserer Gesellschaft verändert.

Öffentliche Entrüstung kommt spät

Ein breiter öffentlicher Diskurs über diese Praktiken setzt aber erst jetzt ein. So überrascht (und ernüchtert) man von der späten Reaktion unserer Medien, Politiker und Wirtschaftsführer auf den technologischen Wandel auch sein mag, so ermutigend ist, dass die volle Wucht der öffentlichen Entrüstung sich nun diesem Thema zuwendet. Es war höchste Zeit: Wie wir mittlerweile mit Hilfe der modernen digitalen Technologien, Big Data und künstlicher Intelligenz (KI) manipuliert werden, bedarf einer breiten politischen und gesellschaftlichen Reaktion. Diese Reaktion muss über ein bloßes Achselzucken gegenüber den üblichen Lügen der großen Internetfirmen wie Facebook oder Google – dass ihr Datensammeln doch nur dem Allgemeinwohl diene und unsere Daten bei ihnen sicher seien – hinausgehen. Endlich reagiert die Politik, auch wenn es erst Video-Aufnahmen schlüpfriger Details im Geschäftsgebaren von Cambridge Analytica bedurfte, um Anstoß zu nehmen. Denn nicht die skandalöse Manipulation des öffentlichen Willens – mit Hilfe von KI und Big Data – waren es, die Alexander Nix zum Rücktritt von seinem Posten zwangen, sondern das Bekanntwerden der von seiner Firma verwendeten, jahrhundertealten Manipulationstechniken von Sexfallen („honey traps“) und Denunziation.

Bereits vor einiger Zeit prahlten Nix und seine Firma damit, über psychologische Daten von „ca. 220 Millionen Amerikanern mit vier bis fünftausend Datenpunkten für jeden einzelnen von ihnen“ zu verfügen und damit im Jahr 2014 Einfluss auf 44 politische Wahlen in den USA genommen zu haben (dies umfasste auch eine Zusammenarbeit mit Trumps neuem Rechtsaußen-Sicherheitsberater John Bolten). 2017 war die Firma nach eigenen Angaben maßgeblich am Wahlsieg Uhuru Kenyattas beteiligt. Der Kenyattas Wahlsieg vorangegangene Wahlkampf war – wie kaum eine Wahl je zuvor – von Fake News und Fehlinformationen geprägt, die über Smartphones und soziale Medien ihre Verbreitung fanden.

Die Methode, Daten für politische Zwecke auszunutzen, ist keineswegs neu. Seit Jahrhunderten versuchen Wahlkämpfer die Persönlichkeiten, politischen Ansichten und Neigungen der Wähler zu bestimmen und diese Informationen zum Nutzen ihrer Kandidaten zu verwenden. Doch zweierlei ist neu und wird die zukünftige Architektur der politischen Macht in demokratischen Gesellschaften maßgeblich prägen: Zum einen das schier unglaubliche Volumen der verwendeten Daten und zum anderen die immer intelligenteren Algorithmen, die zur Manipulation der Wähler eingesetzt werden. Dass dabei Facebook mit all den Daten, die die Firma über uns sammelt, eine ausschlaggebende Rolle spielt (aber auch Google, Microsoft und Apple), ist nun endlich in der öffentlichen Diskussion angekommen.

Komplette Durchleuchtung mittels Algorithmen

Wie stark wir bereits heute mit Hilfe von Big Data und KI-Algorithmen durchleuchtet werden, ist nur den wenigsten Menschen bekannt. Eine besonders ergiebige Datenquelle für KI-Anwendungen zur Bestimmungen unserer Eigenschaften sind die Likes auf Facebook. Laut der Studien des Psychometrik Experten Michal Kosinski im Rahmen seines Projektes „myPersonality“ lassen sich aus durchschnittlich 68 Likes eines Users verschiedene Merkmale einer Person ablesen. Mit Hilfe eines entsprechenden KI-Algorithmus lässt sich mit 95-prozentiger Treffsicherheit vorhersagen, welche Hautfarbe, mit 88-prozentiger Wahrscheinlichkeit, welche sexuelle Orientierung und mit 85 Prozent Treffsicherheit, welche politische Orientierung diese Person hat.

Aber auch Dinge wie Drogenkonsum, Religionszugehörigkeit und sogar Intelligenzquotient oder Familienverhältnisse in der Kindheit lassen sich so ermitteln. Kosinski behauptet: Sein Algorithmus kann anhand von zehn Facebook-Likes Charakter und Verhalten einer Person besser einschätzen, als ein durchschnittlicher Arbeitskollege – mit 70 Likes besser als ein Freund, mit 150 besser als die Eltern und mit 300 Likes besser als deren Lebensgefährte. Mit noch mehr Likes kann die Maschine sogar die Person bei ihrer Selbsteinschätzung übertreffen. Ein weiteres Beispiel für die Macht der Daten: Im Frühjahr 2016 beschrieb der KI-Experte Eric Horvitz von Microsoft Research, wie ein Computerprogramm allein anhand öffentlich verfügbarer Daten vorhersagen kann, welche Personen in Zukunft mit einer gewissen Wahrscheinlichkeit Opfer bestimmter Krankheiten werden.

Spätestens hier sollte jedem klar sein, dass diese Fähigkeiten von KI und Big Data ein gewaltiges Gefahrenpotential bergen. Denn von der Kenntnis unserer Persönlichkeit, ist es nur ein kurzer Weg zur Beeinflussung unseres Verhaltens. Im politischen Zusammenhang äußert sich dies darin, wie wir wählen. Dass wir mittels Algorithmen und Big Data beeinflussbar sind, zeigt bereits der enorme kommerzielle Erfolg Facebooks. Wäre dem nicht so, könnte Facebook mit personalisierter Digital-Werbung nicht Dutzende von Milliarden Dollar verdienen. Spätestens seit der Brexit- Abstimmung und der US Wahl 2016 ist aber klar, dass KI auch in politischen Auseinandersetzungen und demokratischen Wahlkämpfen eine immer bedeutendere Rolle spielt. Algorithmen, wie der von Michal Kosinski, lassen sich nämlich auch umgekehrt benutzen: Zur Suche nach bestimmten Profilen, beispielsweise ängstlichen, frustrierten oder zornigen Arbeitnehmern, nach Waffennarren und Rechtsextremen – oder auch unentschlossenen Wählern. Von dort ist es nicht mehr weit, Menschen zu manipulieren und sie in ihrem Wahlverhalten zu beeinflussen. So lassen sich die mit Hilfe von KI erstellten Profile dazu nutzen, jedem Wähler seine eigene, auf ihn zugeschnittene Botschaft zukommen zu lassen.

Mit propagandistischen Beiträgen Wahlen manipulieren

2016 wurden massenweise „Nachrichten“, einschließlich schamloser Lügen, an potenzielle Clinton-Wähler: Latinos und Afroamerikaner, skeptische Liberale und Linke, sowie an junge Frauen verschickt. In diesen wurde über die Interessenskonflikte der Clinton-Stiftung und über angebliche illegale Machenschaften der demokratischen Präsidentschaftskandidatin berichtet, mit dem Ziel, die potentiellen Wählerinnen und Wähler davon abzuhalten, Hillary Clinton zu wählen. Zu diesem Zweck setzte man computergenerierte, automatisierte Skripte ein, so genannte „Bots“, die eine große Menge an Content in sozialen Medien wie Twitter und Facebook veröffentlichten.

Empfängliche User wurden so systematisch mit propagandistischen Beiträgen und dreisten Lügen bombardiert (z.B. dass der Papst Trump unterstütze, oder dass Hillary Clinton einem Ring von Kinderpornografen vorstehe). Es gab sogar „Hispanic bots“, durch die eine verfälschte Massenmeinung generiert wurde. Diese gaben vor für eine vermeintliche Mehrheit der Latinos zu sprechen und Trump zu unterstützen (wobei allseits bekannt war, dass die Latinos in großer Mehrheit gegen ihn waren). All diese Maßnahmen zeigten Erfolg: die ländliche Wählerschaft (traditionell republikanische Wähler) verzeichnete einen signifikante Zuwachs, afroamerikanische Stimmen hingegen erfuhren einen Rückgang. Unerwarteter Weise wählten ein Drittel der Latinos Trump, obwohl dieser sie immer wieder öffentlich beschimpft hatte.

Dies alles ist aber erst der Anfang, so Horvitz. Wie schnell und vor allem wie leicht die Algorithmen sozialer Medien uns zu extremen Positionen bringen und die Radikalisierung junger Menschen fördert, zeigt ein Experiment des französischen Informatikers Kave Salamatian. Dieser legte zahlreiche Scheinprofile bei Facebook an und ließ diese durch studentische Mitarbeiter betreiben. Ihre Aufgabe war es, verschiedene Nachrichten und Informationen mit harmlosen Inhalten zu liken. Nach drei Tagen hatten die Mitarbeiter ihren Teil zum Experiment beigetragen. Von jetzt an lies Salamatian die Accounts automatisch jeden neuen Freund akzeptieren und jeden Beitrag, der ihnen präsentiert wurde, mit „Gefällt mir“ bewerten. Das Ergebnis war ebenso erstaunlich wie unheimlich: Nach weiteren drei Tagen hatten zehn der Accounts direkten Kontakt zum terroristischen IS, erste Recruiter meldeten sich bei den „Schützlingen“.

Camoridge Abalytica vs. Privatsphre und Allgemeinwohl

Auch in Bezug auf die Verwendung unserer Daten für kommerzielle oder politische Zwecke ist der Skandal um Cambridge Analytica wohl nur die Spitze eines schnell wachsenden Eisbergs. Unzählige weitere Firmen haben via Facebook Zugang zu unseren Daten. Eine wohl noch größere Macht als Facebook hat der Internet-Riese Google: Sollte die Firma in Zukunft beispielsweise einen bestimmten Präsidentschaftsbewerber ausbooten wollen, könnte sie kurzerhand die Algorithmen modifizieren und so seinen Nutzern nur entsprechend gefilterte Informationen zukommen lassen. Durch solche Möglichkeiten der Einflussnahme, wie sie die großen amerikanischen Internetfirmen besitzen und wie sie von skrupellosen Firmen wie Cambridge Analytica ausgenutzt werden, steht unsere Demokratie selbst auf dem Prüfstand.

Die digitale Revolution hat längst ihr Immunsystem angegriffen und unser Ortungssystem für richtig und falsch, für wahre oder Fake News durcheinandergebracht. Die Menschen taten sich schon immer schwer mit neuen Medien kritisch umzugehen. „Wir amüsieren uns zu Tode“, prophezeite der Philosoph Neil Postman bereits in den 1980er Jahren (und beschrieb damit unser Verhältnis zum TV). Aus heutiger Sicht eine geniale Vorwegnahme der Entwicklungen – auch wenn Postman die manipulative Kraft der sozialen Medien noch nicht kannte. Und man kann noch weiter zurückgehen: Das neu entwickelte Radio war in den späten 1920er und 1930er Jahren ein wesentliches Propagandainstrument der Nazis. Dass Algorithmen der künstlichen Intelligenz massiv auf unsere alltägliche Erfahrung, das soziale Leben und das politische Geschehen Einfluss nehmen, dämmert uns so langsam. Doch die Tragweite dieser Entwicklung haben wir noch bei weitem nicht erfasst. Längst fordern KI-Experten wie Horvitz eine entsprechende Gesetzgebung, die als „ein wichtiger Teil der rechtlichen Landschaft der Zukunft helfen soll, Freiheit, Privatsphäre und das Allgemeinwohl zu bewahren.“

Verweise:

Cambridge Anlaytica uncovered – Gezielte Wahlmanipulation via Social Media?

Interview: Diskriminierung anhand von Datenprofilen ist längst gang und gäbe

Democracy – Im Rausch der Daten

Beiträge SPREEZEITUNG zum Thema Daten, Datenschutz, Datenmissbrauch