Wie manipuliert man eine Wahl? Erklärt am Beispiel des Brexit – Die Technik

© Flickr / Duncan Hull

Nachrichten, erklärt

Wie manipuliert man eine Wahl? Erklärt am Beispiel des Brexit – Die Technik

Die Brexit-Befürworter haben mithilfe von Technik die Abstimmung beeinflusst und damit an einem heiligen demokratischen Prinzip gerüttelt: an fairen Wahlen. Wer Demokratie schätzt, muss wissen, was in Großbritannien vor zwei Jahren passiert ist. Deswegen habe ich die Hintergründe genau rekonstruiert.

Profilbild von Silke Jäger
Reporterin für Kopf und Körper

Der Artikel wurde am 10. Januar 2019 aktualisiert.


„Die 76 Millionen Einwohner der Türkei werden EU-Bürger. Gute Nachricht??? Ja oder Nein.“

So fragte eine Facebook-Werbeanzeige der offiziellen Brexit-Kampagne VoteLeave Ende April 2016 ausgewählte Facebook-User. Die Grafik dazu zeigte, wie stark sich die durchschnittlichen Jahreseinkommen in Großbritannien und der Türkei voneinander unterscheiden. Die Facebooknutzer konnten durch Klicken auf Ja oder Nein zeigen, was sie davon hielten.

So sah die Anzeige aus:

https://twitter.com/carolecadwalla/status/1022571070904303616?lang=de

Und das war der Begleittext dazu: „Die Einwohner der fünf Länder, die als nächstes der EU beitreten werden, sind arm und haben ernsthafte Schwierigkeiten. Das durchschnittliche Jahreseinkommen in der Türkei liegt bei 7.300 Pfund. Wir überweisen jetzt schon 350 Millionen Pfund pro Woche an die EU. Sollten wir unser Geld nicht stattdessen für eigene Prioritäten ausgeben? VoteLeave-Tag – 23. Juni. Sie beitreten lassen? Klicke Nein! Stimme für den Austritt.”

Die Anzeige starte am 27. April und lief so lange, bis das Anzeigenbudget aufgebraucht war. 200.000 bis 505.000 Facebooknutzer sahen sie, der größte Teil von ihnen lebte in England (85 Prozent), die restlichen 15 Prozent waren Einwohner von Wales, Schottland und Nordirland. Die Anzeige wurde überwiegend von Menschen zwischen 35 und 55 Jahren gesehen. Wie viele auf Ja oder Nein geklickt haben, wie viele Daumen hoch die Anzeige bekommen hat und wie oft sie geteilt wurde, ist nicht bekannt. Und auch nicht, was die Zielgruppe dieser Anzeige vor dem Brexit-Referendum noch zu sehen bekam. Das weiß nur Facebook.

Das, was wir über diese Beispiel-Anzeige wissen, hätten wir vermutlich niemals erfahren, wenn alles so weitergegangen wäre in Sachen politische Social-Media-Kampagnen wie vor den Wahlen in Großbritannien und USA im Jahr 2016. Doch die Wucht der Wahlergebnisse hat in diesen beiden Ländern dazu geführt, dass seitdem parlamentarische und staatliche Untersuchungsausschüsse, Wahlaufsichts- und Datenschutzbehörden prüfen, was genau passiert ist. Denn sämtliche Wahlumfragen hatten ein anderes Ergebnis vorausgesagt – beim Brexit noch bis tief in die Wahlnacht hinein. Wer erinnert sich noch daran, dass daraufhin viele ihr Vertrauen in Wahlumfragen verloren?

Es gibt heute erschreckende Erkenntnisse dazu, wie die Menschen in den USA und in Großbritannien in ihrer Abstimmungsentscheidung über Onlinekampagnen massiv beeinflusst wurden. Nicht nur Journalistinnen und Journalisten haben in den vergangenen anderthalb Jahren mit Hilfe von Whistleblowern immer mehr Fakten darüber zusammengetragen, auch die britische Wahlaufsichtsbehörde, die Datenschutzbehörde und der parlamentarischen Untersuchungsausschuss für Digitales, Kultur, Medien und Sport haben bestätigt: Beim Brexit-Referendum wurden Wahlgesetze gebrochen und Daten missbraucht. Hier beschreibe ich, wer diese Wahl gehackt hat.

Daran waren Datenanalysefirmen beteiligt, die zur SCL-Unternehmensgruppe gehören. SCL hat zum Teil zeitgleich im Auftrag von westlichen Verteidigungsministerien Maßnahmen zur Terrorabwehr und andere privatisierte Geheimdienstaktionen durchgeführt. Die Analysen und Modelle der Leave-Kampagnen wurden zum Teil von russischen Servern aus eingesehen, was vielleicht bedeutet, dass auch die Datensätze durch russische Firmen oder Regierungsorgane benutzt worden sind (ob das so war, wird noch untersucht). Außerdem waren sogenannte russische Trollfabriken in die Kampagnenarbeit verstrickt, wie zum Beispiel die Internet Research Agency in St. Petersburg, der man Verbindungen zum Kreml nachsagt. Auch die Leave-Kampagnen selbst haben nach eigenen Aussagen Botarmeen eingesetzt.

Eine andere recht bekannte Gruppe neben VoteLeave, die für den Austritt warb, ist Leave.EU, die von der UKIP-Partei und ihrem ehemaligen Vorsitzenden Nigel Farage unterstützt wurde. Er ist derzeit Europaabgeordneter für UKIP und Posterboy der rechten Parteien im Europaparlament. Hauptsponsoren für Leave.EU sollen Kontakte zu russischen Diplomaten gehabt haben, die ihnen Anteile an Goldminen in Lesotho in Aussicht gestellt haben sollen – was die Geschäftsleute im Gegenzug dafür angeboten haben, ist noch nicht ermittelt. Inzwischen hat sich aber bestätigt, dass Arron Banks der Inhaber einer Versicherungsgesellschaft aus Bristol, tatsächlich eine Goldmine in Lesotho besitzt. Diese Geschäfte sind auch deshalb so verdächtig, weil Arron Banks‘ Versicherung ihre Kundendatenbank unerlaubt und unabgesprochen mit der Leave.EU-Kampagne geteilt hat und weil sich dieser Mann innerhalb von zwei Jahren von einem insolventen Privatmann zum größten Spender einer politischen Kampagne entwickelte, den es in Großbritannien je gegeben hat. In dieser Zeit hat er sich mehrmals mit dem russischen Botschafter in London getroffen, ohne den Grund dafür nennen zu können. 9,6 Millionen Pfund hatte dieser Geschäftsmann für Leave.EU übrig – die zum Teil in Form von Geldspenden, zum Teil als geschenkte Dienstleistungen zustande kamen.

Wie man Angst und Abwehr erzeugt

Ich könnte noch viele solcher Querverbindungen und beachtlichen Zufälle erzählen, aber man verliert dabei schnell den Überblick. Merken kann man sich aber: Es gab beim Referendum merkwürdige Geldflüsse, Lücken in der Buchhaltung und auffällige Kontakte zwischen Personen, die zum Teil auch vom US-amerikanischen Sonderermittler Robert Mueller untersucht werden. Robert Mueller leitet Ermittlungen in den USA, die der Frage nachgehen, wie die russische Einflussnahme auf die Präsidentschaftswahl 2016 organisiert wurde. Die Vorwürfe lauten hier: Korruption und Geldwäsche. Was davon bewiesen werden kann, ist noch abzuwarten.

Facebook wiederum hat den Datenmissbrauch, der beim Referendum begangen wurde, ermöglicht und die Aufklärungsarbeit erschwert, indem es Beweismittel zurückgehalten hat und nicht offenlegte, wer für Dark Ads bezahlte. Darks Ads sind solche, wie unsere Beispiel-Anzeige. Sie wird nur an bestimmte Facebooknutzer ausgeliefert und erscheint nicht auf den Facebookseiten derjenigen, die sie gebucht haben.

Dominic Cummings, der Chefstratege der VoteLeave-Kampagne, erklärt in diesem Video-Schnipsel, wie das Mikrotargeting auf Facebook technisch umgesetzt wurde.

Wenn du noch einmal hochscrollst zur Anzeige und dir die Farbgestaltung anschaust, stellst du fest, dass Großbritannien, der zugehörige Einkommensbalken und der Nein-Button dasselbe Blau haben, die Türkei plus zugehörigem Balken und die Frage sowie der Ja-Button in der Signalfarbe Rot gestaltet sind. Rot wie die Achtung-Schilder im Straßenverkehr, Rot wie Gefahr. Blau wirkt dagegen eher beruhigend. Und welche Wirkung haben die drei Fragezeichen nach „Good News“ auf dich? Verstärken sie das Attribut „Good“ oder werten sie es eher ab?

Und wenn du dir jetzt den Begleittext noch einmal anschaust, fällt dir vielleicht auf, dass er mit Frames arbeitet. Das sind Begriffe, mit denen bestimmte Assoziationen verbunden sind, die unser Gehirn zumeist unbewusst abruft, weil sie sich aus einer Vielzahl von Erfahrungen speisen, die wir im Laufe des Lebens machen. Häufig sind mit diesen Erfahrungen bestimmte Gefühle und Werte verbunden. Die Frames in unserer Beispiel-Anzeige erzeugen Angst und Ablehnung und führen zu Assoziationen, wie „Großbritannien zahlt schon jetzt zu viel für andere“, „wir Briten könnten selbst arm werden“, „wir Briten können nicht selbst darüber bestimmen, wofür wir unser Geld ausgeben“, „es werden viele Fremde nach Großbritannien kommen“ – kurzgesagt: Kontrollverlust, Verlust der Souveränität. Gleichzeitig wird eine einfache Lösung für deine Bedenken angeboten und suggeriert, du könntest schon im April dazu beitragen, dass die Leave-Kampagne im Juni die meisten Stimmen bekommt, kurzgesagt: Take back Control – „Übernimm wieder die Kontrolle“, der Schlachtruf der Brexiteers.

Ein Gedankenexperiment: Angenommen, du hättest so eine Anzeige gesehen und angenommen, du hättest über die EU-Beitrittskandidaten nicht viel Grundwissen. Weiter angenommen, du wüsstest auch nicht viel darüber, wie die EU funktioniert und du wärst in der Frage, ob dein Heimatland die EU besser verlassen sollte entweder völlig ratlos, ein bisschen unentschieden oder eher dafür. Und weil es dir schwer fällt Politikern zu vertrauen, hast du womöglich seit Jahren nicht gewählt. Was passiert, wenn du solche und ähnliche Botschaften andauernd siehst? Wie schwer wäre es dir gefallen, nicht auf Nein zu klicken? Wie schwer wäre es, sich nicht darüber aufzuregen? Wie viel Lust hättest du noch, dich mit der EU gründlicher zu beschäftigen?

Facebook hilft nur widerwillig

Der Vorsitzende des parlamentarischen Untersuchungsausschusses, Damian Collins, ein Tory-Abgeordneter von den hinteren Bänken, nennt das Verhalten von Facebook „nicht gut genug“. Wichtige Informationen wurden nur zäh und nach ausdrücklicher Aufforderung zur Verfügung gestellt. Mark Zuckerberg hat sich bis zuletzt geweigert, vor dem Untersuchungsausschuss auszusagen. Er muss aber, sollte er nach Großbritannien einreisen, per Erlass vor dem Ausschuss erscheinen. Inzwischen hat es Collins zu einiger Berühmtheit gebracht. Die öffentliche Anhörung des Whistleblowers Christopher Wiley, ehemaliger Angestellter der Datenfirma Cambridge Analytica, brach alle Zuschauerrekorde des Internetangebots des britischen Parlaments: Millionen Menschen schauten sich an, was Wiley und der Datenschutzexperte Paul-Olivier Dehaye am 27. März dem Ausschuss erklärten. Viele verstanden dadurch, dass Dark Ads und die dazugehörigen Big-Data-Analysen tatsächlich ein Problem sind.

Auch die Beispielanzeige ist so eine Dark Ad und taucht nicht auf der Facebookseite der VoteLeave-Kampagne auf. Welche Merkmale die Zielgruppe hat, an die solche Ads ausgeliefert werden, legt derjenige fest, der die Anzeige bezahlt. Facebook hat dieses Beispiel einer Dark Ad nach einem langwierigen Prozess dem Untersuchungsausschuss am 19. Juli 2018 übergeben, zusammen mit einigen demographischen Angaben über die Zielgruppe. Was wir nicht erfahren haben, ist, wie die Einstellungen zu den Ads genau aussahen.

Wählermeinungen beeinflussen – wie geht das genau?

Unsere Beispiel-Anzeige wurde ziemlich kurz nach dem offiziellen Start der Referendumskampagnen am 15. April 2016 geschaltet, nämlich am 27. April. Zusammen mit vier weiteren Motiven für die anderen vier EU-Beitrittskandidaten: Albanien, Mazedonien, Montenegro und Serbien. Immer verbunden mit der Aufforderung Nein zu klicken.

Vielleicht stimmst du mir zu: Diese Ad ist ziemlich gut gemacht. Sie bedient Ängste, die durch die Flucht von Millionen Menschen im Sommer 2015 in die EU hochgekocht (worden) sind. Und gleichzeitig verstärkt und nutzt sie diese Ängste. Außerdem – und das ist jetzt wichtig – hilft sie dabei mit, noch mehr Menschen zu identifizieren, die für solche Botschaften empfänglich sind. Mit dieser Art Anzeige lässt sich die Effektivität einer politischen Kampagne enorm steigern. Wie das?

Bis zu 505.000 Menschen haben diese Anzeige gesehen, und wenn nur 5.000 auf Nein geklickt haben, konnte man diese Menschen nutzen, um weitere Informationen über sie selbst und andere, die genauso denken, zu sammeln. 5.000 Klicks entsprechen einer Klickrate von einem Prozent. Das ist die Rate, die durch Online-Anzeigen üblicherweise erreicht wird (normal sind 1 bis 3 Prozent).

Was ist beim Klick auf Nein passiert? Genau wissen wir das nicht, weil Facebook keine Informationen dazu gegeben hat. Aber das übliche Prinzip bei Online-Kampagnen funktioniert ungefähr so: Die Türkei-Frage leitet dich auf eine Website, auf der sich vielleicht weitere Fragen oder Infos dieser Art befinden oder eine Aufforderung, einen Newsletter zu abonnieren. Vielleicht führt sie auch zu einem Gewinnspiel oder zu einem Spendenaufruf, vielleicht zu einer Seite, die dich zu ähnlichen Facebookseiten weiterleitet. In jedem Fall irgendeine Aktion, die es

  • a) den Kampagnenleuten ermöglicht, weitere Informationen über dich zu bekommen oder
  • b) dich an die Kampagne anbindet oder
  • c) dich durch Unterhaltungslinks oder Gewinnspiele zum Hinterlassen deiner Adressdaten verleitet. Dabei werden Tracking-Cookies aktiviert, kurze Codeschnipsel, mit denen sich deine weitere Reise durchs Netz verfolgen lässt.

Gezielte politische Anzeigen

Das Ziel der Aktion ist, dich besser kennenzulernen, zum Beispiel, welche Seiten du besuchst, welche Musik du hörst, was du kaufst, mit wem du befreundet bist, wo du wohnst, deine Handynummer, deine Bank, mit welchem Gerät du durchs Netz surfst, welchen Browser du benutzt, wann du surfst und so weiter. Diese Informationen werden von den Datenanalysefirmen in einer Datenbank zusammengeführt, die so gestaltet ist, dass sie sich mit wenigen Klicks durchsuchen und sortieren lässt – und zwar nach unterschiedlichen Merkmalen. Dazu gehören nicht nur Konsummerkmale, sondern auch Persönlichkeitsmerkmale. Profiling ist das Wort dafür. Beim Brexit hat das die kanadische Firma AIQ übernommen. Der Zweck der Übung: So kann man dich besser ansprechen, weil man die Anzeigen nach deinen Vorlieben und gegebenenfalls sogar passend zu deinen Persönlichkeitsmerkmalen gestalten kann.

In dem Moment, in dem du auf der Website, auf der du durch deinen Nein-Klick gelandet bist, eine Aktion machst, wird dein Klick zur Konversion – das heißt, du wirst vom Besucher zum Kunden und die Klickrate wird zur Konversionsrate. Whistleblower Christopher Wiley hat berichtet, dass die VoteLeave-Ads Konversionsraten zwischen 5 und 10 Prozent erreichten und damit das bis zu Zehnfache des Üblichen. Das heißt: Von den bis 505.000 Facebooknutzern, die unsere Dark Ad sahen, haben bis zu 50.000 Leute irgendeine Aktion auf der Zielwebsite gemacht, die ihrem Profiling diente.

Ads, die mit Gewinnspielen verknüpft sind, Umfragen machen, Ja-Nein-Fragen stellen oder auf andere Weise zu Klicks auffordern, werden vor allem am Anfang einer politischen Kampagne geschaltet. Mit ihnen testet man, welche Botschaften bei wem besonders gut ankommen, gleicht das mit Persönlichkeitsmodellen ab und füttert so die Profildatenbank immer weiter. Das Ganze lässt sich anschließend Anzeigentypen zuordnen. Solche Modelle, wenn sie einmal erstellt sind, bleiben bestehen, selbst wenn die Nutzerdaten, mit denen man sie gebaut hat, gelöscht werden. So ein algorithmisches Modell ist das Herz der Big-Data-Analyse. Es lässt sich bei sämtlichen künftigen Kampagnen wiederverwerten und mit jeder Anwendung verfeinern.

Ein recht einfaches Beispiel aus der Werbung ist zum Beispiel die Ansprache von Introvertierten und Extrovertierten. Wenn man herausgefunden hat, wer mit höherere Wahrscheinlichkeit zu welcher Gruppe gehört, lassen sich Sprache und Bildauswahl darauf anpassen. Für Introvertierte werden eher Bilder aus dem häuslichen Umfeld und beruhigende Farben gewählt, für Extrovertierte gibt es dynamischere Fotos und anregende Farbgebung. Alles für ein und das gleiche Produkt. Dieses Konzept lässt sich (bisher) nur bei Online-Werbung umsetzen.

Die EU als Sündenbock

Bei den Brexit-Kampagnen wurden viele Dark Ads eingesetzt, die ganz unterschiedliche Assoziationen zur EU hervorrufen sollten: Die EU sei schlecht für Tier- und Umweltschutz, schlecht fürs britische Gesundheitssystem, zu teuer, lasse zu viele EU-Bürger ins Land, diskriminiere Nicht-EU-Bürger, unterlaufe die staatliche Souveränität, hindere am freien Handel und marginalisiere das Land.

Dazu sind die folgenden Zahlen zu den Dark Ads der Leave-Kampagnen interessant. Sie wurden von Facebook zur Verfügung gestellt und von einem Journalisten der BBC so zusammengetragen:

  • Die Datenfirma AIQ hat im Auftrag der Leave-Kampagnen 1.433 Anzeigen geschaltet

  • Diese Anzeigen wurden zwischen 169 und 373 Millionen Mal gesehen

  • 795 dieser Anzeigen nahmen Bezug auf den berühmten Slogan des Brexit-Busses, dass Großbritannien 350 Millionen Pfund pro Woche sparen würde, wenn es die EU verließe

  • 180 Anzeigen nahmen Bezug auf das Gesundheitssystem

  • 100 Anzeigen behandelten das Thema Immigration

  • 758 enthielten das Stichwort „Control“

  • 470 Anzeigen wurden mehr als 5.000 Mal gesehen

  • 252 Anzeigen wurden weniger als 1.000 Mal gesehen

Mit Konversionsraten von bis zu 10 Prozent und bei bis zu 1 Million erreichten Facebooknutzern pro Anzeige kamen auf diese Weise sehr viele Daten zusammen, mit deren Hilfe man die Kampagne immer feiner justieren konnte – zur Vorbereitung auf das Finale am 23. Juni 2016. Zwei bis drei Tage vor dem Referendumstag erhöhten die Kampagnen ihre Aussenderaten, das heißt, sie veröffentlichten mehr Anzeigen in kürzeren Abständen und konnten dank des Profilings ihre Zielgruppen auf Facebook dabei sehr gezielt ansprechen. Ein Prinzip aus dem Konsumentenmarketing macht’s möglich – Mikrotargeting: Die richtige Botschaft zur richtigen Zeit an die richtigen Menschen bringen. Den Effekt, den ein solches „Bombardement“ hat, kann man an einer Grafik nachvollziehen, die zeigt, wie Menschen auf die Frage antworten: „Wenn es ein Referendum über die Mitgliedschaft Großbritanniens in der EU gäbe, wie würden Sie sich entscheiden?“ Der massive Anstieg der Leave-Kurve kurz nach dem Start der Referendumskampagnen ist sehr auffällig. Interessant ist auch: Zu dem Zeitpunkt, an dem Großbritannien die EU verlassen wird, werden vielleicht weniger als 40 Prozent der Bürger damit einverstanden sein.

Warum hatte die Leave-Kampagne so einen durchschlagenden Erfolg? Eine aktuelle Studie kommt zu dem Schluss, dass die britische Austeritätspolitik nach der Wirtschaftskrise 2008 maßgeblich zu der Entscheidung, die EU zu verlassen, beigetragen hat. Die prekäre Situation in Teilen der Bevölkerung führte im ersten Schritt dazu, dass die populistische Partei UKIP viel Zulauf bekam, im zweiten Schritt, dass die Tory-Partei versuchte, durch Übernehmen der UKIP-Agenda verlorene Stimmen zurückzugewinnen, und dass im dritten Schritt der Sieg des Referendums an die populistischen Inhalte ging.

Es erklärt aber noch nicht, warum eine Mehrheit der Wähler beim Referendum plötzlich dachte, dass mit dem Austritt aus der EU die innenpolitischen Probleme gelöst werden könnten. Dafür brauchte es die Botschaft, dass es einen Schuldigen an der Situation gebe: die EU und ihre Repräsentanten im Land, die EU-Bürger. Das war die berühmte einfache Lösung für ein komplexes Problem. Dass sich diese einfache Lösung so gut an die Frau und den Mann bringen ließ, hatte auch damit zu tun, dass man die Psychologie hinter der Sehnsucht nach der heilen Welt ausnutzen konnte. Hinzu kommt, dass die Anspielungen auf das untergegangene British Empire und die Betonung auf die Souveränität Großbritanniens mit dem Slogan „Take back control“ sehr gut gelang.

Illegal abgefischte Facebookdaten

Die Überzeugungsarbeit für Unentschlossene klappte bei Facebook besonders gut – dank Facebooks Struktur. Denn zusätzlich zu dem legalen Weg des Datensammelns durch Werbeanzeigen haben die Kampagnen illegal abgefischte Facebookdaten genutzt. Ermöglicht hat das eine App, die der russische Psychologe Alexander Kogan von der Universität Cambridge und sein Partner Joseph Chancellor (übrigens inzwischen bei Facebook angestellt) gebaut haben. Diese App hat mithilfe einer Privatssphäreeinstellung und einer offenen Schnittstelle für externe App-Entwickler – beides ist inzwischen geändert – die Facebookdaten der App-Nutzer und ihrer Freunde gesammelt, um psychologische Datenprofile zu erstellen. Die mehr als 80 Millionen Facebook-Datensätze, die die Psychologen offiziell für ihre Forschung verwenden wollten, wurden an Cambridge Analytica verkauft und damit allen Töchtern der SCL-Gruppe zugänglich. Facebook behauptet zwar, die Beteiligten zum Löschen der Datensätze aufgefordert zu haben, nachdem der unerlaubte Verkauf der Daten ans Licht kam, aber überprüft hat es das nicht. Was aus zwei Gründen auch nicht entscheidend ist:

  1. Du erinnerst dich an AIQ? Das ist die oben erwähnte kanadische Datenanalysefirma Aggregate IQ, bei der erwiesenermaßen Dark Ads in Auftrag gegeben wurden. Cambridge Analytica nutzte dieselbe Analyseplattform zum Profiling der Daten wie AIQ: Ripon. Diese Plattform wiederum hatte AIQ 2015 im Auftrag der Datenanalysefirma SCL gebaut, dem Mutterkonzern von Cambridge Analytica. Mit Einspeisen der Daten auf Ripon wurde es egal, ob auf lokalen Festplatten noch erschlichene Facebookdatensätze lagen oder nicht. Denn:

  2. Datensätze zu löschen ist völlig wirkungslos, wenn aus diesen Datensätzen bereits Profile gebildet wurden, mit denen sich mithilfe von algorithmischen Modellen Targetingschablonen erstellen lassen, mit denen man unterschiedliche Interessengruppen und Persönlichkeitstypen gezielt ansprechen kann. Diese Modelle werden nie gelöscht, so die Aussage des US-amerikanischen Cyber-Sicherheitsexperten Chris Vickery vor dem britischen Untersuchungsausschuss. Denn die algorithmischen Modelle für das Mikrotargeting lagen auf Ripon und wurden, soweit man weiß, von allen SCL-Töchtern genutzt. Sicher weiß man, dass diese algorithmischen Modelle sowohl im Brexit- als auch im Trump-Wahlkampf genutzt worden sind. Und dass sie für zukünftige Wahlkämpfe zur Verfügung stehen, für die die Nachfolgefirmen von AIQ und Cambridge Analytica beauftragt werden.


Ich stelle in dieser dreiteiligen Serie vor, was wir über die Leave-Kampagnen im Brexit-Referendum wissen – mit welchen Methoden sie gearbeitet haben und welche Rolle Facebook dabei spielte. Im ersten Teil habe ich mir zuerst die technische Seite angesehen und die politischen Hintergründe zu den beteiligten Datenanalysefirmen erklärt. Im zweiten Teil geht es um die größere politische Dimension: Welche Geschichte haben politische Desinformationskampagnen – und was wissen wir darüber, welche Kräfte daran gearbeitet haben, dass die Idee des Brexits tatsächlich Realität wurde? Im dritten Teil erfährst du in einem Interview mit dem ehemaligen Polizisten und Investigativjournalisten James Patrick, welche Rolle Desinformationskampagnen innerhalb der hybriden Kriegsführung spielen.

Wenn ihr wissen wollt, welche Quellen ich verwendet habe, könnt ihr euch hier mein Rechercheprotokoll ansehen.

In dieser Trilogie zum Brexit und wie das Referendum manipuliert wurde, habe ich versucht, von der Technik über die Strategie bis zu den Akteuren ein möglichst komplettes Bild der Vorgänge rund um das Referendum zu zeichnen. Das Ganze ist sehr komplex, deshalb konnte ich nicht auf alle Aspekte ausführlich eingehen und nicht alle eure Fragen, die ihr mir im Vorfeld geschickt habt, beantworten. Eure Fragen haben mir aber sehr geholfen, die Texte zu schreiben und ich möchte mich an dieser Stelle herzlich dafür bedanken.
Vielleicht kann das Wissen um diese Ereignisse in Deutschland dazu beitragen, dass unsere Wahlen und Abstimmungen besser vor Manipulationen geschützt werden können. Und vielleicht hilft es auch den Briten, wenn andere Europäer mehr darüber wissen.

Redaktion: Theresa Bäuerlein; Schlussredaktion: Vera Fröhlich; Bildredaktion Martin Gommel.

Wie manipuliert man eine Wahl? Erklärt am Beispiel des Brexit – Die Technik

0:00 0:00

Einfach unterwegs hören mit der KR-Audio-App