AI lässt Brexit- und Trump-Kampagne wie Anfänger dastehen
Neue Technologien sind in der Lage, personalisierte politische Werbung zu automatisieren
Das Votum über den Brexit in Grossbritannien im Sommer 2016 sorgte für eine grosse Überraschung. Auf der anderen Seite des Atlantiks war Donald Trump nur noch wenige Monate davon entfernt, zum 45. Präsidenten der Vereinigten Staaten gewählt zu werden. Zur gleichen Zeit warb Alexander Nix, Geschäftsführer der kaum bekannten Cambridge Analytica, für den angeblichen Erfolg des Unternehmens bei der Beeinflussung von Wählerinnen und Wählern, die zum Schwenk vom einen Kandidaten zum anderen führe und auf der Ausnutzung besonderer psychologischer Schwächen der Wählerinnen und Wähler beruhe.
Zur Erinnerung: Bei dieser Taktik geht es darum, aus dem Online-Verhalten und den persönlichen Daten von Personen psychologische Eigenschaften abzuleiten, die nicht ohne Weiteres beobachtbar sind. Dazu gehören etwa Persönlichkeitsmerkmale. Anschliessend werden diese abgeleiteten psychologischen Eigenschaften genutzt, um hochgradig personalisierte Botschaften zu erstellen, die fast auf jede Person einzeln zugeschnitten sind. Cambridge Analytica war an der Vote-Leave-Kampagne (Vereinigtes Königreich), der Trump-Kampagne 2016 (Vereinigte Staaten) und anderen politischen Kampagnen in 68 Ländern beteiligt, bevor das Unternehmen 2018 nach der Einleitung von Ermittlungen in mehreren Ländern aufgab. Der daraus folgende Cambridge-Analytica-Skandal war letztlich auch ein Wendepunkt, wie die Rolle und die negativen Einflüsse von sozialen Medien auf Wahlresultate und Politikweichenstellungen wahrgenommen werden.
Gezielte Ansprache von verschiedenen Gruppen treibt Kosten in die Höhe
Letztlich waren das alles aber sehr aufwändige Operationen, weil für jede identifizierte Wählergruppe eigene Botschaften und Werbung entwickelt und produziert werden mussten. Seit 2016 ist nicht nur Zeit vergangen, es haben auch für Laien einfach bedienbare Anwendungen von künstlicher Intelligenz Einzug gehalten. Solche können nicht nur in Sekundenschnelle Artikel oder Textbausteine produzieren, sondern auch Bilder und selbst Videomaterial künstlich herstellen. Und sie werden immer besser und effizienter.
Nachvollziehbar, dass dies auch Forscher interessiert, weil damit politische Microtargeting-Kampagnen massiv billiger und viel schneller in der Umsetzung werden. In einer aktuellen Studie haben drei Psychologen von der University of Bristol untersucht. Interessant sind deren Resultate, weil sie auch die Effektivität von Botschaften und Werbung, die durch AI generiert wurden, überprüft haben. Wie sie schreiben, sehen sie in der zunehmenden Verfügbarkeit von Microtargeting-Werbung und der Zugänglichkeit von generativen Tools der künstlichen Intelligenz (KI) wie ChatGPT vor allem bezüglich des potenziellen Missbrauchs grosser Sprachmodelle bei der Skalierung von Microtargeting-Bemühungen für politische Zwecke eine ernstzunehmende Problematik.
Für die Forscher steht fest, dass jüngste technologische Fortschritte, die generative künstliche Intelligenz (KI) und Persönlichkeitsrückschlüsse aus konsumierten Texten beinhalten, es ermöglichen, eine potenziell hochskalierbare «Manipulationsmaschine» zu schaffen, die Personen auf der Grundlage ihrer einzigartigen Schwachstellen anspricht, ohne dass überhaupt noch menschliche Eingaben erforderlich sind.
Die Forscher haben dazu die Wirksamkeit dieser vermeintlichen «Manipulationsmaschine» untersucht. Die Ergebnisse zeigen folgendes:
Personalisierte politische Werbung, die auf die Persönlichkeit des Einzelnen zugeschnitten ist, ist effektiver als nicht personalisierte Werbung.
Die Machbarkeit der automatischen Generierung und Validierung dieser personalisierten Anzeigen ist in grossem Massstab durchaus möglich.
Für die Forscher aus Grossbritannien steht darum fest, dass diese Ergebnisse die potenziellen Risiken des Einsatzes von künstlicher Intelligenz und Microtargeting klar aufzeigen. Die Technologie ist in der Lage, schon sehr weit automatisiert gezielt politische Botschaften zu entwickeln, die auf der Grundlage von Persönlichkeitsmerkmalen bei den Menschen ankommen. Grosse Sprachmodelle (Large Language Models) sind in der Lage, bei der Skalierung von Microtargeting-Bemühungen eine entscheidende Rolle einzunehmen und helfen mit, die Kosten für solche Massnahmen massiv zu senken. Für die Studienverfasser ist somit auch klar, dass diese Entwicklung nicht nur Ethikern, sondern auch allen politischen Entscheidungsträgern Anlass zur Sorge geben sollte.