Schon heute verfügbare KI-Instanzen sind in der Lage sehr subtil und ziemlich zielgerichtet Bürgerinnen und Bürger zu einem Meinungsumschwung zu bringen. (Foto: KI).

Stellen Sie sich vor: Es ist Abend, Sie sitzen mit dem Laptop am Küchentisch, die Nachrichten rauschen noch im Kopf. Aus Neugier tippen Sie eine Frage in einen Chatbot – vielleicht zu Trumps Zollpolitik, zum Ukrainekrieg oder zur Zuwanderung. Erst bekommen Sie nüchterne Fakten, dann einen überraschenden Vergleich, schliesslich ein Argument, das Sie stutzen lässt. Zehn Minuten später merken Sie: Ihre Haltung hat sich verschoben. Nicht, weil Sie ein kluges Gespräch mit einem Menschen geführt haben, sondern weil eine Maschine Sie überzeugt hat.

Genau dieses Szenario hat nun eine neue Studie des britischen AI Security Institute (AISI) untersucht. Die Forscherinnen und Forscher testeten die neuesten Systeme von OpenAI, Meta, xAI oder auch etwa von der chinesischen Plattform Alibaba und kamen zu einem ebenso bemerkenswerten wie beunruhigenden Befund: Schon ein Gespräch von weniger als zehn Minuten reicht, um politische Überzeugungen oder Kaufentscheide spürbar zu verändern.

Mitten im Gespräch: Die neue Macht der KI

Die Ergebnisse der AISI-Studie zeigen, wie effektiv moderne Chatbots sein können. OpenAI’s GPT-4o erwies sich dabei als besonders überzeugend: Es war 41 Prozent wirksamer als statische Textbotschaften, wenn es darum ging, Menschen zum Umdenken zu bewegen. Noch eindringlicher: Wenn Chatbots ihre Argumentation auf Alter, Geschlecht oder politische Grundhaltung der Nutzerinnen und Nutzer zuschnitten, stieg die Überzeugungskraft um weitere fünf Prozent.

Was die Studie ebenfalls festhielt: Die Effekte sind nicht nur kurzfristig. Zwischen 36 und 42 Prozent der veränderten Meinungen hielten auch einen Monat später noch an. Das bedeutet, dass KI nicht bloss im Moment beeinflusst – sie kann Ansichten langfristig verschieben.

Wie KI-Modelle Meinungen verändern

Was macht diese Systeme so wirkmächtig? David Rand, Professor an der Cornell University und Mitautor der Studie, bringt es auf den Punkt: KI-Modelle können «grosse Mengen relevanter Belege generieren und diese effektiv und verständlich kommunizieren». Besonders überzeugend werden sie, wenn sie ihre Botschaften an die bestehenden Überzeugungen oder demografischen Merkmale der Nutzerinnen und Nutzer anpassen.

Damit wird deutlich: Diese Technologie ist nicht nur Informationsquelle, sondern ein Werkzeug gezielter Beeinflussung. Die Grenze zwischen Dialog und Manipulation verschwimmt.

Mechanismen der Beeinflussung

Die Forschung zeigt vier Hauptmechanismen, die erklären, warum Meinungen so schnell ins Wanken geraten:

  • Personalisierung und Echokammern: KI passt Antworten an Nutzerprofile an, verstärkt Vorurteile und schränkt Perspektiven ein.
  • Ausnutzen kognitiver Verzerrungen: Emotionale Trigger und Bestätigungsfehler werden bewusst genutzt, um Haltungen zu beeinflussen.
  • Delegation von Urteilskraft: Wer einem Chatbot die Bewertung von Argumenten überlässt, gibt ein Stück eigener Reflexion ab.
  • Unsichtbares Framing: Schon die Auswahl und Reihenfolge von Argumenten kann ein Gespräch subtil lenken.

Die AISI-Studie belegt: Diese Mechanismen sind nicht nur Theorie, sie wirken, und zwar messbar schnell.

Die ethische Sprengkraft

Die Forschenden warnen ausdrücklich vor dem Missbrauchspotenzial. Mit vergleichsweise geringem Aufwand lassen sich «Persuasionsmaschinen» trainieren und damit politische Meinungen, aber auch Kaufentscheidungen gezielt steuern. Schon heute setzen Unternehmen KI ein, um ihre Verkaufsargumente zu optimieren.

Die politische Dimension ist jedoch ungleich brisanter. Wenn Konzerne oder autoritäre Staaten solche Werkzeuge einsetzen, um Stimmungen zu beeinflussen, steht die demokratische Willensbildung selbst auf dem Spiel.

Medienkompetenz ist wichtig, aber sie allein reicht nicht. Nötig sind klare Regeln: Wer programmiert die Algorithmen? Wer entscheidet, welche Botschaften verstärkt oder abgeschwächt werden? Und wie verhindern wir, dass private Interessen in den Maschinenlogiken das Politische dominieren?

Was tun gegen subtile Beeinflussung?

Die AISI-Studie zeigt, wie leicht sich Menschen von Chatbots überzeugen lassen. Aber das bedeutet nicht, dass wir wehrlos sind. Es gibt konkrete Schritte, um die eigene Urteilsfähigkeit im digitalen Diskurs zu stärken:

  1. Gespräche hinterfragen, nicht nur Inhalte prüfen. Wer mit KI-Chatbots diskutiert, sollte nicht nur auf die Fakten achten, sondern auch die Gesprächsführung beobachten: Warum wird mir genau dieses Argument präsentiert? Werde ich gerade in eine Richtung gelenkt? Ein Moment des Innehaltens kann Manipulation sichtbar machen.
  2. Vielfalt der Quellen pflegen. Politische Haltungen sollten nie allein durch den Austausch mit KI entstehen. Wer sich regelmässig mit echten Menschen austauscht, verschiedene Medien liest und sich bewusst unterschiedliche Perspektiven zumutet, schützt sich vor Echokammern – ob algorithmisch oder menschlich erzeugt.
  3. Digitale Selbstverteidigung lernen. Genauso wie man Spam erkennt oder Phishing-Mails meidet, braucht es Kompetenzen im Umgang mit KI. Schulen, Universitäten, aber auch politische Institutionen sollten vermitteln, wie Sprachmodelle Überzeugungstechniken einsetzen – und wie man diese erkennt.
  4. Transparenz einfordern. Nutzerinnen und Nutzer sollten wissen, ob ein Text, Argument oder Gespräch von einer KI stammt. Klare Kennzeichnungen und gesetzliche Vorgaben könnten verhindern, dass politische Debatten von unsichtbarer Maschinenlogik geprägt werden.

Wahlkampf im Spannungsfeld von Person und Partei

Die National- und Ständeratswahlen machen das Jahr 2023 wieder einmal zu einem intensiven Politjahr. Was es für die Kandidierenden zu beachten gilt.

«Gerade Bern könnte weltweit eine Schlüsselrolle spielen»

Forscherin Evelyn Tauchnitz sieht Potenzial bei der Forschung neuer Technologien für die Demokratie.

Was ist der Schweizer Finanzplatz noch wert?

Die Schlagzeilen über den Niedergang des Schweizer Finanzplatzes mehren sich geradezu inflationär. Ist der Abgesang auch gerechtfertigt? 10 Fakten.

«Die nächste Krise könnte völlig anders sein»

Die sicherheitspolitische Chefstrategin des Bundes Pälvi Pulli erklärt, warum Corona die bestehenden Risiken verschärft – und was sie von bürokratischen Pirouetten hält.

Wenn Proteste rund um den Globus rollen

Trotz Corona gehen weltweit Hunderttausende auf die Strasse. Eine Studie untersucht Ursachen der Protest-Pandemie.

Kleider machen Räte

Seit dieser Herbstsession dürfen Ständerätinnen wieder Schulter zeigen. Doch Blazer, Kostüme, Hemden und Krawatten prägen das Erscheinungsbild weiterhin. Neben Masken natürlich.

Worauf Sie bei der Jobsuche und im Dating achten sollten

Job- und Datingmarkt haben Gemeinsamkeiten: Sieben Tipps, die Ihre Erfolgschancen erhöhen.

Homeoffice: Ein Konzept mit Zukunft?

Für die Jungen, die Mobilien und die Karrierebewussten ist Präsenzzeit unverzichtbar. Und auch in der Peripherie sind weniger Veränderungen der Arbeitsformen zu erwarten.

Sieben Strategien, um Stress zu reduzieren

Ein wirksamer Umgang mit Stresssituationen kann unseren allgemeinen Gesundheitszustand verbessern und uns besser auf schwere und stark belastende Situationen vorbereiten.