Schon heute verfügbare KI-Instanzen sind in der Lage sehr subtil und ziemlich zielgerichtet Bürgerinnen und Bürger zu einem Meinungsumschwung zu bringen. (Foto: KI).

Stellen Sie sich vor: Es ist Abend, Sie sitzen mit dem Laptop am Küchentisch, die Nachrichten rauschen noch im Kopf. Aus Neugier tippen Sie eine Frage in einen Chatbot – vielleicht zu Trumps Zollpolitik, zum Ukrainekrieg oder zur Zuwanderung. Erst bekommen Sie nüchterne Fakten, dann einen überraschenden Vergleich, schliesslich ein Argument, das Sie stutzen lässt. Zehn Minuten später merken Sie: Ihre Haltung hat sich verschoben. Nicht, weil Sie ein kluges Gespräch mit einem Menschen geführt haben, sondern weil eine Maschine Sie überzeugt hat.

Genau dieses Szenario hat nun eine neue Studie des britischen AI Security Institute (AISI) untersucht. Die Forscherinnen und Forscher testeten die neuesten Systeme von OpenAI, Meta, xAI oder auch etwa von der chinesischen Plattform Alibaba und kamen zu einem ebenso bemerkenswerten wie beunruhigenden Befund: Schon ein Gespräch von weniger als zehn Minuten reicht, um politische Überzeugungen oder Kaufentscheide spürbar zu verändern.

Mitten im Gespräch: Die neue Macht der KI

Die Ergebnisse der AISI-Studie zeigen, wie effektiv moderne Chatbots sein können. OpenAI’s GPT-4o erwies sich dabei als besonders überzeugend: Es war 41 Prozent wirksamer als statische Textbotschaften, wenn es darum ging, Menschen zum Umdenken zu bewegen. Noch eindringlicher: Wenn Chatbots ihre Argumentation auf Alter, Geschlecht oder politische Grundhaltung der Nutzerinnen und Nutzer zuschnitten, stieg die Überzeugungskraft um weitere fünf Prozent.

Was die Studie ebenfalls festhielt: Die Effekte sind nicht nur kurzfristig. Zwischen 36 und 42 Prozent der veränderten Meinungen hielten auch einen Monat später noch an. Das bedeutet, dass KI nicht bloss im Moment beeinflusst – sie kann Ansichten langfristig verschieben.

Wie KI-Modelle Meinungen verändern

Was macht diese Systeme so wirkmächtig? David Rand, Professor an der Cornell University und Mitautor der Studie, bringt es auf den Punkt: KI-Modelle können «grosse Mengen relevanter Belege generieren und diese effektiv und verständlich kommunizieren». Besonders überzeugend werden sie, wenn sie ihre Botschaften an die bestehenden Überzeugungen oder demografischen Merkmale der Nutzerinnen und Nutzer anpassen.

Damit wird deutlich: Diese Technologie ist nicht nur Informationsquelle, sondern ein Werkzeug gezielter Beeinflussung. Die Grenze zwischen Dialog und Manipulation verschwimmt.

Mechanismen der Beeinflussung

Die Forschung zeigt vier Hauptmechanismen, die erklären, warum Meinungen so schnell ins Wanken geraten:

  • Personalisierung und Echokammern: KI passt Antworten an Nutzerprofile an, verstärkt Vorurteile und schränkt Perspektiven ein.
  • Ausnutzen kognitiver Verzerrungen: Emotionale Trigger und Bestätigungsfehler werden bewusst genutzt, um Haltungen zu beeinflussen.
  • Delegation von Urteilskraft: Wer einem Chatbot die Bewertung von Argumenten überlässt, gibt ein Stück eigener Reflexion ab.
  • Unsichtbares Framing: Schon die Auswahl und Reihenfolge von Argumenten kann ein Gespräch subtil lenken.

Die AISI-Studie belegt: Diese Mechanismen sind nicht nur Theorie, sie wirken, und zwar messbar schnell.

Die ethische Sprengkraft

Die Forschenden warnen ausdrücklich vor dem Missbrauchspotenzial. Mit vergleichsweise geringem Aufwand lassen sich «Persuasionsmaschinen» trainieren und damit politische Meinungen, aber auch Kaufentscheidungen gezielt steuern. Schon heute setzen Unternehmen KI ein, um ihre Verkaufsargumente zu optimieren.

Die politische Dimension ist jedoch ungleich brisanter. Wenn Konzerne oder autoritäre Staaten solche Werkzeuge einsetzen, um Stimmungen zu beeinflussen, steht die demokratische Willensbildung selbst auf dem Spiel.

Medienkompetenz ist wichtig, aber sie allein reicht nicht. Nötig sind klare Regeln: Wer programmiert die Algorithmen? Wer entscheidet, welche Botschaften verstärkt oder abgeschwächt werden? Und wie verhindern wir, dass private Interessen in den Maschinenlogiken das Politische dominieren?

Was tun gegen subtile Beeinflussung?

Die AISI-Studie zeigt, wie leicht sich Menschen von Chatbots überzeugen lassen. Aber das bedeutet nicht, dass wir wehrlos sind. Es gibt konkrete Schritte, um die eigene Urteilsfähigkeit im digitalen Diskurs zu stärken:

  1. Gespräche hinterfragen, nicht nur Inhalte prüfen. Wer mit KI-Chatbots diskutiert, sollte nicht nur auf die Fakten achten, sondern auch die Gesprächsführung beobachten: Warum wird mir genau dieses Argument präsentiert? Werde ich gerade in eine Richtung gelenkt? Ein Moment des Innehaltens kann Manipulation sichtbar machen.
  2. Vielfalt der Quellen pflegen. Politische Haltungen sollten nie allein durch den Austausch mit KI entstehen. Wer sich regelmässig mit echten Menschen austauscht, verschiedene Medien liest und sich bewusst unterschiedliche Perspektiven zumutet, schützt sich vor Echokammern – ob algorithmisch oder menschlich erzeugt.
  3. Digitale Selbstverteidigung lernen. Genauso wie man Spam erkennt oder Phishing-Mails meidet, braucht es Kompetenzen im Umgang mit KI. Schulen, Universitäten, aber auch politische Institutionen sollten vermitteln, wie Sprachmodelle Überzeugungstechniken einsetzen – und wie man diese erkennt.
  4. Transparenz einfordern. Nutzerinnen und Nutzer sollten wissen, ob ein Text, Argument oder Gespräch von einer KI stammt. Klare Kennzeichnungen und gesetzliche Vorgaben könnten verhindern, dass politische Debatten von unsichtbarer Maschinenlogik geprägt werden.

«Die Schweiz findet weltweit Anerkennung und Sympathie»

Weshalb die Schweiz inspiriert und in Europa nicht Trittbrettfahrerin sein darf – Avenir-Suisse-Direktor Gerhard Schwarz im Gespräch.

Umstrittener Wettstreit der Städte um Amazon in den USA

Die Schweiz will keine Ansiedlung von Unternehmen «um jeden Preis».

Stärkung der Wirtschaft durch die Frauen

Eine neue Initiative der Weltbank zur Förderung der wirtschaftlichen Emanzipation und der politischen Repräsentation von Frauen.

Wenn KI Ihre politische Meinung formt

Wie Chatbots Überzeugungen in zehn Minuten beeinflussen und was Sie konkret dagegen unternehmen können

Politische Kampagnen setzen immer weniger auf Zeitungsinserate

Bei knappem Ausgang einer Volksabstimmung waren sie zuvor beliebte Rettungsanker.

Einzigartige Dynamik des Arc lémanique

Wer denkt, Zürich und Basel seien die alleinigen Wirtschaftsmotoren der Schweiz, der sollte über den Röstigraben blicken.

Simulation statt Panik

Wie realistische Krisenübungen gelingen und was ihre grossen Vorteile im Hinblick auf eine krisensichere Organisation sind

Zeit, den grossen Sprung zu wagen

Statt mit Symbolpolitik wäre den Frauen mit der Individualbesteuerung mehr gedient.

Der Mythos der «undatebaren» Wählerinnen und Wähler

Warum der Dating-Markt Einfluss auf die Stabilität der Demokratie hat