Schon heute verfügbare KI-Instanzen sind in der Lage sehr subtil und ziemlich zielgerichtet Bürgerinnen und Bürger zu einem Meinungsumschwung zu bringen. (Foto: KI).

Stellen Sie sich vor: Es ist Abend, Sie sitzen mit dem Laptop am Küchentisch, die Nachrichten rauschen noch im Kopf. Aus Neugier tippen Sie eine Frage in einen Chatbot – vielleicht zu Trumps Zollpolitik, zum Ukrainekrieg oder zur Zuwanderung. Erst bekommen Sie nüchterne Fakten, dann einen überraschenden Vergleich, schliesslich ein Argument, das Sie stutzen lässt. Zehn Minuten später merken Sie: Ihre Haltung hat sich verschoben. Nicht, weil Sie ein kluges Gespräch mit einem Menschen geführt haben, sondern weil eine Maschine Sie überzeugt hat.

Genau dieses Szenario hat nun eine neue Studie des britischen AI Security Institute (AISI) untersucht. Die Forscherinnen und Forscher testeten die neuesten Systeme von OpenAI, Meta, xAI oder auch etwa von der chinesischen Plattform Alibaba und kamen zu einem ebenso bemerkenswerten wie beunruhigenden Befund: Schon ein Gespräch von weniger als zehn Minuten reicht, um politische Überzeugungen oder Kaufentscheide spürbar zu verändern.

Mitten im Gespräch: Die neue Macht der KI

Die Ergebnisse der AISI-Studie zeigen, wie effektiv moderne Chatbots sein können. OpenAI’s GPT-4o erwies sich dabei als besonders überzeugend: Es war 41 Prozent wirksamer als statische Textbotschaften, wenn es darum ging, Menschen zum Umdenken zu bewegen. Noch eindringlicher: Wenn Chatbots ihre Argumentation auf Alter, Geschlecht oder politische Grundhaltung der Nutzerinnen und Nutzer zuschnitten, stieg die Überzeugungskraft um weitere fünf Prozent.

Was die Studie ebenfalls festhielt: Die Effekte sind nicht nur kurzfristig. Zwischen 36 und 42 Prozent der veränderten Meinungen hielten auch einen Monat später noch an. Das bedeutet, dass KI nicht bloss im Moment beeinflusst – sie kann Ansichten langfristig verschieben.

Wie KI-Modelle Meinungen verändern

Was macht diese Systeme so wirkmächtig? David Rand, Professor an der Cornell University und Mitautor der Studie, bringt es auf den Punkt: KI-Modelle können «grosse Mengen relevanter Belege generieren und diese effektiv und verständlich kommunizieren». Besonders überzeugend werden sie, wenn sie ihre Botschaften an die bestehenden Überzeugungen oder demografischen Merkmale der Nutzerinnen und Nutzer anpassen.

Damit wird deutlich: Diese Technologie ist nicht nur Informationsquelle, sondern ein Werkzeug gezielter Beeinflussung. Die Grenze zwischen Dialog und Manipulation verschwimmt.

Mechanismen der Beeinflussung

Die Forschung zeigt vier Hauptmechanismen, die erklären, warum Meinungen so schnell ins Wanken geraten:

  • Personalisierung und Echokammern: KI passt Antworten an Nutzerprofile an, verstärkt Vorurteile und schränkt Perspektiven ein.
  • Ausnutzen kognitiver Verzerrungen: Emotionale Trigger und Bestätigungsfehler werden bewusst genutzt, um Haltungen zu beeinflussen.
  • Delegation von Urteilskraft: Wer einem Chatbot die Bewertung von Argumenten überlässt, gibt ein Stück eigener Reflexion ab.
  • Unsichtbares Framing: Schon die Auswahl und Reihenfolge von Argumenten kann ein Gespräch subtil lenken.

Die AISI-Studie belegt: Diese Mechanismen sind nicht nur Theorie, sie wirken, und zwar messbar schnell.

Die ethische Sprengkraft

Die Forschenden warnen ausdrücklich vor dem Missbrauchspotenzial. Mit vergleichsweise geringem Aufwand lassen sich «Persuasionsmaschinen» trainieren und damit politische Meinungen, aber auch Kaufentscheidungen gezielt steuern. Schon heute setzen Unternehmen KI ein, um ihre Verkaufsargumente zu optimieren.

Die politische Dimension ist jedoch ungleich brisanter. Wenn Konzerne oder autoritäre Staaten solche Werkzeuge einsetzen, um Stimmungen zu beeinflussen, steht die demokratische Willensbildung selbst auf dem Spiel.

Medienkompetenz ist wichtig, aber sie allein reicht nicht. Nötig sind klare Regeln: Wer programmiert die Algorithmen? Wer entscheidet, welche Botschaften verstärkt oder abgeschwächt werden? Und wie verhindern wir, dass private Interessen in den Maschinenlogiken das Politische dominieren?

Was tun gegen subtile Beeinflussung?

Die AISI-Studie zeigt, wie leicht sich Menschen von Chatbots überzeugen lassen. Aber das bedeutet nicht, dass wir wehrlos sind. Es gibt konkrete Schritte, um die eigene Urteilsfähigkeit im digitalen Diskurs zu stärken:

  1. Gespräche hinterfragen, nicht nur Inhalte prüfen. Wer mit KI-Chatbots diskutiert, sollte nicht nur auf die Fakten achten, sondern auch die Gesprächsführung beobachten: Warum wird mir genau dieses Argument präsentiert? Werde ich gerade in eine Richtung gelenkt? Ein Moment des Innehaltens kann Manipulation sichtbar machen.
  2. Vielfalt der Quellen pflegen. Politische Haltungen sollten nie allein durch den Austausch mit KI entstehen. Wer sich regelmässig mit echten Menschen austauscht, verschiedene Medien liest und sich bewusst unterschiedliche Perspektiven zumutet, schützt sich vor Echokammern – ob algorithmisch oder menschlich erzeugt.
  3. Digitale Selbstverteidigung lernen. Genauso wie man Spam erkennt oder Phishing-Mails meidet, braucht es Kompetenzen im Umgang mit KI. Schulen, Universitäten, aber auch politische Institutionen sollten vermitteln, wie Sprachmodelle Überzeugungstechniken einsetzen – und wie man diese erkennt.
  4. Transparenz einfordern. Nutzerinnen und Nutzer sollten wissen, ob ein Text, Argument oder Gespräch von einer KI stammt. Klare Kennzeichnungen und gesetzliche Vorgaben könnten verhindern, dass politische Debatten von unsichtbarer Maschinenlogik geprägt werden.

«Neutralität ist ein beliebiger, ein bequemer Begriff»

Ständeratspräsident Hans Stöckli über sein Präsidialjahr der anderen Art, über seine Liebe zu Freiheit und Macht – und über die Rolle der Schweiz in einer unsicher gewordenen Welt.

Innovation braucht Demut und Tempo

Ein neues Führungsmodell aus Lausanne verspricht Managern mehr Erfolg in der digitalen Transformation.

«Bundesrat ist mittelfristig unser Ziel»

Michael Köpfli erklärt, warum die Grünliberalen jetzt einen Vormarsch in den Kantonen planen – und warum seine Arbeitstage als Generalsekretär einer stark gewachsenen Partei eher kürzer geworden sind.

«Putin will die Einheit der EU aufbrechen»

Weltraumforscherin Salome Gruchola erklärt, wie sie ein Instrument baut, um Leben im All nachzuweisen.

Was Pfizer, SpaceX und Epic Games besser machen

Ranking der weltweit innovativsten Unternehmen im Corona-Jahr 2020.

Zug – Vorbild für die ganze Schweiz

Die Innerschweizer Stadt lässt Bitcoin als Zahlungsmittel zu und macht einen richtigen Schritt in die Zukunft.

«Es war schon ein steiler Einstieg»

Martin Tschirren verrät, wie er als neuer Chef des Bundesamtes für Wohnungswesen ins kalte Corona-Wasser geworfen wurde – und warum er nicht unterging.

Die Polarisierung entspringt einem Urinstinkt

Wie Brücken über die Parteigrenzen hinweg gebaut werden können, hat Duke-Professor Chris Bail auch mit Experimenten untersucht.

Wie die U-30-Jährigen arbeiten wollen

Die Generation Z will laut dem US-Jobvermittler Handshake vor allem eines: absolute Flexibilität. Eine Herausforderung für die Unternehmen, aber auch eine Chance.