Wenn KI Ihre politische Meinung formt
Wie Chatbots Überzeugungen in zehn Minuten beeinflussen und was Sie konkret dagegen unternehmen können
Stellen Sie sich vor: Es ist Abend, Sie sitzen mit dem Laptop am Küchentisch, die Nachrichten rauschen noch im Kopf. Aus Neugier tippen Sie eine Frage in einen Chatbot – vielleicht zu Trumps Zollpolitik, zum Ukrainekrieg oder zur Zuwanderung. Erst bekommen Sie nüchterne Fakten, dann einen überraschenden Vergleich, schliesslich ein Argument, das Sie stutzen lässt. Zehn Minuten später merken Sie: Ihre Haltung hat sich verschoben. Nicht, weil Sie ein kluges Gespräch mit einem Menschen geführt haben, sondern weil eine Maschine Sie überzeugt hat.
Genau dieses Szenario hat nun eine neue Studie des britischen AI Security Institute (AISI) untersucht. Die Forscherinnen und Forscher testeten die neuesten Systeme von OpenAI, Meta, xAI oder auch etwa von der chinesischen Plattform Alibaba und kamen zu einem ebenso bemerkenswerten wie beunruhigenden Befund: Schon ein Gespräch von weniger als zehn Minuten reicht, um politische Überzeugungen oder Kaufentscheide spürbar zu verändern.
Mitten im Gespräch: Die neue Macht der KI
Die Ergebnisse der AISI-Studie zeigen, wie effektiv moderne Chatbots sein können. OpenAI’s GPT-4o erwies sich dabei als besonders überzeugend: Es war 41 Prozent wirksamer als statische Textbotschaften, wenn es darum ging, Menschen zum Umdenken zu bewegen. Noch eindringlicher: Wenn Chatbots ihre Argumentation auf Alter, Geschlecht oder politische Grundhaltung der Nutzerinnen und Nutzer zuschnitten, stieg die Überzeugungskraft um weitere fünf Prozent.
Was die Studie ebenfalls festhielt: Die Effekte sind nicht nur kurzfristig. Zwischen 36 und 42 Prozent der veränderten Meinungen hielten auch einen Monat später noch an. Das bedeutet, dass KI nicht bloss im Moment beeinflusst – sie kann Ansichten langfristig verschieben.
Wie KI-Modelle Meinungen verändern
Was macht diese Systeme so wirkmächtig? David Rand, Professor an der Cornell University und Mitautor der Studie, bringt es auf den Punkt: KI-Modelle können «grosse Mengen relevanter Belege generieren und diese effektiv und verständlich kommunizieren». Besonders überzeugend werden sie, wenn sie ihre Botschaften an die bestehenden Überzeugungen oder demografischen Merkmale der Nutzerinnen und Nutzer anpassen.
Damit wird deutlich: Diese Technologie ist nicht nur Informationsquelle, sondern ein Werkzeug gezielter Beeinflussung. Die Grenze zwischen Dialog und Manipulation verschwimmt.
Mechanismen der Beeinflussung
Die Forschung zeigt vier Hauptmechanismen, die erklären, warum Meinungen so schnell ins Wanken geraten:
Die AISI-Studie belegt: Diese Mechanismen sind nicht nur Theorie, sie wirken, und zwar messbar schnell.
Die ethische Sprengkraft
Die Forschenden warnen ausdrücklich vor dem Missbrauchspotenzial. Mit vergleichsweise geringem Aufwand lassen sich «Persuasionsmaschinen» trainieren und damit politische Meinungen, aber auch Kaufentscheidungen gezielt steuern. Schon heute setzen Unternehmen KI ein, um ihre Verkaufsargumente zu optimieren.
Die politische Dimension ist jedoch ungleich brisanter. Wenn Konzerne oder autoritäre Staaten solche Werkzeuge einsetzen, um Stimmungen zu beeinflussen, steht die demokratische Willensbildung selbst auf dem Spiel.
Medienkompetenz ist wichtig, aber sie allein reicht nicht. Nötig sind klare Regeln: Wer programmiert die Algorithmen? Wer entscheidet, welche Botschaften verstärkt oder abgeschwächt werden? Und wie verhindern wir, dass private Interessen in den Maschinenlogiken das Politische dominieren?
Was tun gegen subtile Beeinflussung?
Die AISI-Studie zeigt, wie leicht sich Menschen von Chatbots überzeugen lassen. Aber das bedeutet nicht, dass wir wehrlos sind. Es gibt konkrete Schritte, um die eigene Urteilsfähigkeit im digitalen Diskurs zu stärken: