Quand l’IA façonne votre opinion politique
En dix minutes, un chatbot peut influencer vos opinions : voici comment se protéger
Imaginez un peu : C’est le soir, vous êtes assis à la table de la cuisine avec votre ordinateur portable, les actualités résonnent encore dans votre tête. Par curiosité, vous tapez une question dans un chatbot, peut-être sur la politique douanière de Trump, la guerre en Ukraine ou l’immigration. Vous obtenez d’abord des faits bruts, puis une comparaison surprenante, et enfin un argument qui vous laisse pantois. Dix minutes plus tard, vous réalisez : Votre position a changé. Non pas parce que vous avez eu une conversation intelligente avec un être humain, mais parce qu’une machine vous a convaincu.
C’est précisément ce scénario qu’a examiné une nouvelle étude de l’AI Security Institute (AISI) britannique. Les chercheurs ont testé les systèmes les plus récents d’OpenAI, de Meta, de xAI ou encore de la plateforme chinoise Alibaba et sont parvenus à une conclusion aussi remarquable qu’inquiétante : une conversation de moins de dix minutes suffit à modifier sensiblement les convictions politiques ou les décisions d’achat.
Au cœur de la conversation : le nouveau pouvoir de l’IA
Les résultats de l’étude de l’AISI montrent à quel point les chatbots modernes peuvent être efficaces. Le GPT-4o d’OpenAI s’est révélé particulièrement convaincant : il était 41% plus efficace que les messages textuels statiques lorsqu’il s’agissait d’inciter les gens à changer de comportement. Plus fort encore, lorsque les chatbots adaptaient leur argumentation à l’âge, au sexe ou aux opinions politiques des utilisateurs, leur pouvoir de persuasion augmentait de 5 % supplémentaires.
Ce que l’étude a également constaté : Les effets ne sont pas seulement à court terme. Entre 36% et 42% des changements d’opinion se sont poursuivis un mois plus tard. Cela signifie que l’IA n’a pas seulement un impact sur le moment – elle peut faire évoluer les opinions à long terme.
Comment les modèles d’IA modifient les opinions
Qu’est-ce qui rend ces systèmes si puissants ? David Rand, professeur à l’université Cornell et co-auteur de l’étude, le résume ainsi : les modèles d’IA peuvent « générer de grandes quantités de preuves pertinentes et les communiquer de manière efficace et compréhensible ». Ils deviennent particulièrement convaincants lorsqu’ils adaptent leurs messages aux croyances existantes ou aux caractéristiques démographiques des utilisatrices et utilisateurs.
Cela montre clairement que cette technologie n’est pas seulement une source d’information, mais aussi un outil d’influence ciblée. La frontière entre dialogue et manipulation s’estompe.
Mécanismes d’influence
La recherche met en évidence quatre mécanismes principaux qui expliquent pourquoi les opinions vacillent si rapidement :
L’étude de l’AISI le prouve : Ces mécanismes ne sont pas que de la théorie, ils agissent, et ce, de manière mesurable et rapide.
La force explosive éthique
Les chercheurs mettent expressément en garde contre le potentiel d’abus. Avec un investissement relativement faible, il est possible d’entraîner des « machines de persuasion » et de cibler ainsi les opinions politiques, mais aussi les décisions d’achat. Aujourd’hui déjà, les entreprises utilisent l’IA pour optimiser leurs arguments de vente.
La dimension politique est toutefois bien plus explosive. Lorsque des entreprises ou des États autoritaires utilisent de tels outils pour influencer les sentiments, c’est la formation démocratique de la volonté elle-même qui est en jeu.
L’éducation aux médias est importante, mais elle ne suffit pas. Il faut des règles claires : Qui programme les algorithmes ? Qui décide quels messages doivent être renforcés ou atténués ? Et comment empêcher les intérêts privés de dominer la politique dans les logiques des machines ?
Que faire contre l’influence subtile ?
L’étude de l’AISI montre à quel point les gens se laissent facilement convaincre par les chatbots. Mais cela ne signifie pas que nous sommes sans défense. Il existe des mesures concrètes pour renforcer sa capacité de jugement dans le discours numérique :