Les systèmes d’IA déjà disponibles aujourd’hui sont capables d’influencer très subtilement et de manière assez ciblée l’opinion des citoyens. (Photo : IA).

Imaginez un peu : C’est le soir, vous êtes assis à la table de la cuisine avec votre ordinateur portable, les actualités résonnent encore dans votre tête. Par curiosité, vous tapez une question dans un chatbot, peut-être sur la politique douanière de Trump, la guerre en Ukraine ou l’immigration. Vous obtenez d’abord des faits bruts, puis une comparaison surprenante, et enfin un argument qui vous laisse pantois. Dix minutes plus tard, vous réalisez : Votre position a changé. Non pas parce que vous avez eu une conversation intelligente avec un être humain, mais parce qu’une machine vous a convaincu.

C’est précisément ce scénario qu’a examiné une nouvelle étude de l’AI Security Institute (AISI) britannique. Les chercheurs ont testé les systèmes les plus récents d’OpenAI, de Meta, de xAI ou encore de la plateforme chinoise Alibaba et sont parvenus à une conclusion aussi remarquable qu’inquiétante : une conversation de moins de dix minutes suffit à modifier sensiblement les convictions politiques ou les décisions d’achat.

Au cœur de la conversation : le nouveau pouvoir de l’IA

Les résultats de l’étude de l’AISI montrent à quel point les chatbots modernes peuvent être efficaces. Le GPT-4o d’OpenAI s’est révélé particulièrement convaincant : il était 41% plus efficace que les messages textuels statiques lorsqu’il s’agissait d’inciter les gens à changer de comportement. Plus fort encore, lorsque les chatbots adaptaient leur argumentation à l’âge, au sexe ou aux opinions politiques des utilisateurs, leur pouvoir de persuasion augmentait de 5 % supplémentaires.

Ce que l’étude a également constaté : Les effets ne sont pas seulement à court terme. Entre 36% et 42% des changements d’opinion se sont poursuivis un mois plus tard. Cela signifie que l’IA n’a pas seulement un impact sur le moment – elle peut faire évoluer les opinions à long terme.

Comment les modèles d’IA modifient les opinions

Qu’est-ce qui rend ces systèmes si puissants ? David Rand, professeur à l’université Cornell et co-auteur de l’étude, le résume ainsi : les modèles d’IA peuvent « générer de grandes quantités de preuves pertinentes et les communiquer de manière efficace et compréhensible ». Ils deviennent particulièrement convaincants lorsqu’ils adaptent leurs messages aux croyances existantes ou aux caractéristiques démographiques des utilisatrices et utilisateurs.

Cela montre clairement que cette technologie n’est pas seulement une source d’information, mais aussi un outil d’influence ciblée. La frontière entre dialogue et manipulation s’estompe.

Mécanismes d’influence

La recherche met en évidence quatre mécanismes principaux qui expliquent pourquoi les opinions vacillent si rapidement :

  • Personnalisation et chambres d’écho : L’IA adapte les réponses aux profils des utilisateurs, renforce les préjugés et limite les perspectives.
  • Exploitation des distorsions cognitives : Les déclencheurs émotionnels et les biais de confirmation sont délibérément utilisés pour influencer les attitudes.
  • Délégation de jugement : confier l’évaluation d’arguments à un chatbot, c’est céder une part de sa propre réflexion.
  • Cadrage invisible : le choix et l’ordre des arguments peuvent déjà subtilement orienter une conversation.

L’étude de l’AISI le prouve : Ces mécanismes ne sont pas que de la théorie, ils agissent, et ce, de manière mesurable et rapide.

La force explosive éthique

Les chercheurs mettent expressément en garde contre le potentiel d’abus. Avec un investissement relativement faible, il est possible d’entraîner des « machines de persuasion » et de cibler ainsi les opinions politiques, mais aussi les décisions d’achat. Aujourd’hui déjà, les entreprises utilisent l’IA pour optimiser leurs arguments de vente.

La dimension politique est toutefois bien plus explosive. Lorsque des entreprises ou des États autoritaires utilisent de tels outils pour influencer les sentiments, c’est la formation démocratique de la volonté elle-même qui est en jeu.

L’éducation aux médias est importante, mais elle ne suffit pas. Il faut des règles claires : Qui programme les algorithmes ? Qui décide quels messages doivent être renforcés ou atténués ? Et comment empêcher les intérêts privés de dominer la politique dans les logiques des machines ?

Que faire contre l’influence subtile ?

L’étude de l’AISI montre à quel point les gens se laissent facilement convaincre par les chatbots. Mais cela ne signifie pas que nous sommes sans défense. Il existe des mesures concrètes pour renforcer sa capacité de jugement dans le discours numérique :

  1. Remettre en question les conversations, et pas seulement vérifier le contenu. Si vous discutez avec des chatbots IA, ne vous contentez pas de regarder les faits, mais observez également la façon dont la conversation est menée : Pourquoi me présente-t-on exactement cet argument ? Suis-je en train d’être orienté dans une direction ? Un moment de pause dans la lecture des arguments peut rendre la manipulation visible.
  2. Maintenir la diversité des sources. Les opinions politiques ne devraient jamais résulter uniquement d’échanges avec l’IA. En échangeant régulièrement avec des personnes réelles, en lisant différents médias et en s’exposant délibérément à des perspectives différentes, on se protège des chambres d’écho, qu’elles soient générées par des algorithmes ou par l’homme.
  3. Apprendre l’autodéfense numérique. De la même manière que l’on reconnaît les spams ou que l’on évite les e-mails d’hameçonnage, il faut des compétences pour utiliser l’IA. Les écoles, les universités, mais aussi les institutions politiques devraient enseigner comment les modèles linguistiques utilisent des techniques de persuasion – et comment les reconnaître.
  4. Exiger la transparence. Les utilisateurs devraient savoir si un texte, un argument ou une conversation provient d’une IA. Un étiquetage clair et des dispositions légales pourraient empêcher que les débats politiques soient influencés par une logique de machine invisible.

Nouveau bureau de furrerhugi en Romandie

Une étape importante qui marque le renforcement de la présence de l'agence sur l'arc lémanique

Ce que vous devez savoir sur l’IA générative

Cinq conclusions d'une nouvelle étude qui incitent à repenser les choses.

Risques liés à la perte de données américaines

Comment l'austérité irrationnelle des États-Unis ne nuit pas seulement à eux-mêmes, mais aussi au reste du monde

Qui écrit les articles pour cette plate-forme

Découvrez l'expertise de furrerhugi dans influence.ch

#LongCovid – Un hashtag comme bouée de sauvetage

Le mouvement Long COVID montre de manière exemplaire comment les personnes concernées peuvent jouer un rôle clé dans l'amélioration des soins de santé.

Frühfranzösisch – une chronique rédigée en français

Apprendre le français dès l’école primaire pour les petits alémaniques est souvent vécu comme un fardeau.

« Mens sana in corpore sano » version 2025

Ophélia Jeanneret directrice du Service Sport Santé UNIL+EPFL sait pourquoi il faut faire bouger les étudiants et les chercheurs. Et ce qui relie la politique, le sport et la santé.

Quand la politique s’invite sur Tinder

Pourquoi le marché des rencontres a une influence sur la stabilité de la démocratie

Comment rendre les données « Trump-proof »

Les États-Unis s'opposent à la collecte de données par le gouvernement