Les systèmes d’IA déjà disponibles aujourd’hui sont capables d’influencer très subtilement et de manière assez ciblée l’opinion des citoyens. (Photo : IA).

Imaginez un peu : C’est le soir, vous êtes assis à la table de la cuisine avec votre ordinateur portable, les actualités résonnent encore dans votre tête. Par curiosité, vous tapez une question dans un chatbot, peut-être sur la politique douanière de Trump, la guerre en Ukraine ou l’immigration. Vous obtenez d’abord des faits bruts, puis une comparaison surprenante, et enfin un argument qui vous laisse pantois. Dix minutes plus tard, vous réalisez : Votre position a changé. Non pas parce que vous avez eu une conversation intelligente avec un être humain, mais parce qu’une machine vous a convaincu.

C’est précisément ce scénario qu’a examiné une nouvelle étude de l’AI Security Institute (AISI) britannique. Les chercheurs ont testé les systèmes les plus récents d’OpenAI, de Meta, de xAI ou encore de la plateforme chinoise Alibaba et sont parvenus à une conclusion aussi remarquable qu’inquiétante : une conversation de moins de dix minutes suffit à modifier sensiblement les convictions politiques ou les décisions d’achat.

Au cœur de la conversation : le nouveau pouvoir de l’IA

Les résultats de l’étude de l’AISI montrent à quel point les chatbots modernes peuvent être efficaces. Le GPT-4o d’OpenAI s’est révélé particulièrement convaincant : il était 41% plus efficace que les messages textuels statiques lorsqu’il s’agissait d’inciter les gens à changer de comportement. Plus fort encore, lorsque les chatbots adaptaient leur argumentation à l’âge, au sexe ou aux opinions politiques des utilisateurs, leur pouvoir de persuasion augmentait de 5 % supplémentaires.

Ce que l’étude a également constaté : Les effets ne sont pas seulement à court terme. Entre 36% et 42% des changements d’opinion se sont poursuivis un mois plus tard. Cela signifie que l’IA n’a pas seulement un impact sur le moment – elle peut faire évoluer les opinions à long terme.

Comment les modèles d’IA modifient les opinions

Qu’est-ce qui rend ces systèmes si puissants ? David Rand, professeur à l’université Cornell et co-auteur de l’étude, le résume ainsi : les modèles d’IA peuvent « générer de grandes quantités de preuves pertinentes et les communiquer de manière efficace et compréhensible ». Ils deviennent particulièrement convaincants lorsqu’ils adaptent leurs messages aux croyances existantes ou aux caractéristiques démographiques des utilisatrices et utilisateurs.

Cela montre clairement que cette technologie n’est pas seulement une source d’information, mais aussi un outil d’influence ciblée. La frontière entre dialogue et manipulation s’estompe.

Mécanismes d’influence

La recherche met en évidence quatre mécanismes principaux qui expliquent pourquoi les opinions vacillent si rapidement :

  • Personnalisation et chambres d’écho : L’IA adapte les réponses aux profils des utilisateurs, renforce les préjugés et limite les perspectives.
  • Exploitation des distorsions cognitives : Les déclencheurs émotionnels et les biais de confirmation sont délibérément utilisés pour influencer les attitudes.
  • Délégation de jugement : confier l’évaluation d’arguments à un chatbot, c’est céder une part de sa propre réflexion.
  • Cadrage invisible : le choix et l’ordre des arguments peuvent déjà subtilement orienter une conversation.

L’étude de l’AISI le prouve : Ces mécanismes ne sont pas que de la théorie, ils agissent, et ce, de manière mesurable et rapide.

La force explosive éthique

Les chercheurs mettent expressément en garde contre le potentiel d’abus. Avec un investissement relativement faible, il est possible d’entraîner des « machines de persuasion » et de cibler ainsi les opinions politiques, mais aussi les décisions d’achat. Aujourd’hui déjà, les entreprises utilisent l’IA pour optimiser leurs arguments de vente.

La dimension politique est toutefois bien plus explosive. Lorsque des entreprises ou des États autoritaires utilisent de tels outils pour influencer les sentiments, c’est la formation démocratique de la volonté elle-même qui est en jeu.

L’éducation aux médias est importante, mais elle ne suffit pas. Il faut des règles claires : Qui programme les algorithmes ? Qui décide quels messages doivent être renforcés ou atténués ? Et comment empêcher les intérêts privés de dominer la politique dans les logiques des machines ?

Que faire contre l’influence subtile ?

L’étude de l’AISI montre à quel point les gens se laissent facilement convaincre par les chatbots. Mais cela ne signifie pas que nous sommes sans défense. Il existe des mesures concrètes pour renforcer sa capacité de jugement dans le discours numérique :

  1. Remettre en question les conversations, et pas seulement vérifier le contenu. Si vous discutez avec des chatbots IA, ne vous contentez pas de regarder les faits, mais observez également la façon dont la conversation est menée : Pourquoi me présente-t-on exactement cet argument ? Suis-je en train d’être orienté dans une direction ? Un moment de pause dans la lecture des arguments peut rendre la manipulation visible.
  2. Maintenir la diversité des sources. Les opinions politiques ne devraient jamais résulter uniquement d’échanges avec l’IA. En échangeant régulièrement avec des personnes réelles, en lisant différents médias et en s’exposant délibérément à des perspectives différentes, on se protège des chambres d’écho, qu’elles soient générées par des algorithmes ou par l’homme.
  3. Apprendre l’autodéfense numérique. De la même manière que l’on reconnaît les spams ou que l’on évite les e-mails d’hameçonnage, il faut des compétences pour utiliser l’IA. Les écoles, les universités, mais aussi les institutions politiques devraient enseigner comment les modèles linguistiques utilisent des techniques de persuasion – et comment les reconnaître.
  4. Exiger la transparence. Les utilisateurs devraient savoir si un texte, un argument ou une conversation provient d’une IA. Un étiquetage clair et des dispositions légales pourraient empêcher que les débats politiques soient influencés par une logique de machine invisible.

Mission IA : comment les agents autonomes pensent, apprennent et agissent

L'intelligence artificielle (IA) a fait d'énormes progrès au cours des dernières années - l'un des développements les plus fascinants est celui des agents IA. Mais comment fonctionnent-ils exactement ?

« La Suisse se trouve à un point névralgique »

Le chercheur en communication Mark Eisenegger explique pourquoi les médias en Suisse résistent mieux à la désinformation qu'aux Etats-Unis - et ce qui le préoccupe malgré tout chez nous aussi.

L’empathie contre la haine : comment de nouvelles approches transforment la culture du débat numérique

Améliorer durablement la dynamique des discussions en ligne.

La Suisse : le paradis de l’enseignement privé

Pourquoi la Suisse est un hotspot pour les écoles d'élite et pourquoi la plupart d'entre elles se trouvent en Suisse romande

Qui écrit les articles pour cette plate-forme

Découvrez l'expertise de furrerhugi dans influence.ch

Quand la politique s’invite sur Tinder

Pourquoi le marché des rencontres a une influence sur la stabilité de la démocratie

Le pouvoir des relations

pourquoi le leadership ne se limite pas à la hiérarchie

« Un état d’incertitude permanente »

Myriam Dunn Cavelty, spécialiste de la cybersécurité, explique pourquoi les cyberattaques n'atteignent pas des proportions insoupçonnées malgré les guerres - et ce que les Etats-Unis et Israël font mieux que la Russie.

Prendre des décisions difficiles : mode d’emploi

Ces neuf étapes vous permettront de faire le meilleur choix possible