Les systèmes d’IA déjà disponibles aujourd’hui sont capables d’influencer très subtilement et de manière assez ciblée l’opinion des citoyens. (Photo : IA).

Imaginez un peu : C’est le soir, vous êtes assis à la table de la cuisine avec votre ordinateur portable, les actualités résonnent encore dans votre tête. Par curiosité, vous tapez une question dans un chatbot, peut-être sur la politique douanière de Trump, la guerre en Ukraine ou l’immigration. Vous obtenez d’abord des faits bruts, puis une comparaison surprenante, et enfin un argument qui vous laisse pantois. Dix minutes plus tard, vous réalisez : Votre position a changé. Non pas parce que vous avez eu une conversation intelligente avec un être humain, mais parce qu’une machine vous a convaincu.

C’est précisément ce scénario qu’a examiné une nouvelle étude de l’AI Security Institute (AISI) britannique. Les chercheurs ont testé les systèmes les plus récents d’OpenAI, de Meta, de xAI ou encore de la plateforme chinoise Alibaba et sont parvenus à une conclusion aussi remarquable qu’inquiétante : une conversation de moins de dix minutes suffit à modifier sensiblement les convictions politiques ou les décisions d’achat.

Au cœur de la conversation : le nouveau pouvoir de l’IA

Les résultats de l’étude de l’AISI montrent à quel point les chatbots modernes peuvent être efficaces. Le GPT-4o d’OpenAI s’est révélé particulièrement convaincant : il était 41% plus efficace que les messages textuels statiques lorsqu’il s’agissait d’inciter les gens à changer de comportement. Plus fort encore, lorsque les chatbots adaptaient leur argumentation à l’âge, au sexe ou aux opinions politiques des utilisateurs, leur pouvoir de persuasion augmentait de 5 % supplémentaires.

Ce que l’étude a également constaté : Les effets ne sont pas seulement à court terme. Entre 36% et 42% des changements d’opinion se sont poursuivis un mois plus tard. Cela signifie que l’IA n’a pas seulement un impact sur le moment – elle peut faire évoluer les opinions à long terme.

Comment les modèles d’IA modifient les opinions

Qu’est-ce qui rend ces systèmes si puissants ? David Rand, professeur à l’université Cornell et co-auteur de l’étude, le résume ainsi : les modèles d’IA peuvent « générer de grandes quantités de preuves pertinentes et les communiquer de manière efficace et compréhensible ». Ils deviennent particulièrement convaincants lorsqu’ils adaptent leurs messages aux croyances existantes ou aux caractéristiques démographiques des utilisatrices et utilisateurs.

Cela montre clairement que cette technologie n’est pas seulement une source d’information, mais aussi un outil d’influence ciblée. La frontière entre dialogue et manipulation s’estompe.

Mécanismes d’influence

La recherche met en évidence quatre mécanismes principaux qui expliquent pourquoi les opinions vacillent si rapidement :

  • Personnalisation et chambres d’écho : L’IA adapte les réponses aux profils des utilisateurs, renforce les préjugés et limite les perspectives.
  • Exploitation des distorsions cognitives : Les déclencheurs émotionnels et les biais de confirmation sont délibérément utilisés pour influencer les attitudes.
  • Délégation de jugement : confier l’évaluation d’arguments à un chatbot, c’est céder une part de sa propre réflexion.
  • Cadrage invisible : le choix et l’ordre des arguments peuvent déjà subtilement orienter une conversation.

L’étude de l’AISI le prouve : Ces mécanismes ne sont pas que de la théorie, ils agissent, et ce, de manière mesurable et rapide.

La force explosive éthique

Les chercheurs mettent expressément en garde contre le potentiel d’abus. Avec un investissement relativement faible, il est possible d’entraîner des « machines de persuasion » et de cibler ainsi les opinions politiques, mais aussi les décisions d’achat. Aujourd’hui déjà, les entreprises utilisent l’IA pour optimiser leurs arguments de vente.

La dimension politique est toutefois bien plus explosive. Lorsque des entreprises ou des États autoritaires utilisent de tels outils pour influencer les sentiments, c’est la formation démocratique de la volonté elle-même qui est en jeu.

L’éducation aux médias est importante, mais elle ne suffit pas. Il faut des règles claires : Qui programme les algorithmes ? Qui décide quels messages doivent être renforcés ou atténués ? Et comment empêcher les intérêts privés de dominer la politique dans les logiques des machines ?

Que faire contre l’influence subtile ?

L’étude de l’AISI montre à quel point les gens se laissent facilement convaincre par les chatbots. Mais cela ne signifie pas que nous sommes sans défense. Il existe des mesures concrètes pour renforcer sa capacité de jugement dans le discours numérique :

  1. Remettre en question les conversations, et pas seulement vérifier le contenu. Si vous discutez avec des chatbots IA, ne vous contentez pas de regarder les faits, mais observez également la façon dont la conversation est menée : Pourquoi me présente-t-on exactement cet argument ? Suis-je en train d’être orienté dans une direction ? Un moment de pause dans la lecture des arguments peut rendre la manipulation visible.
  2. Maintenir la diversité des sources. Les opinions politiques ne devraient jamais résulter uniquement d’échanges avec l’IA. En échangeant régulièrement avec des personnes réelles, en lisant différents médias et en s’exposant délibérément à des perspectives différentes, on se protège des chambres d’écho, qu’elles soient générées par des algorithmes ou par l’homme.
  3. Apprendre l’autodéfense numérique. De la même manière que l’on reconnaît les spams ou que l’on évite les e-mails d’hameçonnage, il faut des compétences pour utiliser l’IA. Les écoles, les universités, mais aussi les institutions politiques devraient enseigner comment les modèles linguistiques utilisent des techniques de persuasion – et comment les reconnaître.
  4. Exiger la transparence. Les utilisateurs devraient savoir si un texte, un argument ou une conversation provient d’une IA. Un étiquetage clair et des dispositions légales pourraient empêcher que les débats politiques soient influencés par une logique de machine invisible.

« Dans un monde troublé, l’intelligence collective est indispensable. »

Le directeur de la CCIG Vincent Subilia a pris la présidence de la faîtière regroupant les 19 chambres de commerce suisses et du Liechtenstein en juin dernier.

Ce que les électeurs des partis populistes veulent vraiment

Une nouvelle étude montre pourquoi l'électorat ne demande pas moins de démocratie, mais une autre forme de celle-ci

Prendre des décisions difficiles : mode d’emploi

Ces neuf étapes vous permettront de faire le meilleur choix possible

Quand l’IA façonne votre opinion politique

Comment les chatbots influencent les croyances en dix minutes et ce que vous pouvez faire concrètement pour y remédier

Frühfranzösisch – une chronique rédigée en français

Apprendre le français dès l’école primaire pour les petits alémaniques est souvent vécu comme un fardeau.

Mission IA : comment les agents autonomes pensent, apprennent et agissent

L'intelligence artificielle (IA) a fait d'énormes progrès au cours des dernières années - l'un des développements les plus fascinants est celui des agents IA. Mais comment fonctionnent-ils exactement ?

ChatGPT remplacera-t-il bientôt l’homme ?

Qui en Suisse doit craindre l'utilisation à grande échelle de l'IA ?

Nouvel ordre mondial, nouvelles règles

Pourquoi les entreprises doivent faire de la géopolitique une priorité pour rester compétitifs dans un monde multipolaire

« Mens sana in corpore sano » version 2025

Ophélia Jeanneret directrice du Service Sport Santé UNIL+EPFL sait pourquoi il faut faire bouger les étudiants et les chercheurs. Et ce qui relie la politique, le sport et la santé.