Les Philippines sont un exemple avertissant de la vulnérabilité des systèmes démocratiques face à la manipulation numérique. (Image : Unsplash, Shekinah Togonon)

L’intelligence artificielle (IA) modifie fondamentalement la communication politique. Elle ouvre des opportunités pour une plus grande participation et des campagnes plus efficaces, mais elle comporte également des risques considérables. L’un des plus grands dangers : la manipulation ciblée par la désinformation et les fausses informations.

Pourquoi est-ce si dangereux ?

Les fausses informations sont des contenus qui sont involontairement faux. La désinformation, en revanche, est une tromperie stratégiquement planifiée, des mensonges ciblés qui sapent la confiance dans les institutions. L’IA amplifie considérablement ces deux phénomènes. Les deepfakes créent des vidéos et des audios trompeurs qui attribuent aux politiciens des déclarations qu’ils n’ont jamais faites. Les bots simulent une activité humaine et diffusent du contenu en quelques secondes.

Le Global Risk Report 2024 du Forum économique mondial met en garde : la désinformation et les fausses informations font partie des risques les plus importants pour l’avenir immédiat, en particulier avant des élections décisives dans le monde entier. La combinaison de l’IA et des réseaux sociaux crée une dynamique qui peut déstabiliser les processus démocratiques.

Étude de cas aux Philippines : un laboratoire de manipulation numérique

Une étude récente de Charmaine Distor et du professeur Oliver Neumann (2024) montre comment l’IA influence le discours politique aux Philippines. Là-bas, les réseaux sociaux jouent un rôle central dans la formation de l’opinion. Les campagnes basées sur l’IA s’appuient sur des deepfakes et des contenus renforcés par des algorithmes pour orienter les récits, mettre en scène des scandales et discréditer les opposants.

L’analyse est basée sur une revue de la littérature et des études de cas. Elle montre clairement que l’IA n’est pas seulement un outil technique, mais aussi un instrument stratégique pour déplacer le pouvoir. Les Philippines sont un exemple avertissant de la vulnérabilité des systèmes démocratiques face à la manipulation numérique.

Que se passe-t-il concrètement ?

  • Deepfakes : les politiciens sont copiés dans des photos ou vidéos compromettantes.
  • Les bots et les fermes de trolls : ls diffusent du contenu en masse et créent une approbation artificielle.
  • Renforcement algorithmique : les contenus polarisants sont diffusés en priorité afin d’attiser les émotions.

Résultat : un discours public déformé, dans lequel il est difficile de distinguer les faits de la fiction.

Et la Suisse ?

Dans notre pays aussi, les risques sont réels. La désinformation générée par l’IA peut influencer les votes et les élections, déformer les résultats de la recherche et ébranler la confiance dans la démocratie directe. Lorsque la base d’information est manipulée, les fondements des décisions démocratiques sont ébranlés. La Suisse est particulièrement vulnérable parce que sa culture politique est basée sur la transparence et la confiance. Une attaque ciblée contre ces valeurs, par exemple par des informations de vote falsifiées ou des scandales mis en scène, pourrait avoir de graves conséquences.

Que faire ?

L’étude recommande trois mesures principales :

  • Réglementation : des règles claires pour l’utilisation de l’IA dans la communication politique.
  • Transparence : étiquetage du contenu et des algorithmes générés par l’IA.
  • Éducation numérique : renforcer l’éducation aux médias afin de détecter la manipulation.

En outre, les entreprises et les acteurs politiques devraient développer leurs propres politiques :

  • Utiliser des outils de surveillance pour détecter rapidement les deepfakes et l’activité des bots.
  • Préparer des scénarios de communication de crise afin de pouvoir réagir rapidement en cas de campagne de désinformation.
  • Encourager la coopération avec les plateformes afin de limiter la diffusion de contenus manipulés.

C’est la seule façon d’éviter que l’IA ne passe du statut de moteur d’innovation à celui d’arme contre la démocratie.

« La Suisse se trouve à un point névralgique »

Le chercheur en communication Mark Eisenegger explique pourquoi les médias en Suisse résistent mieux à la désinformation qu'aux Etats-Unis - et ce qui le préoccupe malgré tout chez nous aussi.

Propagande soviétique – elle fonctionne encore

Quand Poutine communique avec le monde, il tente de le manipuler selon les règles de l'art

Aujourd’hui, n’importe qui peut s’adresser au monde entier. 

L'espace public numérique, les sentiments post-factuels et les nouvelles responsabilités de la communication politique

Nouveau bureau de furrerhugi en Romandie

Une étape importante qui marque le renforcement de la présence de l'agence sur l'arc lémanique

Chatbait: l’art de se perdre dans un dialogue sans fin avec une IA

Et si les conversations infinies remplaçaient le doomscrolling ?

Géopolitique de l’IA : conquérir le leadership numérique 

La concurrence autour de l'intelligence artificielle modifie l'ordre international. Les États-Unis, la Chine et l'Europe se disputent les normes, l'influence et la souveraineté technologique.

« Mens sana in corpore sano » version 2025

Ophélia Jeanneret directrice du Service Sport Santé UNIL+EPFL sait pourquoi il faut faire bouger les étudiants et les chercheurs. Et ce qui relie la politique, le sport et la santé.

Le pouvoir des relations

pourquoi le leadership ne se limite pas à la hiérarchie

La vie facile pour les théories du complot

Les réseaux sociaux, la fragmentation du paysage médiatique et les algorithmes récompensent l'indignation.