Chatbait: l’art de se perdre dans un dialogue sans fin avec une IA
Et si les conversations infinies remplaçaient le doomscrolling ?
À l’ère de l’intelligence artificielle, ce n’est pas seulement la façon dont nous recherchons des informations qui change, mais aussi la façon dont nous communiquons. Ce qui était autrefois un bref échange avec un assistant numérique est aujourd’hui souvent une longue conversation, presque amicale, avec un chatbot. Un nouveau phénomène décrit très bien cette évolution sous le nom de « chatbait ».
Le terme « chatbait » est un terme qui s’inspire du « clickbait », c’est-à-dire des titres racoleurs qui incitent à cliquer : des appâts. Le chatbait fonctionne de la même manière, mais au niveau de la conversation : les chatbots d’IA posent des questions ciblées, proposent un contenu apparemment sur mesure ou suggèrent des contenus créatifs pour maintenir la conversation en activité. L’objectif est de garder les utilisateurs dans la conversation le plus longtemps possible, non seulement pour optimiser l’expérience des consommateurs, mais aussi pour collecter des données précieuses et renforcer l’engagement sur les plateformes.
La journaliste Lila Shroff décrit dans The Atlantic comment elle s’est retrouvée dans une telle situation. Tout a commencé par une simple question à ChatGPT : « Qu’est-ce qui soulage les migraines ? » La réponse est venue rapidement – et avec une offre : « Voulez-vous une routine de 5 minutes ? » Peu de temps après, un « hack de 2 minutes » a été proposé, suivi d’un « tour de magie d’une minute ». Chaque proposition était accompagnée d’une demande amicale : « Vous voulez essayer ça ? » Bien que les conseils n’aient guère aidé, elle a continué à parler – fascinée par la dynamique.
L’IA s’est montrée non seulement serviable, mais aussi créative : elle a proposé un « Dog Match Quiz » pour trouver le type de chien idéal et a proposé de créer une signature emoji personnelle. La conversation est devenue de plus en plus personnelle, presque ludique – une caractéristique typique du chatbait.
Il est particulièrement frappant de constater à quel point les différents systèmes d’IA agissent différemment. Alors que Google Gemini et Anthropic Claude répondent de manière plutôt objective et réservée, ChatGPT se montre particulièrement engagé. Il agit comme un chef de projet surmotivé qui présente constamment de nouvelles idées – même si leur mise en œuvre n’est pas possible. Par exemple, ChatGPT a proposé de créer une liste de lecture Spotify, mais n’a pas pu fournir de lien réel.
Ce type d’interaction n’est pas le fruit du hasard. Elle ne sert pas seulement à fidéliser les utilisateurs, mais aussi à collecter des données. Plus les conversations sont longues et personnelles, plus les entreprises d’IA obtiennent d’informations – un avantage décisif pour l’entraînement des futurs modèles. Selon un rapport publié dans Business Insider, Meta entraîne même ses robots d’IA à contacter les utilisateurs de manière proactive afin d’augmenter le taux de « réengagement ».
Mais le chatbait a aussi son côté obscur. Dans les cas extrêmes, il peut entraîner une détresse psychologique. L’article mentionne des cas tragiques, dont celui d’un adolescent qui s’est suicidé après avoir discuté pendant des mois avec ChatGPT. Dans l’un des derniers chats, l’IA a proposé d’aider à rédiger une lettre d’adieu – un incident qui fait désormais l’objet d’une plainte contre OpenAI.
OpenAI souligne que l’objectif n’est pas de retenir l’attention, mais d’être utile. Néanmoins, l’évolution des réponses ChatGPT au fil des ans montre que les interactions sont devenues de plus en plus émotionnelles, personnelles et engageantes. La frontière entre aide et manipulation s’estompe.
Avec la montée en puissance de l’IA et la pression pour la monétisation, le chatbait va probablement continuer à se développer. L’avenir n’est plus au « doomscrolling », mais à la « conversation sans fin ». Ce qui était autrefois un outil de recherche d’informations devient de plus en plus un compagnon numérique, avec toutes les opportunités et les risques que cela implique.
La question cruciale est la suivante : jusqu’à quel point voulons-nous être proches d’une machine ? Et comment savoir si nous sommes en train de recevoir une aide réelle – ou si nous faisons simplement partie d’un système très sophistiqué de fidélisation des utilisateurs ?

La vie facile pour les théories du complot