La révolution numérique poursuit sa marche en avant et irrigue tous les pans de la société, pour le meilleur comme pour le pire. Il en est ainsi dans un domaine inattendu, celui des élections. On se souviendra longtemps de l’utilisation des hologrammes par Jean-Luc Mélenchon aux élections de 2017, conférant à son auteur le don d’ubiquité. Moins spectaculaire mais plus puissante, « la transformation des réseaux sociaux en arènes électorales » lors de la dernière campagne présidentielle américaine prête plus à discussion.
1. Définition du « bot politique »
Un chatbot ou bot conversationnel est un logiciel imitant la communication humaine, à la différence près que ses capacités surpassent celles des personnes ordinaires. Le bot politique est utilisé à diverses fins. Il peut permettre de donner des informations sur un candidat ou son programme lors de la campagne électorale. Il consiste également à laisser des commentaires favorables sur le réseau social d’un candidat, de conférer à une publication une portée plus importante de manière artificielle ou encore de cibler certains opposants par des commentaires automatiques. Il s’agit donc d’un puissant levier d’audience sur la Toile, voire d’une technique de manipulation de l’opinion publique.
2. Du côté obscur de certains usages du bot conversationnel
Si le chatbot est principalement connu pour l’automatisation d’une partie de la relation client, il a, depuis 2010, pris de nouvelles orientations en intégrant la sphère politique. C’est à cette date, en effet, qu’émerge pour la première fois l’usage de chatbot lors de la campagne présidentielle, notamment sur le réseau social Twitter (rebaptisé depuis X).
Donald Trump lui‑même reconnaît qu’il n’aurait pas remporté ses deux campagnes victorieuses sans l’audience des réseaux sociaux, ces derniers étant régulièrement accusés d’avoir amplifié artificiellement son influence via des armées de bots. Il s’agit là de l’un des rôles que peut avoir le chatbot : influer sur le jeu politique.
Dans un article du New York Times, l’avocat Jamie Susskind affirme que les Chatbots sont un danger pour la démocratie. Il considère qu’il faut pouvoir identifier, disqualifier et réguler les chatbots avant qu’ils ne détruisent les discours politiques. En d’autres termes, les chatbots seraient utilisés pour la désinformation politique, ce contre quoi il faudrait lutter. Toutefois, selon le juriste, la plupart de ces bots conversationnels ne peuvent tenir que des niveaux de conversations passables, voire grossiers. Mais leur impact en matière de désinformation ne doit pas être négligé, notamment en raison de leur capacité à utiliser le traitement du langage naturel (NLP). Le NLP, en permettant d’imiter l’humain, est susceptible de détourner le processus politique (Source : www.nytimes.com/2018/12/04/opinion/chatbots-ai-democracy-free-speech.html )
3. IA générative : l’ère des fake news et des deepfakes
À cette mécanique bien huilée des bots s’ajoute désormais la puissance des modèles génératifs :
-
Création instantanée de faux contenus : textes crédibles, images truquées et vidéos ultra‑réalistes (deepfakes) circulent à une vitesse fulgurante, brouillant la frontière entre vrai et faux.
-
Ciblage chirurgical : combinée aux données personnelles issues des réseaux, l’IA ajuste ses récits pour toucher des micro‑segments d’électeurs, renforçant les bulles informationnelles.
-
Érosion de la confiance : chaque vidéo, chaque déclaration d’un candidat peut être suspectée d’avoir été trafiquée, ce qui favorise une fatigue informationnelle propice aux théories complotistes.
Entre AI Act européen, labels de traçabilité et détecteurs de contenus synthétiques, les régulateurs peinent à suivre face à cette menace. Les grands réseaux testent des filigranes numériques ou des détecteurs d’IA, mais la course à l’authenticité ressemble de plus en plus à un jeu du chat et de la souris. Reste que la vigilance citoyenne demeure le meilleur pare‑feu face à l’IA politique de nouvelle génération.
Dans ce contexte, l’éducation aux médias et la transparence des algorithmes deviennent des pierres angulaires pour préserver le débat démocratique.
4. Des bons usages du bot conversationnel en politique
Les Chatbots peuvent aussi être employés de façon légitime et transparente. C’est le cas lorsqu’ils ont pour objectif de fournir des informations sur un candidat, son programme ou un parti politique. Déjà, lors de la campagne présidentielle française de 2017, le candidat du Parti socialiste de l’époque Benoît Hamon, a utilisé cette technologie en ce sens sur Facebook : le « Botnoît » communiquait les grandes lignes de son programme.
Depuis, la pratique s’est banalisée, et la plupart des formations politiques disposent d’un assistant conversationnel, parfois couplé à une IA générative capable de répondre en langage naturel aux questions des électeurs, d’analyser leurs préoccupations et d’orienter les équipes de campagne en temps réel.
5. Les bots conversationnels à l’heure des LLM
Tous les bots ne se valent plus : l’irruption des grands modèles de langage (LLM) de type GPT‑4, Gemini ou Llama 3, couplée à l’émergence des Data Lakes dans un contexte Big Data, a fait passer les chatbots d’une logique de réponses pré‑scriptées à une génération dynamique de contenu. Pré‑entraînés sur des corpus gigantesques puis rapidement spécialisés (fine‑tuning, RLHF, LoRA), ces modèles comprennent le contexte, changent de registre, traduisent ou résument en temps réel. Grâce aux API des principaux fournisseurs cloud, lancer un assistant multilingue, vocal ou même multimodal (texte + image) ne demande plus que quelques jours.
Le RAG (Retrieval Augmented Generation) permet, lui, de brancher le bot sur des bases internes pour garantir l’exactitude et la fraîcheur des réponses ; l’analyse des sentiments et la synthèse vocale / vidéo viennent enrichir l’expérience utilisateur.


