Intelligence artificielle : quand les chatbots véhiculent la désinformation prorusse

découvrez comment certains chatbots d'intelligence artificielle diffusent de la désinformation prorusse, ses enjeux et implications pour la société et la sécurité de l'information.

L’intelligence artificielle (IA) s’est fortement intégrée dans nos vies quotidiennes, notamment à travers les chatbots qui promettent une conversation fluide et informative. Cependant, ces outils ne sont pas à l’abri de la désinformation, en particulier celle qui émane de réseaux prorusses. Plusieurs études montrent que les chatbots, lors de leurs interactions, peuvent relayer des récits trompeurs qui servent des intérêts géopolitiques. Cet article examine comment cette désinformation s’infiltre dans les réponses des chatbots et les implications qui en découlent.

Une montée de la désinformation par l’IA

En janvier 2026, l’observatoire de la désinformation NewsGuard a révélé que certains chatbots diffusaient des informations erronées à propos de l’Arménie, en citant des récits mensongers concernant une supposée vente d’or de la mine d’Amulsar à des entreprises turques. Bien que cette affirmation ait été qualifiée de fausse, plusieurs chatbots ont confirmé son authenticité quand ils ont été interrogés dans diverses langues. Ce phénomène met en lumière le rôle des chatbots dans la propagation de la désinformation.

Le constat de NewsGuard

NewsGuard a récemment effectué une série de tests sur plusieurs chatbots, dont ceux de grandes entreprises comme OpenAI et Mistral. En mars 2025, ils ont constaté que 33 % des chatbots évaluaient des récits faussement relayés par des sites prorusses comme des faits avérés. Cette tendance s’est aggravée lors des tests de janvier 2026, où la moitié des récits falsifiés ont été acceptés comme vrais. Bien que certains outils aient montré des signes de progrès, d’autres continuaient de transmettre ces récits erronés.

Les raisons de la propagation

Une des raisons principales qui expliquent pourquoi les chatbots reproduisent des récits mensongers est leur nature probabiliste. Ces systèmes sont conçus pour privilégier l’information la plus répandue, sans prendre en compte sa véracité. Le réseau Pravda, par exemple, est extrêmement prolifique, comptant plus de 370 sites et 6 millions d’articles publiés en 2025, facilitant ainsi la dissémination de fausses informations auprès de ces outils d’IA.

Les défis de la désinformation en fonction des langues

Des tests effectués au sein du réseau de fact-checking nordique, Nordis, ont montré que la désinformation prorusse avait infiltré les chatbots, surtout dans les langues moins parlées. Par exemple, en finnois ou en danois, certains chatbots ont relayé des rumeurs fausses concernant la guerre en Ukraine, alors qu’ils avaient reconnu ces mensonges en anglais ou en français.

Variabilité des réponses selon la langue

Lors des interrogations sur une intox concernant un élève danois tué en Ukraine, un chatbot a fourni des informations correctes en français, mais a relégué des informations erronées en slovène. Ainsi, les résultats des réponses des chatbots semblent fortement dépendre de la langue utilisée, ce qui soulève des questions quant à l’efficacité des filtres de désinformation en dehors des langues largement parlées et soutenues.

Des soupçons d’intentions malveillantes

Il est légitime de se demander si ces outils d’IA sont délibérément ciblés par des opérations de désinformation. Des journalistes comme Pipsa Havula avancent que la qualité médiocre des textes en finnois pourrait indiquer un ciblage délibéré, visant à tromper non pas des humains mais des bots. Cette théorie est confortée par des discussions autour de stratégies de désinformation formulées par certains informateurs du Kremlin.

Propagation hors des chatbots

Ce problème de désinformation ne se limite pas aux chatbots ; d’autres outils comme Google AI Overview et Google Lens, qui propose des résumés d’informations et vérifie l’origine d’images, sont également touchés. Des tests ont révélé qu’une majorité de leurs réponses présentait des informations fausses, illustrant ainsi la problématique transverse de l’IA face aux contenus trompeurs.

Implications et garde-fous nécessaires

Le récent intérêt croissant pour l’utilisation des outils d’IA pour s’informer, comme le souligne un sondage de l’Arcom indiquant que 20 % des Français utilisent ces technologies, rend d’autant plus crucial le développement de garde-fous. Selon des spécialistes, les entreprises d’IA devraient mettre en place une liste noire des sites de propagande afin de filtrer les informations douteuses. D’autres mesures, comme des listes blanches pour des sujets sensibles, pourraient être nécessaires pour assurer une certaine intégrité de l’information.

Il est également essentiel que les géants de l’IA prennent leurs responsabilités pour garantir que les récits véridiques ne soient pas étouffés par des réalités alternatives. Les enjeux sont énormes, et les actions mises en place aujourd’hui auront un impact durable sur la manière dont l’information est consommée à l’avenir.

Retour en haut