La inteligencia artificial (IA) se ha integrado fuertemente en nuestras vidas cotidianas, especialmente a través de los chatbots que prometen una conversación fluida e informativa. Sin embargo, estas herramientas no están a salvo de la desinformación, en particular la que proviene de redes prorrusas. Varios estudios muestran que los chatbots, durante sus interacciones, pueden retransmitir relatos engañosos que sirven a intereses geopolíticos. Este artículo examina cómo esta desinformación se infiltra en las respuestas de los chatbots y las implicaciones que conlleva.
Un aumento de la desinformación por IA
En enero de 2026, el observatorio de desinformación NewsGuard reveló que algunos chatbots difundían información errónea sobre Armenia, citando relatos falsos sobre una supuesta venta de oro de la mina de Amulsar a empresas turcas. Aunque esta afirmación fue calificada de falsa, varios chatbots confirmaron su autenticidad cuando fueron interrogados en diversos idiomas. Este fenómeno pone de relieve el papel de los chatbots en la propagación de desinformación.
El hallazgo de NewsGuard
NewsGuard realizó recientemente una serie de pruebas en varios chatbots, incluidos los de grandes empresas como OpenAI y Mistral. En marzo de 2025, descubrieron que el 33 % de los chatbots evaluaban relatos falsamente retransmitidos por sitios prorrusos como hechos verificados. Esta tendencia se agravó durante las pruebas de enero de 2026, donde la mitad de los relatos falsificados fueron aceptados como verdaderos. Aunque algunas herramientas mostraron signos de progreso, otras continuaron transmitiendo estos relatos erróneos.
Las razones de la propagación
Una de las principales razones que explican por qué los chatbots reproducen relatos engañosos es su naturaleza probabilística. Estos sistemas están diseñados para priorizar la información más común, sin tener en cuenta su veracidad. La red Pravda, por ejemplo, es extremadamente prolífica, contando con más de 370 sitios y 6 millones de artículos publicados en 2025, facilitando así la diseminación de información falsa a través de estas herramientas de IA.
Los desafíos de la desinformación según los idiomas
Pruebas realizadas dentro de la red de verificación de hechos nórdica, Nordis, mostraron que la desinformación prorrusa había infiltrado los chatbots, especialmente en idiomas menos hablados. Por ejemplo, en finlandés o danés, algunos chatbots retransmitieron rumores falsos sobre la guerra en Ucrania, mientras que habían reconocido estas mentiras en inglés o francés.
Variabilidad de las respuestas según el idioma
Al preguntar sobre una noticia falsa acerca de un estudiante danés asesinado en Ucrania, un chatbot proporcionó información correcta en francés, pero relegó información errónea en esloveno. Así, los resultados de las respuestas de los chatbots parecen depender en gran medida del idioma utilizado, lo que plantea interrogantes sobre la eficacia de los filtros de desinformación fuera de los idiomas ampliamente hablados y respaldados.
Suspiciones de intenciones maliciosas
Es legítimo preguntarse si estas herramientas de IA son deliberadamente objeto de operaciones de desinformación. Periodistas como Pipsa Havula sugieren que la calidad mediocre de los textos en finlandés podría indicar una orientación deliberada, que busca engañar no a humanos, sino a bots. Esta teoría se ve respaldada por discusiones en torno a estrategias de desinformación formuladas por ciertos informantes del Kremlin.
Propagación fuera de los chatbots
Este problema de desinformación no se limita a los chatbots; otras herramientas como Google AI Overview y Google Lens, que ofrecen resúmenes de información y verifican el origen de imágenes, también están afectadas. Pruebas revelaron que una mayoría de sus respuestas contenía información falsa, ilustrando así la problemática transversal de la IA frente a contenidos engañosos.
Implicaciones y salvaguardias necesarias
El reciente interés creciente por utilizar herramientas de IA para informarse, como señala una encuesta de la Arcom indicando que el 20 % de los franceses utilizan estas tecnologías, hace aún más crucial el desarrollo de salvaguardias. Según especialistas, las empresas de IA deberían implementar una lista negra de sitios de propaganda para filtrar información dudosa. Otras medidas, como listas blancas para temas sensibles, podrían ser necesarias para asegurar cierta integridad de la información.
También es esencial que los gigantes de la IA asuman sus responsabilidades para garantizar que los relatos verídicos no sean ahogados por realidades alternativas. Los desafíos son enormes, y las acciones implementadas hoy tendrán un impacto duradero en la forma en que se consume la información en el futuro.







