translated_content> Intelligenza artificiale: quando i chatbot veicolano la disinformazione prorussa

découvrez comment certains chatbots d'intelligence artificielle diffusent de la désinformation prorusse, ses enjeux et implications pour la société et la sécurité de l'information.

L’intelligenza artificiale (IA) si è fortemente integrata nelle nostre vite quotidiane, in particolare attraverso i chatbot che promettono una conversazione fluida e informativa. Tuttavia, questi strumenti non sono al riparo dalla disinformazione, in particolare quella che proviene da reti filorusse. Diversi studi dimostrano che i chatbot, durante le loro interazioni, possono rilanciare racconti fuorvianti che servono interessi geopolitici. Questo articolo esamina come tale disinformazione si infiltri nelle risposte dei chatbot e le implicazioni che ne derivano.

Un aumento della disinformazione tramite IA

Nel gennaio 2026, l’osservatorio della disinformazione NewsGuard ha rivelato che alcuni chatbot diffondevano informazioni errate riguardo all’Armenia, citando racconti mendaci riguardo a una presunta vendita d’oro della miniera di Amulsar a ditte turche. Sebbene questa affermazione sia stata definita falsa, diversi chatbot hanno confermato la sua autenticità quando sono stati interrogati in varie lingue. Questo fenomeno mette in luce il ruolo dei chatbot nella propagazione della disinformazione.

Il constato di NewsGuard

NewsGuard ha recentemente condotto una serie di test su diversi chatbot, tra cui quelli di grandi aziende come OpenAI e Mistral. Nel marzo 2025, hanno constatato che il 33% dei chatbot valutava racconti falsamente rilanciati da siti filorussi come fatti accertati. Questa tendenza è peggiorata durante i test di gennaio 2026, dove la metà dei racconti falsificati è stata accettata come vera. Anche se alcuni strumenti hanno mostrato segni di progresso, altri continuavano a trasmettere questi racconti errati.

Le ragioni della propagazione

Una delle ragioni principali che spiegano perché i chatbot riproducono racconti mendaci è la loro natura probabilistica. Questi sistemi sono progettati per privilegiare l’informazione più diffusa, senza considerare la sua veridicità. La rete Pravda, ad esempio, è estremamente prolifica, contando oltre 370 siti e 6 milioni di articoli pubblicati nel 2025, facilitando così la disseminazione di false informazioni attraverso questi strumenti di IA.

Le sfide della disinformazione in base alle lingue

Test effettuati all’interno della rete di fact-checking nordica, Nordis, hanno mostrato che la disinformazione filorussa aveva infiltrato i chatbot, soprattutto nelle lingue meno parlate. Ad esempio, in finlandese o danese, alcuni chatbot hanno rilanciato false voci riguardanti la guerra in Ucraina, mentre avevano riconosciuto queste menzogne in inglese o francese.

Variabilità delle risposte a seconda della lingua

Durante le interrogazioni su una fake news riguardante uno studente danese ucciso in Ucraina, un chatbot ha fornito informazioni corrette in francese, ma ha rilasciato informazioni errate in sloveno. Così, i risultati delle risposte dei chatbot sembrano dipendere fortemente dalla lingua utilizzata, il che solleva interrogativi sull’efficacia dei filtri di disinformazione al di fuori delle lingue ampiamente parlate e supportate.

Suspicacce di intenzioni malevole

È legittimo chiedersi se questi strumenti di IA siano deliberatamente presi di mira da operazioni di disinformazione. Giornalisti come Pipsa Havula sostengono che la scarsa qualità dei testi in finlandese potrebbe indicare un targeting deliberato, volto a ingannare non i umani ma i bot. Questa teoria è avvalorata da discussioni su strategie di disinformazione formulate da alcuni informatori del Cremlino.

Propagazione al di fuori dei chatbot

Questo problema di disinformazione non si limita ai chatbot; altri strumenti come Google AI Overview e Google Lens, che offrono riassunti di informazioni e verificano l’origine delle immagini, sono anch’essi colpiti. Test hanno rivelato che una maggioranza delle loro risposte presentava informazioni false, illustrando così la problematica trasversale dell’IA di fronte ai contenuti fuorvianti.

Implicazioni e necessità di salvaguardie

Il recente interesse crescente per l’utilizzo degli strumenti di IA per informarsi, come sottolinea un sondaggio dell’Arcom che indica che il 20% dei francesi utilizza queste tecnologie, rende ancora più cruciale lo sviluppo di salvaguardie. Secondo specialisti, le aziende di IA dovrebbero implementare una blacklist dei siti di propaganda per filtrare informazioni dubbie. Altre misure, come whitelist per temi sensibili, potrebbero essere necessarie per garantire una certa integrità dell’informazione.

È altresì essenziale che i giganti dell’IA si prendano le proprie responsabilità per garantire che i racconti veritieri non siano soffocati da realtà alternative. Le scommesse sono enormi e le azioni intraprese oggi avranno un impatto duraturo sul modo in cui le informazioni vengono consumate in futuro.

Torna in alto