Künstliche Intelligenz: wenn Chatbots die prorussische Desinformation verbreiten

découvrez comment certains chatbots d'intelligence artificielle diffusent de la désinformation prorusse, ses enjeux et implications pour la société et la sécurité de l'information.

Künstliche Intelligenz (KI) hat sich stark in unser tägliches Leben integriert, insbesondere durch Chatbots, die ein flüssiges und informatives Gespräch versprechen. Diese Tools sind jedoch nicht immun gegen Desinformation, insbesondere von prorussischen Netzwerken. Mehrere Studien zeigen, dass Chatbots bei ihren Interaktionen irreführende Erzählungen weitergeben können, die geopolitischen Interessen dienen. Dieser Artikel untersucht, wie sich diese Desinformation in den Antworten der Chatbots einschleicht und welche Implikationen sich daraus ergeben.

Ein Anstieg der Desinformation durch KI

Im Januar 2026 enthüllte das Desinformationsobservatorium NewsGuard, dass einige Chatbots falsche Informationen über Armenien verbreiteten, indem sie falsche Erzählungen über einen angeblichen Goldverkauf aus der Amulsar-Mine an türkische Unternehmen zitierten. Obwohl diese Behauptung als falsch eingestuft wurde, bestätigten mehrere Chatbots deren Authentizität, als sie in verschiedenen Sprachen befragt wurden. Dieses Phänomen beleuchtet die Rolle der Chatbots bei der Verbreitung von Desinformation.

Die Feststellung von NewsGuard

NewsGuard hat kürzlich eine Reihe von Tests an mehreren Chatbots durchgeführt, darunter solche großer Unternehmen wie OpenAI und Mistral. Im März 2025 stellte man fest, dass 33 % der Chatbots falsche Erzählungen von prorussischen Websites als tatsächliche Fakten bewerteten. Dieser Trend verschlechterte sich während der Tests im Januar 2026, wo die Hälfte der gefälschten Erzählungen als wahr akzeptiert wurde. Während einige Tools Fortschritte zeigten, setzten andere weiterhin diese falschen Erzählungen in Umlauf.

Die Gründe für die Verbreitung

Ein Hauptgrund, warum Chatbots irreführende Erzählungen reproduzieren, ist ihre probabilistische Natur. Diese Systeme sind so konzipiert, dass sie die am weitesten verbreitete Information priorisieren, ohne deren Richtigkeit zu berücksichtigen. Das Netzwerk Pravda beispielsweise ist äußerst produktiv und zählt im Jahr 2025 über 370 Websites und 6 Millionen veröffentlichte Artikel, was die Verbreitung falscher Informationen über diese KI-Tools erleichtert.

Die Herausforderungen der Desinformation je nach Sprache

Tests innerhalb des nordischen Fact-Checking-Netzwerks Nordis haben gezeigt, dass prorussische Desinformation in die Chatbots eingedrungen ist, insbesondere in weniger gesprochenen Sprachen. Beispielsweise haben einige Chatbots in Finnisch oder Dänisch falsche Gerüchte über den Krieg in der Ukraine verbreitet, während sie diese Lügen auf Englisch oder Französisch erkannt hatten.

Variabilität der Antworten je nach Sprache

Bei Nachfragen zu einer Falschmeldung über einen dänischen Schüler, der in der Ukraine getötet wurde, lieferte ein Chatbot korrekte Informationen auf Französisch, stellte jedoch falsche Informationen auf Slowenisch zur Verfügung. Somit scheinen die Ergebnisse der Antworten der Chatbots stark von der verwendeten Sprache abhängig zu sein, was Fragen zur Effektivität der Desinformationsfilter außerhalb weit verbreiteter und unterstützter Sprachen aufwirft.

Verdacht auf böswillige Absichten

Es ist legitim zu fragen, ob diese KI-Tools absichtlich von Desinformationsoperationen ins Visier genommen werden. Journalisten wie Pipsa Havula argumentieren, dass die mangelhafte Qualität der Texte in Finnisch auf eine absichtliche Zielrichtung hindeuten könnte, die nicht Menschen, sondern Bots täuschen soll. Diese Theorie wird durch Diskussionen über Desinformationsstrategien untermauert, die von bestimmten Informanten des Kremls formuliert wurden.

Verbreitung über Chatbots hinaus

Dieses Problem der Desinformation beschränkt sich nicht auf Chatbots; auch andere Tools wie Google AI Overview und Google Lens, die Informationszusammenfassungen anbieten und die Herkunft von Bildern überprüfen, sind betroffen. Tests haben ergeben, dass eine Mehrheit ihrer Antworten falsche Informationen enthielt, was das übergreifende Problem von KI im Umgang mit irreführenden Inhalten veranschaulicht.

Implikationen und notwendige Sicherheitsvorkehrungen

Das kürzlich gestiegene Interesse an der Nutzung von KI-Tools zur Informationsbeschaffung, wie eine Umfrage von Arcom zeigt, wonach 20 % der Franzosen diese Technologien nutzen, macht die Entwicklung von Sicherheitsvorkehrungen umso wichtiger. Laut Experten sollten KI-Unternehmen eine schwarze Liste von Propagandaseiten einführen, um zweifelhafte Informationen herauszufiltern. Weitere Maßnahmen, wie weiße Listen für sensible Themen, könnten notwendig sein, um eine gewisse Integrität der Informationen zu gewährleisten.

Es ist außerdem entscheidend, dass die KI-Giganten Verantwortung übernehmen, um sicherzustellen, dass wahrheitsgemäße Erzählungen nicht von alternativen Realitäten erstickt werden. Die Einsätze sind enorm, und die heute ergriffenen Maßnahmen werden einen nachhaltigen Einfluss darauf haben, wie Informationen in der Zukunft konsumiert werden.

Nach oben scrollen