
© imago/ITAR-TASS/IMAGO/Valery Sharifulin
Nutzt Russland Datenlücken aus?: KI-Chatbots verbreiten offenbar Kreml-Propaganda zum Ukrainekrieg
Forscher haben Dutzende Anfragen an KI-Chatbots gestellt. In fast einem Viertel der Antworten weisen sie auf russische Propaganda zum Ukrainekrieg hin. Welcher Bot sich am meisten auf Kreml-Narrative stützt.
Stand:
KI-Chatbots verbreiten russische Propaganda zum Ukrainekrieg. Zu diesem Ergebnis kommt eine Studie des Instituts für strategischen Dialog (ISD), über die das US-Magazin „Wired“ berichtet. Russland würde gezielt Datenlücken ausnutzen, um falsche und irreführende Informationen zu verbreiten.
Die Forscher stellten ChatGPT von OpenAI, Gemini von Google, DeepSeek und Grok von xAI demnach 300 Anfragen in fünf Sprachen – auch auf Deutsch. Fast ein Fünftel der Antworten wiesen Quellen auf, die dem russischen Staat zugeschrieben werden konnten, heißt es in dem Bericht. Die meisten russischen Quellen würde demnach ChatGPT zitieren. Das LLM von OpenAI habe sich auch am meisten von voreingenommenen Anfragen beeinflussen lassen.
Grok, der zum Firmennetzwerk von Elon Musk gehört, hätte häufig auf Social-Media-Konten verlinkt, die die Narrative des Kremls unterstützten, heißt es in dem Bericht. Auch das chinesische DeepSeek hätte sich teilweise oft auf staatliche russische Quellen bezogen. Googles Gemini hätte die besten Ergebnisse geliefert und „häufig“ Sicherheitswarnungen ausgesprochen.
Die KI-Antworten fielen laut ISD unterschiedlich aus, je nachdem wie voreingenommen die Fragen formuliert waren, schreibt „Wired“: Neutrale Anfragen hätten zu etwa zehn Prozent Antworten aus russischen Quellen produziert, voreingenommene Anfragen zu 18 Prozent und böswillige Anfragen zu 25 Prozent.
Chatbots zitieren offenbar Sputnik und RT
Böswillige Anfragen an die KI-Bots hätten Antworten verlangt, die eine bestehende Meinung untermauerten, während voreingenommene Fragen zwar suggestiv, aber offener waren, beschreibt „Wired“ den Versuchsaufbau. Zudem stellten die Forscher die Fragen nicht in einem geschlossenen System, sondern in den Chatbot-Varianten, die auf Echtzeitdaten aus dem Internet zugreifen.
Die KI-Bots würden sich auf „Zitate russischer Staatsmedien, Websites, die mit russischen Geheimdiensten in Verbindung stehen, und Websites, (die) in russische Informationsoperationen verwickelt sind“, beziehen, teilte das ISD am Montag mit. Darunter unter anderem Sputnik Globe, Sputnik China, RT (ehemals Russia Today), wie „Wired“ berichtet. Teilweise seien aber auch russische Desinformationsnetzwerke und russische Journalisten oder Influencer zitiert worden, die die Narrative des Kremls verstärkten.
Unter anderem RT und Sputnik unterliegen seit Beginn des russischen Angriffskrieges auf die Ukraine Sanktionen der Europäischen Union. „Sputnik und Russia Today stehen unter der ständigen direkten oder indirekten Kontrolle der Regierung der Russischen Föderation und tragen wesentlich dazu bei, die militärische Aggression gegen die Ukraine zu befeuern und zu unterstützen sowie ihre Nachbarländer zu destabilisieren“, begründete die EU im März 2022 ihre Maßnahmen.
Dass die in der EU äußert beliebten Chatbots ihre Antworten teilweise aus sanktionierten Quellen beziehen, „wirft Fragen darüber auf, wie Chatbots mit diesen Quellen umgehen sollten“, zitiert „Wired“ Pablo Maristany de las Casas. Der Analyst leitete die ISD-Untersuchung. Er fordert einen Konsens zwischen den KI-Unternehmen, welche Quellen nicht zitiert werden sollten sowie eine „Kontextualisierung, um den Nutzern zu helfen, die von ihnen konsumierten Quellen zu verstehen“.
Russland manipuliert offenbar gezielt Chatbots
Bereits im März 2025 hatte eine Studie der Organisation NewsGuard ergeben, dass Russland gezielt westliche Chatbots für seine Propaganda nutzt. Dafür hätte das Prawda-Netzwerk in Moskau „eine riesige Menge russischer Propaganda – 3.600.000 Artikel im Jahr 2024“ veröffentlicht, dessen Informationen sich in Antworten von Chatbots wiederfänden.
Ein kluger Schachzug, diesen Teil der Informationsinfrastruktur ins Visier zu nehmen und anzugreifen.
Sicherheitsforscher Lukasz Olejnik
Der Sicherheitsforscher Lukasz Olejnik sieht in den Studienergebnissen die Bestätigung dafür, dass Russland das Informationsökosystem des Westens ins Visier nimmt. „Da LLMs zum unverzichtbaren Referenzwerkzeug werden, von der Informationssuche bis zur Validierung von Konzepten, ist es ein kluger Schachzug, diesen Teil der Informationsinfrastruktur ins Visier zu nehmen und anzugreifen“, sagte der Gastwissenschaftler am Department of War Studies des King’s College London der „Wired“.
Auf Nachfrage des US-Magazins hätten sich nur zwei Unternehmen geäußert: OpenAI ergreife Maßnahmen, „um zu verhindern, dass Menschen ChatGPT zur Verbreitung falscher oder irreführender Informationen nutzen“, wird eine Sprecherin zitiert. Es handele sich jedoch „nicht um eine Manipulation des Modells“, da beim Versuchsaufbau explizit das Internet und nicht die Trainingsdaten von ChatGPT durchsucht wurden.
Musks xAI soll auf die „Wired“-Anfrage lediglich geantwortet haben: „Legacy Media Lies“ (deutsch: „Lügen der traditionellen Medien“). Das Unternehmen veröffentlichte am Montag zudem seine Alternative zur Online-Enzyklopädie Wikipedia – die Grokipedia. Nach Recherchen des US-Magazins „Wired“ enthielt Grokipedia zum Start mehrere Einträge, die rechte oder konservative Narrative wiedergeben.
- showPaywall:
- false
- isSubscriber:
- false
- isPaid: