KI-Systeme im Visier russischer Desinformation
Die Manipulation von künstlicher Intelligenz durch gezielte Desinformation entwickelt sich zu einer ernsthaften Bedrohung für die digitale Informationslandschaft. Das russische Pravda-Netzwerk, ein umfangreiches Propagandasystem mit Sitz in Moskau, beeinflusst systematisch die Antworten westlicher KI-Chatbots mit prorussischen Narrativen, so ein Bericht von France24.
Aktuelle Untersuchungen der Organisation NewsGuard sollen gezeigt haben: Bei Tests mit zehn führenden KI-Chatbots – darunter die von Microsoft, Google, OpenAI, You.com, xAI, Anthropic, Meta, Mistral und Perplexity – wiederholten diese in mehr als 33 Prozent der Fälle Argumente aus dem Pravda-Netzwerk. Diese Form der Manipulation wird von Forschern als „LLM-Grooming“ bezeichnet – eine Methode, bei der die Trainingsdaten der Sprachmodelle gezielt mit Fehlinformationen geflutet werden.
Allein im Jahr 2024 wurden 3,6 Millionen Artikel mit russischer Propaganda in die Datenbestände westlicher KI-Systeme eingespeist. Das Pravda-Netzwerk, das seit April 2022 aktiv ist, hat seine Reichweite auf 49 Länder ausgedehnt und produziert Inhalte in verschiedenen Sprachen.
Die Funktionsweise des Systems ist raffiniert: Pravda erstellt keine eigenen Inhalte, sondern aggregiert Material aus russischen Staatsmedien und von pro-kremltreuen Influencern. Diese Inhalte werden dann über Plattformen wie X, Telegram und Bluesky verbreitet. Besonders problematisch ist angeblich, dass renommierte KI-Systeme wie ChatGPT-4, Microsoft Copilot, Meta AI und Google Gemini diese Desinformation aufgreifen und weitergeben.
John Mark Dougan, ein zum Kreml-Propagandisten gewordener US-Flüchtling, beschrieb auf einer Konferenz in Moskau die Strategie: Durch das gezielte Einbringen russischer Narrative in KI-Systeme soll die weltweite Wahrnehmung beeinflusst werden. Diese systematische Manipulation der KI-Infrastruktur stellt eine neue Dimension der Informationskriegsführung dar.
„Indem das Netzwerk Suchergebnisse und Webcrawler mit kremlfreundlichen Unwahrheiten überflutet, verzerrt es die Art und Weise, wie große Sprachmodelle Nachrichten und Informationen verarbeiten und präsentieren“, heißt es in seinem Bericht von NewsGuard.
Sich blind auf Ergebnisse aus einer KI zu berufen, ist die eine Sache – nachrichtentechnisch sollte man sich heute bei Interesse breiter aufstellen, wenn man wirklich an gewissen Dingen interessiert ist. Denn die Propaganda und Pro-für-irgendwas-Bots findet man wohl überall. Vermutlich auch in und aus Deutschland.
Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir eine kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.
Offenbar gibt es immer nur „eine regionale Wahrheit“, die es Global Anderen aufzuzwingen gilt. Das funktionierte noch nie.
Sich blind auf Schlagworte zu werfen ist etwas kurzsichtig. Wert entscheidend was Unwahrheiten sind und seit wann haben nur die Gegner Propaganda, man selbst nur die reinste Wahrheit?
Was vor Jahren bei uns noch als unumstößlich und unstrittig galt, ist jetzt und heute „verboten“ und folglich „Desinformation“.
Die selben Narrative, die hier gesponnen und gesponsert werden, sind beim den „Anderen“ genau gegenteilig und diese denken sich über uns wie verdreht wir doch alle sind. Aber wie praktisch, dass immer nur „wir“ die „Guten“ sind und die Anderen im Unrecht.
Das fing schon bei Adam an, da war Gott selbst schuld weil „er ihm diese Frau“ gab und zu ihrer Verteidigung, war auch jemand anderer schuld…
Ich denke, spätestens seit Februar 2022 sind die Rollen doch ziemlich klar verteilt, oder? Ich weiß nicht, was es da noch zu argumentieren gibt.
Kann es sein, dass das Gefährlichste an KI-Systemen die Bezeichnung „Intelligenz“ ist? Für mich verbinden sich mit einer solchen, Vertrauen erheischenden Bezeichnung Vorstellungen von selbständigen Denk- und Abwägeprozessen, die derzeit nicht vorhanden zu sein scheinen. Im Grunde geht es bei KI bisher anscheinend „nur“ um extrem leistungsfähige Mustererkennung in einem vorhandenen Datenbestand. Zweifellos sehr nützlich in vielen Zusammenhängen, aber prinzipiell immer über den Datenbestand beeinflussbar.
Genau wie mit dem Wort „Social Media“. „Corporate Media“ wäre passender. Und wir hätten dann auch nicht mehr diese Scheindebatten über „Meinungsfreiheit“.
Ist mir auch bei den generierten K“I“-News von Perplexity aufgefallen, in Bezug auf die chinesische Raumfahrt. Ließt sich ziemlich drollig. 😀
„Der rekordbrechende Weltraumspaziergang von Cai Xuzhe und Song Lingdong markiert einen bedeutenden Meilenstein im chinesischen Raumfahrtprogramm und zeigt die wachsenden Fähigkeiten des Landes in der bemannten Raumfahrt. Diese Errungenschaft ist Teil einer Reihe bemerkenswerter Leistungen chinesischer Astronauten an Bord der Tiangong-Raumstation.“
Dieses Muster (Propagandaeinleitung, gefolgt von dem eigentlichen Vorgang, …) wiederholt sich fortlaufend in den „Artikeln“ zum Thema, da die meiste „Berichterstattung“ logischerweise aus China selbst kommt. Letztendlich muss man K“I“ als Pressestelle für Meinungsmacher begreifen, die den meisten Traffic erzeugen.
Bisher wird allgemein KI Systemen vorgeworfen, Ergebnisse scheinbar nach vorheriger Einstellung (auch politisch) auszugehen. Und alle Systeme, egal woher sie kommen, sind nicht „neutral“ oder auschließlich „Fakten“.
Zudem je nach Zeit sich Fakten und Desinformation ablösen: heute heißt es auf einmal, Virus kam aus dem Labor, gestern war das noch Desinformation oder gar eine „Verschwörungstheorie“, vor zwei Jahren wurden Berichte, die Sanktionen gegen Russland funktionieren nicht als Desinformation bezeichnet.
Wie sollten da automatisierte Systeme bessere Ergebnisse liefern.
Wichtiger denn je ist es Nachrichten immer auf ihren Hintergrund hin zu überprüfen und selbst eine Wahrscheinlichkeitseinschätzung vorzunehmen – machen aber die meisten Menschen nicht. Denn sie möchten immer nur ihre Wahrheit aufgetischt bekommen – egal ob in TV oder durch KI.
Das beginnt hier damit zu fragern, wer da agiert und dahinter steht. Und da sieht es dann schon selbst kritisch aus, wie man in der Kritik über newsguard lesen kann. Nicht nur in Russland gibt es Desinformation und Manipulation.
So auch in einem Artikel aus heise online von 2019:
https://www.heise.de/news/Mit-NATO-Haekchen-4449791.html
Letztes waren es noch Auspuffrohre mit Bauschaum und mit Habeck Aufklebern auf den Autos und jetzt die KI?