KI-Systeme im Visier russischer Desinformation

Foto von Taylor Vick auf Unsplash

Die Manipulation von künstlicher Intelligenz durch gezielte Desinformation entwickelt sich zu einer ernsthaften Bedrohung für die digitale Informationslandschaft. Das russische Pravda-Netzwerk, ein umfangreiches Propagandasystem mit Sitz in Moskau, beeinflusst systematisch die Antworten westlicher KI-Chatbots mit prorussischen Narrativen, so ein Bericht von France24.

Aktuelle Untersuchungen der Organisation NewsGuard sollen gezeigt haben: Bei Tests mit zehn führenden KI-Chatbots – darunter die von Microsoft, Google, OpenAI, You.com, xAI, Anthropic, Meta, Mistral und Perplexity – wiederholten diese in mehr als 33 Prozent der Fälle Argumente aus dem Pravda-Netzwerk. Diese Form der Manipulation wird von Forschern als „LLM-Grooming“ bezeichnet – eine Methode, bei der die Trainingsdaten der Sprachmodelle gezielt mit Fehlinformationen geflutet werden.

Allein im Jahr 2024 wurden 3,6 Millionen Artikel mit russischer Propaganda in die Datenbestände westlicher KI-Systeme eingespeist. Das Pravda-Netzwerk, das seit April 2022 aktiv ist, hat seine Reichweite auf 49 Länder ausgedehnt und produziert Inhalte in verschiedenen Sprachen.

Die Funktionsweise des Systems ist raffiniert: Pravda erstellt keine eigenen Inhalte, sondern aggregiert Material aus russischen Staatsmedien und von pro-kremltreuen Influencern. Diese Inhalte werden dann über Plattformen wie X, Telegram und Bluesky verbreitet. Besonders problematisch ist angeblich, dass renommierte KI-Systeme wie ChatGPT-4, Microsoft Copilot, Meta AI und Google Gemini diese Desinformation aufgreifen und weitergeben.

John Mark Dougan, ein zum Kreml-Propagandisten gewordener US-Flüchtling, beschrieb auf einer Konferenz in Moskau die Strategie: Durch das gezielte Einbringen russischer Narrative in KI-Systeme soll die weltweite Wahrnehmung beeinflusst werden. Diese systematische Manipulation der KI-Infrastruktur stellt eine neue Dimension der Informationskriegsführung dar.

„Indem das Netzwerk Suchergebnisse und Webcrawler mit kremlfreundlichen Unwahrheiten überflutet, verzerrt es die Art und Weise, wie große Sprachmodelle Nachrichten und Informationen verarbeiten und präsentieren“, heißt es in seinem Bericht von NewsGuard.

Sich blind auf Ergebnisse aus einer KI zu berufen, ist die eine Sache – nachrichtentechnisch sollte man sich heute bei Interesse breiter aufstellen, wenn man wirklich an gewissen Dingen interessiert ist. Denn die Propaganda und Pro-für-irgendwas-Bots findet man wohl überall. Vermutlich auch in und aus Deutschland.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hallo, ich bin Carsten! Ich bin gelernter IT-Systemelektroniker und habe das Blog 2005 gegründet. Baujahr 1977, Dortmunder im Norden, BVB-Fan und Vater eines Sohnes. Auch zu finden bei X, Threads, Facebook, LinkedIn und Instagram.

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

7 Kommentare

  1. Offenbar gibt es immer nur „eine regionale Wahrheit“, die es Global Anderen aufzuzwingen gilt. Das funktionierte noch nie.

    Sich blind auf Schlagworte zu werfen ist etwas kurzsichtig. Wert entscheidend was Unwahrheiten sind und seit wann haben nur die Gegner Propaganda, man selbst nur die reinste Wahrheit?
    Was vor Jahren bei uns noch als unumstößlich und unstrittig galt, ist jetzt und heute „verboten“ und folglich „Desinformation“.

    Die selben Narrative, die hier gesponnen und gesponsert werden, sind beim den „Anderen“ genau gegenteilig und diese denken sich über uns wie verdreht wir doch alle sind. Aber wie praktisch, dass immer nur „wir“ die „Guten“ sind und die Anderen im Unrecht.

    Das fing schon bei Adam an, da war Gott selbst schuld weil „er ihm diese Frau“ gab und zu ihrer Verteidigung, war auch jemand anderer schuld…

    • Ich denke, spätestens seit Februar 2022 sind die Rollen doch ziemlich klar verteilt, oder? Ich weiß nicht, was es da noch zu argumentieren gibt.

  2. Kann es sein, dass das Gefährlichste an KI-Systemen die Bezeichnung „Intelligenz“ ist? Für mich verbinden sich mit einer solchen, Vertrauen erheischenden Bezeichnung Vorstellungen von selbständigen Denk- und Abwägeprozessen, die derzeit nicht vorhanden zu sein scheinen. Im Grunde geht es bei KI bisher anscheinend „nur“ um extrem leistungsfähige Mustererkennung in einem vorhandenen Datenbestand. Zweifellos sehr nützlich in vielen Zusammenhängen, aber prinzipiell immer über den Datenbestand beeinflussbar.

    • Genau wie mit dem Wort „Social Media“. „Corporate Media“ wäre passender. Und wir hätten dann auch nicht mehr diese Scheindebatten über „Meinungsfreiheit“.

  3. Ist mir auch bei den generierten K“I“-News von Perplexity aufgefallen, in Bezug auf die chinesische Raumfahrt. Ließt sich ziemlich drollig. 😀

    „Der rekordbrechende Weltraumspaziergang von Cai Xuzhe und Song Lingdong markiert einen bedeutenden Meilenstein im chinesischen Raumfahrtprogramm und zeigt die wachsenden Fähigkeiten des Landes in der bemannten Raumfahrt. Diese Errungenschaft ist Teil einer Reihe bemerkenswerter Leistungen chinesischer Astronauten an Bord der Tiangong-Raumstation.“

    Dieses Muster (Propagandaeinleitung, gefolgt von dem eigentlichen Vorgang, …) wiederholt sich fortlaufend in den „Artikeln“ zum Thema, da die meiste „Berichterstattung“ logischerweise aus China selbst kommt. Letztendlich muss man K“I“ als Pressestelle für Meinungsmacher begreifen, die den meisten Traffic erzeugen.

  4. Bisher wird allgemein KI Systemen vorgeworfen, Ergebnisse scheinbar nach vorheriger Einstellung (auch politisch) auszugehen. Und alle Systeme, egal woher sie kommen, sind nicht „neutral“ oder auschließlich „Fakten“.

    Zudem je nach Zeit sich Fakten und Desinformation ablösen: heute heißt es auf einmal, Virus kam aus dem Labor, gestern war das noch Desinformation oder gar eine „Verschwörungstheorie“, vor zwei Jahren wurden Berichte, die Sanktionen gegen Russland funktionieren nicht als Desinformation bezeichnet.

    Wie sollten da automatisierte Systeme bessere Ergebnisse liefern.

    Wichtiger denn je ist es Nachrichten immer auf ihren Hintergrund hin zu überprüfen und selbst eine Wahrscheinlichkeitseinschätzung vorzunehmen – machen aber die meisten Menschen nicht. Denn sie möchten immer nur ihre Wahrheit aufgetischt bekommen – egal ob in TV oder durch KI.

    Das beginnt hier damit zu fragern, wer da agiert und dahinter steht. Und da sieht es dann schon selbst kritisch aus, wie man in der Kritik über newsguard lesen kann. Nicht nur in Russland gibt es Desinformation und Manipulation.

    So auch in einem Artikel aus heise online von 2019:
    https://www.heise.de/news/Mit-NATO-Haekchen-4449791.html

  5. Letztes waren es noch Auspuffrohre mit Bauschaum und mit Habeck Aufklebern auf den Autos und jetzt die KI?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.