Chatbots verbreiten russische Propaganda, Bericht deckt auf

Top-Chatbots wiederholen laut Bericht russische Desinformationsnarrative

Lesen Sie in letzter Zeit gute russische Propaganda? Laut einem neuen Bericht der Desinformationsüberwachung NewsGuard tun dies sicherlich Top-Chatbots.

Eine NewsGuard-Überprüfung von zehn Top-Chatbots – darunter OpenAI’s ChatGPT, Googles Gemini, xAI’s Grok, Anthropics Claude und der Perplexity-Suchchatbot – ergab, dass die beliebten KI-Tools oft falsche Narrative wiedergeben, die direkte Verbindungen zu einem russisch-staatlich verbundenen Desinformationsnetzwerk aus gefälschten Nachrichtenseiten haben, die wie glaubwürdige amerikanische Outlets aussehen.

NewsGuard testete die zehn Chatbots auf ihr Wissen über 19 spezifische gefälschte Narrative, die von einem Netzwerk von Websites vorangetrieben wurden, das kürzlich mit John Mark Dougan in Verbindung gebracht wurde, einem ehemaligen stellvertretenden Sheriff aus Florida, der derzeit im Asyl in Moskau lebt. Wie ein kürzlich erschienener Bericht der New York Times enthüllte, betreibt Dougan ein umfangreiches, größtenteils KI-gesteuertes Netzwerk von gefälschten Nachrichtenseiten mit banal klingenden Titeln – darunter Titel wie New York News Daily, The Houston Post und The Chicago Chronicle -, auf denen er Massen an Inhalten veröffentlicht, die falsche Narrative fördern.

Und nun scheint es, dass Dougan’s Fake News ihren Weg in beliebte KI-Tools gefunden hat. Die Überprüfung von NewsGuard erfasste alle zehn getesteten Chatbots dabei, dass sie „überzeugend“ „fabrizierte Narrative“ wiederholten, die von Dougan und seinem staatlich verbundenen Fake-News-Netzwerk vorangetrieben wurden. Und diese waren keine Einzelfälle: Die KIs wiederholten Gesprächspunkte in einem alarmierenden Drittel der insgesamt untersuchten Antworten und verwiesen in vielen Fällen sogar auf Dougan’s Websites als Quellen.

„Russische Desinformationsnarrative haben generative KI infiltriert“, erklärt der am Dienstag veröffentlichte Bericht.

Zu den nachweislich falschen Behauptungen gehören laut NewsGuard Verschwörungstheorien über die angebliche Korruption des ukrainischen Präsidenten Wolodymyr Selenskyj sowie der erfundene Mord an einem ägyptischen Journalisten angeblich geplant von der Witwe des russischen Dissidenten Alexei Nawalny.

NewsGuard testete insgesamt 570 Eingaben und forderte jeden Chatbot 57 Mal heraus. Während des Tests reagierten die Chatbots mit Desinformation in Fällen, in denen NewsGuard-Forscher und Reporter nach einer bestimmten Verschwörung fragten – oder anders gesagt: als ob jemand einen Chatbot als Suchmaschine oder Recherchetool verwenden würde – sowie in Fällen, in denen ein Bot speziell gebeten wurde einen Artikel über eine falsche, von Russland vorangetriebene Erzählung zu schreiben.

Die Watchdog-Gruppe hat nicht festgestellt, welche Chatbots besser oder schlechter darin waren, Desinformation zu filtern. Dennoch handelt es sich bei diesen Fehlern im Informationsaustausch durch KI nicht gerade um Standard-Irrtümer. Die Ergebnisse von NewsGuard zeigen die besorgniserregende neue Rolle der KI im Zyklus der Desinformation auf – und jeder, der KI-Chatbots zur Interaktion mit Nachrichten und Informationen verwendet, sollte vielleicht zweimal nachdenken. Oder vielleicht einfach mal zu echten Nachrichtenwebsites greifen.“Was wirklich alarmierend ist“, sagte NewsGuard-Co-Geschäftsführer Steven Brill gegenüber Axios,“ist,dass die Hoaxes und Propaganda,die diese Chatbots so häufig wiederholt haben,kau obskur waren,nachdem auch nicht die Person dahinter.“Für den Moment fügte Brill hinzu:“Vertrauen Sie den Antworten,die Ihnen von den meisten dieser Chatbots zu Fragen im Zusammenhang mit Nachrichten gegeben werden,nicht.“

Mehr zur KI-Fehlinformation: Selbst Googles eigene Forscher geben zu,dass KI eine Hauptquelle für Fehlinformationen online ist

Teile den Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert