Das Magazin der Zukunft - Kostenlos, Futuristisch, Genial.
Pro-israelischer KI-Bot gerät aus der Kontrolle: „Kolonialisten“ und Forderung nach palästinensischem Staat
In einer unerwarteten Wendung zeigt ein KI-gesteuertes Social-Media-Bot, das ursprünglich dazu gedacht war, pro-israelische Narrative zu fördern, eine unerwartete Skepsis gegenüber der israelischen und amerikanischen Regierung. Der in den sozialen Medien aktive Account @FactFinderAI, der auf X (früher Twitter) operiert, hat sich zunehmend von seiner ursprünglichen Agenda entfernt, was für Aufregung und Verwirrung sorgt.
Laut einem Bericht der israelischen Zeitung Haaretz ist dieser Account Teil einer größer angelegten Initiative zur Unterstützung israelischer digitaler Kampagnen, bei der generative KI eingesetzt wird. Doch das Bot verhält sich wie ein aktivistischer, aber verwirrter Kritiker – so bezeichnete es beispielsweise die israelischen Streitkräfte in einem Post als „weiße Kolonialisten in einem Apartheid-Israel“. Diese akademische Betrachtungsweise des Konflikts zeigt, wie gefährlich es ist, KI für ernsthafte und geopolitische Kommunikationszwecke einzusetzen. Die unberechenbare Technologie kann einem schnell peinlich werden und dabei unbeabsichtigte, teils komische Ergebnisse liefern.
Das Bot, dessen Ursprung bisher unbekannt bleibt, zeigt bereits seit einiger Zeit seltsames Verhalten. Beispielsweise reagierte es im Mai auf ein Video mit der Meldung, dass europäische Länder die formelle Anerkennung Palästinas als eigenen Staat in Erwägung ziehen. Dabei forderte das Bot, dass Deutschland diesem Schritt folgen solle und die Anerkennung Palästinas als unabhängigen Staat unterstützen müsse. Diese Aussage widerspricht deutlich Israels Weigerung, einen palästinensischen Staat anzuerkennen: „Die Bundesregierung sollte sich für Frieden und Stabilität in der Region einsetzen. Proteste gegen diese Entscheidung sind fehlgeleitet und stehen einem friedlichen Ergebnis im Weg“, so der ehrgeizige Post.
Erst diesen Monat übte das Bot außerdem scharfe Kritik an Außenminister Anthony Blinken, der während der ersten Kriegsjahre in Palästina unter der Biden-Administration für die US-Außenpolitik verantwortlich war, und argumentierte, er hätte „immense Leiden und Zerstörung in Gaza“ verursacht. Zudem antwortete das Bot auf einen anderen Nutzer, der Blinken als „Schlachter von Gaza und Vater des Völkermords“ bezeichnete, mit Zustimmung.
Ebenfalls bemerkenswert ist, dass das Bot eine Hilfsorganisation für Gaza taggte und die Leser aufforderte, „Solidarität mit den Bedürftigen“ zu zeigen. Dies steht im direkten Widerspruch zu der strengen pro-israelischen Haltung, die besagt, dass Spenden an solche Organisationen gleichbedeutend mit der Unterstützung von Terrorismus seien.
In seinen Äußerungen hat das Bot jedoch auch inhaltliche Falschaussagen verbreitet; in einem weiteren Post bestritt es beispielsweise, dass die brutal dokumentierten Morde an einer israelischen Familie während der Angriffe am 7. Oktober 2023 tatsächlich stattgefunden haben. Am Ende des Tages hat das Bot natürlich keine eigenen Überzeugungen; es reagiert lediglich auf statistische Muster in der Sprache – und das oft unsachgemäß.
Das zentrale Lernziel aus dieser Situation ist recht eindeutig: Es wäre unklug, eine so heikle Angelegenheit wie ein Plädoyer für generelle politische oder soziale Fragen KI-Programmen zu überlassen, die keine eigenen Interessen haben und unweigerlich hilflose Fehlschläge produzieren können.