Laut Technologie-Experten sollen AI-Chatbots unsere Faktenprüfer und Nachrichtenvermittler werden. Doch diese ereignisreiche Woche in der amerikanischen Politik zeigt, dass sie noch einen langen Weg vor sich haben.
Innerhalb von neun Tagen, in denen Donald Trump ein Attentat überlebte und Präsident Joe Biden überraschend aus dem Präsidentschaftsrennen ausschied, waren AI-Chatbots entweder nicht auf dem aktuellen Stand, berichteten nicht korrekt über aktuelle Ereignisse oder weigerten sich sogar, Fragen zu den Nachrichten zu beantworten, so die Washington Post.
Diese Mängel verstärken Bedenken hinsichtlich der Neigung von KI zur Verbreitung von Fehlinformationen – werfen aber auch allgemeinere Fragen zur Nützlichkeit der Technologie in einem sich schnell verändernden Informationsumfeld auf.
Bei einer Untersuchung stellte die WaPo fest, dass beliebte Chatbots verwirrt waren, als sie nach dem Attentat auf einer Trump-Kundgebung in Pennsylvania am 13. Juli gefragt wurden.
Sie hatten auch Schwierigkeiten mit anderen großen politischen Nachrichten dieser Woche, wie Trumps Benennung des Senators JD Vance aus Ohio als seinen Vizepräsidentschaftskandidaten und Bidens positivem COVID-Test. Als nach der Vance-Auswahl gefragt wurde, lieferte Meta AI zunächst genaue Informationen, ersetzte diese jedoch schnell durch eine Dankesnachricht und einen Link zu Wahlinformationen.
Die Zeitung stellte fest, dass einige Chatbots wie Microsoft Copilot besser darin waren, Breaking News korrekt zu melden. Selbst dieser herausragende Performer war jedoch ratlos, als er am Sonntag nach dem Rückzug Bidens aus dem Rennen gefragt wurde.
Microsoft, Meta und Google haben erklärt, dass sie Einschränkungen für ihre Chatbots bei politischen und wahlbezogenen Anfragen einführen werden. Diese vorsichtigen Haltungen können als stillschweigendes Eingeständnis angesehen werden, dass KI-Chatbots – und ihre fragwürdigen Ausgaben – enorme potenzielle Haftungsrisiken darstellen.