Ein umstrittener AI-betriebener lokaler Nachrichtendienst hat diese Woche ordentlich danebengegriffen, indem er versehentlich einen regionalen Bezirksstaatsanwalt des Mordes beschuldigte.
Ein Artikel erschien auf Hoodline San Jose, einer der vielen lokalen Nachrichtenseiten des Netzwerks in den USA, mit der schockierenden Schlagzeile: ‚SAN MATEO COUNTY DA DES MORDES ANGEKLAGT WÄHREND DER FORTGESETZTEN SUCHE NACH DEN RESTEN DES OPFERS.‘
Das ist düster, ganz zu schweigen von einem Verbrechen, das wahrscheinlich landesweit Schlagzeilen gemacht hätte. Aber es gab einen wichtigen Grund, warum es nicht national bekannt wurde: Es gab tatsächlich einen Mord, aber der Staatsanwalt hat ihn nicht begangen. Er hat nur den Mann angeklagt, der es angeblich getan hat.
Nachdem Techdirt Hoodline auf den katastrophalen Fehler aufmerksam machte, erschien eine wirre Editor’s Note oben im Artikel. Sie führte das Missgeschick auf einen einfachen ‚Tippfehler‘ zurück, der leider die Bedeutung des Inhalts veränderte und ‚damit Unklarheit darüber schuf, dass der Staatsanwalt und der Angeklagte zwei verschiedene Personen sind.‘
Fehler passieren im Journalismus. Aber mutig die falsche Person des Mordes zu beschuldigen – geschweige denn eine solche Anschuldigung gegen einen hochrangigen lokalen Beamten zu erheben – ist in Bezug auf die Ernsthaftigkeit ziemlich weit oben in Bezug auf journalistische Fehler.
Dieser Vorfall wirft auch Fragen nach Hoodlines blumigen Versprechen auf, dass sein redaktioneller Inhalt mit einem bedeutenden Maß an menschlicher Aufsicht erstellt wird.
Es gibt möglicherweise auch Auswirkungen für Google – ein KI-Unternehmen, das angeblich selbst KI-Nachrichtenprodukte testet. Laut Techdirts Mike Masnick entdeckte er die falsche KI-Anschuldigung, als der Hoodline-Artikel in seinem Google News-Tab auftauchte.
Was sicher ist: Fehler wie diese, die ein menschlicher Reporter unter einem soliden redaktionellen Prozess sehr unwahrscheinlich machen würde, werden wahrscheinlich häufiger auftreten, wenn Verlage die Kontrolle über billige und kaum überwachte KI-Systeme abgeben.