Ein Anwalt in Minnesota, der behauptet, ein Experte dafür zu sein, wie ‚Menschen Täuschung mit Technologie nutzen‘, wurde beschuldigt, einen KI-Chatbot zur Erstellung einer eidesstattlichen Erklärung verwendet zu haben – zur Unterstützung eines Anti-Deepfake-Gesetzes im Bundesstaat.
Wie der Minnesota Reformer berichtet, fanden Anwälte, die das Gesetz im Namen der rechtsextremen YouTuberin und republikanischen Abgeordneten Mary Franson herausfordern, heraus, dass die eidesstattliche Erklärung des Gründungsdirektors des Stanford Social Media Lab Jeff Hancock Referenzen zu Studien enthielt, die anscheinend nicht existieren – ein deutliches Zeichen für KI-Textgeneratoren, die oft Fakten ‚halluzinieren‘ und Referenzmaterialien erfinden.
Es ist bei weitem nicht das erste Mal, dass einem Anwalt vorgeworfen wird, Gerichtsfälle mithilfe von KI-Chatbots wie OpenAIs ChatGPT zu erfinden. Es ist jedoch eine besonders ironische Entwicklung angesichts des Themas.
Das Gesetz, das ein Verbot der Verwendung von Deepfakes zur Beeinflussung einer Wahl fordert, wurde vor Bundesgericht von Franson angefochten mit der Begründung, dass ein solches Verbot die Rechte des ersten Verfassungszusatzes verletzen würde.
Aber in dem Versuch, das Gesetz zu verteidigen, ist Hancock – oder möglicherweise einer seiner Mitarbeiter – ins Fettnäpfchen getreten und hat den Anwälten der Kläger eine goldene Gelegenheit gegeben.
Eine in Hancocks eidesstattlicher Erklärung zitierte Studie mit dem Titel ‚Der Einfluss von Deepfake-Videos auf politische Einstellungen und Verhalten‘ scheint nicht zu existieren. ‚Die Zitierung trägt die Merkmale einer künstlichen Intelligenz (KI)-‚Halluzination‘, was darauf hindeutet, dass zumindest die Zitierung von einem großen Sprachmodell wie ChatGPT generiert wurde‘, schrieben Fransons Anwälte in einem Memorandum. ‚Die Kläger wissen nicht, wie diese Halluzination in Hancocks Erklärung gelandet ist, aber sie stellt das gesamte Dokument infrage.‘
Und es sind nicht nur Fransons Anwälte. Der UCLA-Rechtsprofessor Eugene Volokh entdeckte ebenfalls eine andere zitierte Studie mit dem Titel ‚Deepfakes und die Illusion der Authentizität: Kognitive Prozesse hinter der Akzeptanz von Fehlinformationen‘, die ebenfalls nicht zu existieren scheint.
Es handelt sich um eine besorgniserregende Wendung in einem ansonsten bedeutsamen Bemühen, AI-Deepfakes daran zu hindern, eine Wahl zu beeinflussen – etwas, das aufgrund stetiger Fortschritte in der Technologie zu einem sehr realen Risiko geworden ist.
Es hebt auch einen wiederkehrenden Trend hervor: Anwälte werden immer wieder dabei erwischt, Tools wie ChatGPT zu verwenden und dabei Fakten durcheinanderzubringen. Letztes Jahr wurde der in New York City ansässige Anwalt Steven Schwartz dabei erwischt, wie er ChatGPT benutzte, um ihm bei der Erstellung eines Dokuments zu helfen.
Ein anderer Anwalt aus Colorado namens Zacharia Crabill wurde ebenfalls auf frischer Tat ertappt und im November wegen desselben Vergehens entlassen. Crabill jedoch blieb standhaft. ‚Es hat keinen Sinn‘, sagte er gegenüber der Washington Post über die Entlassung. ‚oder gegen etwas zu sein, das unweigerlich zum Weg der Zukunft werden wird.‘
Mehr über KI und Anwälte: Anwalt gerät in große Schwierigkeiten nachdem er ChatGPT vor Gericht verwendet hat und alles durcheinandergebracht hat