Das Magazin der Zukunft - Kostenlos, Futuristisch, Genial.
OpenAI unter Beschuss: Whistleblower behaupten, dass Sicherheitstests für KI-Modelle vernachlässigt wurden
Tech-Führungskräfte warnen vor den potenziellen Gefahren der KIs, die sie entwickeln, während sie auf die Notwendigkeit von Regulierungen hinweisen. Die Aufrichtigkeit dieser Warnungen war jedoch schon immer fragwürdig, und nun gibt es mehr Beweise dafür, dass OpenAI, ein Branchenführer, nicht das praktiziert hat, was CEO Sam Altman öffentlich predigt.
Laut einem Bericht der Washington Post fühlten sich Mitglieder von OpenAI’s Sicherheitsteam gedrängt, Tests zu überstürzen, die darauf abzielten, katastrophale Schäden durch sein GPT-4 Omni großes Sprachmodell zu verhindern, das jetzt ChatGPT antreibt – alles damit das Unternehmen sein Produkt bis zum Start im Mai herausbringen konnte. Zusammenfassend sagen sie, dass OpenAI die Sicherheit von GPT-4o als Selbstverständlichkeit behandelt hat.
Diese neueste Enthüllung zeigt, dass OpenAI die Standards des von Präsident Joe Biden erlassenen AI-Gesetzes nicht einhält. Unternehmen führen ihre eigenen Sicherheitstests an ihren KI-Modellen durch und reichen dann die Ergebnisse zur Überprüfung an die Bundesregierung ein. Als GPT-4o getestet wurde, verkürzte OpenAI jedoch seine Tests auf eine einzige Woche.
OpenAI hat diese Vorwürfe heruntergespielt und betont, dass das Unternehmen keine Abstriche bei seinem Sicherheitsprozess gemacht habe. Dennoch klingen sie etwas schuldig. Eine Sprecherin behauptete lediglich, dass der Start für die Mitarbeiter „stressig“ war.