Der leitende Forscher von OpenAI, der dafür verantwortlich ist sicherzustellen, dass das Unternehmen (und die Welt) auf das Aufkommen der künstlichen allgemeinen Intelligenz (AGI) vorbereitet ist, ist zurückgetreten – und warnt davor, dass niemand bereit ist für das, was als Nächstes kommt.
In einem Beitrag auf seinem persönlichen Substack schrieb der neu zurückgetretene AGI-Bereitschaftsexperte von OpenAI, Miles Brundage, dass es schwierig gewesen sei, seinen „Traumjob“ nach sechs Jahren aufzugeben. Er sagt, er tue dies, weil er eine große Verantwortung hinsichtlich der angeblich auf menschlichem Niveau befindlichen künstlichen Intelligenz verspürt, die seiner Meinung nach von OpenAI in die Existenz gerufen wird.
„Ich habe entschieden“, schrieb Brundage, „dass ich die Entwicklung von KI beeinflussen möchte, aber von außerhalb der Branche statt von innen.“
Was die Vorbereitung darauf betrifft, mit der noch theoretischen Technologie umzugehen, war der Forscher unmissverständlich.
„Kurz gesagt sind weder OpenAI noch ein anderes Spitzenlabor bereit“, schrieb er, „und auch die Welt ist nicht bereit.“
Nach dieser kühnen Erklärung fuhr Brundage fort zu sagen, dass er seine Ansichten mit der Führung von OpenAI geteilt hat. Er fügte hinzu, dass er denkt: „AGI ist ein überlasteter Begriff, der mehr ein binäres Denken impliziert als tatsächlich sinnvoll ist.“
Statt eines vorher-nachher AGI-Rahmens sagte der Forscher, dass es – um viele Halluzinogen-Enthusiasten zu zitieren – verschiedene Ebenen gibt. Tatsächlich sagte Brundage, dass er maßgeblich an der Schaffung von OpenAIs fünfstufiger Skala der KI/AGI-Levels beteiligt war, die im Sommer an Bloomberg durchgesickert ist. Auf dieser Skala glaubt OpenAI, dass die Welt sich derzeit an der Schwelle zum zweiten Level befindet. Dieses würde durch KI gekennzeichnet sein, die in der Lage ist zu menschenähnlichem Denken.
Denznoch besteht Brundage darauf, dass sowohl OpenAI als auch die Welt insgesamt nicht auf die nächste Generation von KI-Systemen vorbereitet sind.
Bemerkenswert ist jedoch: Brundage glaubt immer noch daran, dass AGI allen Menschen zugute kommen kann. Es wird dies jedoch nicht automatisch tun. Stattdessen müssen die Menschen in Verantwortung für ihre bewusste Gestaltung und Regulierung sorgen. Diese Einschränkung legt nahe, dass er möglicherweise nicht glaubt, dass OpenAI ausreichend bewusst vorgeht in Bezug auf den Umgang mit AGI-Verwaltung.
Mit dem Ausscheiden des leitenden Forschers sagt Brundage voraus: OpenAI weist Mitglieder seines AGI-Bereitschaftsteams anderen Gruppen innerhalb der Organisation zu. Diese Auflösung erfolgt weniger als sechs Monate nachdem das AI-Sicherheitsteam gestoppt wurde – was angesichts dieses neuesten prominenten Rücktritts nicht gerade positiv aussieht und das Führungsteam des Unternehmens durcheinander bringt.