Die Zukunft der künstlichen Intelligenz: Superintelligenz und die Risiken von AI

Ein Blick auf die Entwicklungen in der KI-Forschung und die potenziellen Risiken, die damit einhergehen

Im Jahr 2014 veröffentlichte der britische Philosoph Nick Bostrom ein Buch über die Zukunft der künstlichen Intelligenz mit dem bedrohlichen Titel Superintelligence: Paths, Dangers, Strategies. Es hatte einen großen Einfluss auf die Verbreitung der Idee, dass fortgeschrittene KI-Systeme – „Superintelligenzen“, die leistungsfähiger sind als Menschen – eines Tages die Welt übernehmen und die Menschheit zerstören könnten.

Ein Jahrzehnt später sagt OpenAI-Chef Sam Altman, dass Superintelligenz möglicherweise nur noch „ein paar tausend Tage“ entfernt ist. Sein OpenAI-Mitbegründer Ilya Sutskever gründete vor einem Jahr ein Team innerhalb des Unternehmens, um sich auf „sichere Superintelligenz“ zu konzentrieren. Doch er und sein Team haben nun eine Milliarde Dollar gesammelt, um ein eigenes Startup zu gründen und dieses Ziel zu verfolgen.

Aber worüber sprechen sie genau? Im Allgemeinen ist Superintelligenz alles, was intelligenter ist als Menschen. Aber was das in der Praxis bedeuten könnte, ist etwas knifflig.

Laut US-amerikanischer Informatikerin Meredith Ringel Morris und ihren Kollegen bei Google gibt es sechs Ebenen der KI-Performance: keine KI, aufkommend, kompetent, Experte, Virtuose und supermenschlich. Es wird auch ein wichtiger Unterschied zwischen engen Systemen, die eine kleine Anzahl von Aufgaben ausführen können, und allgemeineren Systemen gemacht.

Was bedeuten diese Entwicklungen für die Risiken von KI? Kurzfristig müssen wir uns keine Sorgen machen, dass superintelligente KI die Welt übernimmt. Aber das heißt nicht, dass KI keine Risiken birgt.

Viele Erfolge in der KI sind auf die Anwendung einer Technik namens „Deep Learning“ zurückzuführen. Verbesserungen ihrer Fähigkeiten kommen größtenteils durch Erhöhung des Maßstabs der Systeme und der Menge an Daten, auf denen sie trainiert werden.

Es wird deutlich debattiert, ob aktuelle Systeme wirklich so weit fortgeschritten sind wie angenommen wurde. Einige Forscher sagen sogar, dass Sprachmodelle wie ChatGPT grundsätzlich nicht in der Lage sind, das zu erreichen, was Morris als allgemeine Kompetenz bezeichnen würde.

Teile den Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert