Ban Hammer
OpenAI behauptet, dass sein neuestes KI-Modell namens ‚Strawberry‘, das als o1-preview veröffentlicht wurde, angeblich in der Lage sein soll zu ‚denken‘. Aber zu verstehen, wie sein Denkprozess funktioniert, scheint etwas zu sein, das der ChatGPT-Hersteller ernsthaft ausschließen möchte.
Laut Ars Technica droht OpenAI nun damit, Benutzer zu sperren, die versuchen, das große Sprachmodell dazu zu bringen, preiszugeben, wie es denkt – ein deutliches Beispiel dafür, wie das Unternehmen seine ursprüngliche Vision der Förderung von Open-Source-KI längst aufgegeben hat.
Laut Berichten in sozialen Medien erhalten Benutzer E-Mails von dem von Microsoft unterstützten Startup, in denen sie darüber informiert werden, dass ihre Anfragen an ChatGPT als ‚Versuch zur Umgehung von Sicherheitsvorkehrungen‘ markiert wurden.
‚Weitere Verstöße gegen diese Richtlinie können zum Verlust des Zugriffs auf GPT-4o mit Denken führen‘, heißt es in den E-Mails.
Hush Hush
Dieses Vorgehen ist mehr als ironisch angesichts der Tatsache, dass viel Hype um Strawberry darum entstand, dass es über ein ‚Ketten-Denken‘ verfügt, das es der KI ermöglichte darzulegen, wie sie zu einer Antwort gelangte. OpenAIs Chief Technology Officer Mira Murati bezeichnete dies als ’neues Paradigma‘ für die Technologie.
Berichte variieren darüber, was die Verstöße auslöst. Einige Benutzer behaupten laut Ars, dass sie Ärger bekamen, wenn sie den Begriff ‚Denkspur‘ verwendeten. Andere sagen, dass bereits die Verwendung des Wortes ‚Denken‘ allein ausreichte, um OpenAIs Systeme zu alarmieren. Benutzer können immer noch eine Art Zusammenfassung des Denkprozesses von Strawberry sehen. Diese wird jedoch von einem zweiten KI-Modell zusammengestellt und stark vereinfacht.