OpenAI kündigt kostengünstiges GPT-4o mini Modell an

Das neue Modell GPT-4o mini von OpenAI ermöglicht erschwingliche KI-Anwendungen

OpenAI hat sich dazu verpflichtet, Intelligenz so weit wie möglich zugänglich zu machen. Heute kündigen wir GPT-4o mini an, unser kostengünstigstes kleines Modell. Wir erwarten, dass GPT-4o mini die Bandbreite der mit KI entwickelten Anwendungen erheblich erweitern wird, indem Intelligenz deutlich erschwinglicher wird.

GPT-4o mini erzielt 82% bei MMLU und übertrifft derzeit GPT-41 in Chat-Präferenzen im LMSYS-Leaderboard. Es wird zu 15 Cent pro Million Eingabetokens und 60 Cent pro Million Ausgabetokens angeboten, was um ein Vielfaches günstiger ist als frühere Spitzenmodelle und mehr als 60% günstiger als GPT-3.5 Turbo.

GPT-4o mini ermöglicht eine Vielzahl von Aufgaben mit seinen niedrigen Kosten und Latenzzeiten, wie z.B. Anwendungen, die mehrere Modellanrufe verketten oder parallelisieren (z.B. mehrere APIs aufrufen), eine große Menge Kontext an das Modell übergeben (z.B. vollständige Code-Basis oder Gesprächsverlauf) oder mit Kunden durch schnelle, Echtzeit-Textantworten interagieren (z.B. Chatbots für den Kundensupport).

Heute unterstützt GPT-4o mini Text und Vision in der API, wobei Unterstützung für Text-, Bild-, Video- und Audioeingaben und -ausgaben in Zukunft geplant ist. Das Modell hat ein Kontextfenster von 128K Tokens, unterstützt bis zu 16K Ausgabetokens pro Anfrage und verfügt über Wissen bis Oktober 2023.

Dank des verbesserten Tokenizers, den GPT-4o mit anderen teilt, ist die Verarbeitung von nicht englischem Text jetzt noch kosteneffizienter. GPT-4o mini übertrifft GPT-3.5 Turbo und andere kleine Modelle bei akademischen Benchmarks sowohl im textuellen Verständnis als auch im multimodalen Denken und unterstützt dieselbe Sprachenvielfalt wie GPT-4o.

Es zeigt auch eine starke Leistung bei Funktionsaufrufen, was Entwicklern ermöglichen kann, Anwendungen zu erstellen, die Daten abrufen oder Aktionen mit externen Systemen durchführen sowie eine verbesserte Leistung bei langem Kontext im Vergleich zu GPT-3.5 Turbo.

Grundlegende Aufgaben: GPT-4o mini ist besser als andere kleine Modelle bei Aufgaben des Denkens mit Text und Vision und erzielt 82,0% bei MMLU, einem Benchmark für textuelles Verständnis und Denken im Vergleich zu 77,9% für Gemini Flash und 73,8% für Claude Haiku.

Mathematische Fähigkeiten: GPT-4o mini glänzt in mathematischen Denkprozessen und Kodieraufgaben und übertrifft frühere kleine Modelle auf dem Markt.

Multimodales Denken: GPT-4o mini zeigt auch eine starke Leistung bei MMMU, einer Bewertung des multimodalen Denkens.

GPT-4o mini ist jetzt als Text- und Visionmodell in der Assistants-API, Chat Completions-API und Batch-API verfügbar. Entwickler zahlen 15 Cent pro 1M Eingabetokens und 60 Cent pro 1M Ausgabetokens (ungefähr äquivalent zu 2500 Seiten in einem Standardbuch).

Wir planen die Einführung des Feintunings für GPT-4o mini in den kommenden Tagen. In ChatGPT können Free-, Plus-, Team-Benutzer ab heute auf GPT-4o mini zugreifen. Enterprise-Benutzer haben ebenfalls ab nächster Woche Zugang gemäß unserer Mission, die Vorteile der KI allen zugänglich zu machen.

In den letzten Jahren haben wir bemerkenswerte Fortschritte bei KI-Fähigkeiten erlebt gepaart mit erheblichen Kostensenkungen. Wir sind bestrebt, diese Kostenentwicklung fortzusetzen während wir die Modellfähigkeiten verbessern.

Wir sehen eine Zukunft voraus, in der Modelle nahtlos in jede App integriert werden können. GPT-4o mini ebnet den Weg für Entwickler um leistungsstarke KI-Anwendungen effizienter und erschwinglicher zu erstellen.

Teile den Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert