OpenAI kündigt bedeutende Fortschritte bei KI-Modellen und -Diensten an
OpenAI hat kürzlich eine Pressemitteilung veröffentlicht, die eine Reihe von Updates für seine KI-Modelle und -Dienste enthält. Zu den wichtigsten Änderungen gehören:
- Ein Upgrade auf das GPT-4 Turbo-Vorschaumodell, das die Leistung und die Sprachunterstützung verbessert, insbesondere für nicht-englische Kontexte.
- Die Einführung von zwei neuen eingebetteten Modellen, text-embedding-3-small und text-embedding-3-large, die Verbesserungen bei Effizienz und Leistung bieten.
- Native Unterstützung für die Verkürzung, die Entwicklern Flexibilität beim Ausgleich von Genauigkeit und Ressourcenanforderungen bietet.
- Eine Optimierung von GPT-3.5 Turbo, die kostengünstigere Lösungen mit reduzierten Input- und Output-Preisen bietet.
Verbesserungen des GPT-4 Turbo-Vorschaumodells
Das Upgrade auf das GPT-4 Turbo-Vorschaumodell konzentriert sich auf die Verbesserung der Leistung und der Sprachunterstützung. In Bezug auf die Leistung wurde die durchschnittliche Punktzahl des Modells beim Multilingual Retrieval Common Benchmark (MIRACL) von 31,4 Prozent auf 44,0 Prozent verbessert. Die durchschnittliche Punktzahl beim Common English Task Benchmark (MTEB) stieg von 61,0 Prozent auf 62,3 Prozent.
In Bezug auf die Sprachunterstützung wurde die Unterstützung für nicht-englische Kontexte verbessert. Das Modell kann nun Texte in über 200 Sprachen verstehen und generieren.
Neue eingebettete Modelle
OpenAI hat außerdem zwei neue eingebettete Modelle veröffentlicht: text-embedding-3-small und text-embedding-3-large.
Das text-embedding-3-small-Modell ist ein kleineres und effizienteres Modell, das sich für Anwendungen mit begrenzten Ressourcen eignet. Das text-embedding-3-large-Modell ist ein größeres und leistungsfähigeres Modell, das sich für Anwendungen mit höheren Anforderungen eignet.
Beide Modelle bieten Verbesserungen bei Effizienz und Leistung im Vergleich zu früheren Modellen.
Native Unterstützung für die Verkürzung
OpenAI hat außerdem native Unterstützung für die Verkürzung hinzugefügt. Die Verkürzung ist ein Verfahren, bei dem ein Text so bearbeitet wird, dass er kürzer wird, ohne dass die Bedeutung verloren geht.
Die native Unterstützung für die Verkürzung bietet Entwicklern Flexibilität beim Ausgleich von Genauigkeit und Ressourcenanforderungen. Entwickler können beispielsweise einen kürzeren Text generieren, um die Ressourcenanforderungen zu reduzieren, ohne die Genauigkeit des Ergebnisses zu beeinträchtigen.
Optimierung von GPT-3.5 Turbo
OpenAI hat außerdem GPT-3.5 Turbo optimiert, um kostengünstigere Lösungen mit reduzierten Input- und Output-Preisen anzubieten.
Die Optimierung von GPT-3.5 Turbo bietet Entwicklern eine kostengünstigere Möglichkeit, die Funktionen von GPT-3.5 zu nutzen.
Quelle(n):
OpenAI
Links mit einem * sind Partner-Links. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalte ich eine kleine Provision. Für euch ändert sich am Preis nichts. Danke für eure Unterstützung!
Um über alle News auf dem Laufenden zu bleiben, folge mir auf Google News oder Facebook, abonniere meinen Telegram-, WhatsApp-, X/Twitter- oder Mastodon-Kanal oder RSS-Feed!