OpenAI verbessert die KI-Funktionen zur Textgenerierung und senkt die Preise im Wettbewerb
OpenAI stellt neue Versionen von GPT-3.5-turbo und GPT-4 vor, enthüllt die funktionale Anrufmöglichkeit und senkt den Preis für das GPT-3.5-turbo-Modell. Diese Aktualisierungen kommen in einer Zeit, in der sich der Wettbewerb im Bereich der generativen KI verschärft, was OpenAI dazu veranlasst, sich auf eine Strategie der schrittweisen Verbesserungen zu konzentrieren.

Da die generative KI-Branche immer wettbewerbsintensiver wird, bleibt OpenAI durch die Verbesserung seiner textgenerierenden Modelle und die Senkung ihrer Preise an der Spitze. Das Unternehmen hat neue Versionen von GPT-3.5-turbo und GPT-4, seinen hochmodernen textgenerierenden KI-Modellen, mit der neu hinzugefügten Funktionalität des Funktionsaufrufs vorgestellt.
Funktionsaufrufe ermöglichen es Entwicklern, Programmierfunktionen an GPT-3.5-turbo und GPT-4 zu übermitteln, die daraufhin Code generieren, der die angegebenen Funktionen ausführt. Wie im Blogpost von OpenAI erläutert, ermöglicht diese innovative Funktion die Erstellung von Chatbots, die externe Tools zur Beantwortung von Fragen, zur Umwandlung von natürlicher Sprache in Datenbankabfragen und zur Extraktion strukturierter Daten aus Text verwenden. Die Modelle sind so konzipiert, dass sie die Notwendigkeit eines Funktionsaufrufs erkennen und JSON-Datenstrukturen zurückgeben, die der Funktionssignatur entsprechen, wodurch genauere und strukturierte Informationen gewährleistet werden.
Zusätzlich zum Funktionsaufruf führt OpenAI eine aktualisierte Version von GPT-3.5-turbo ein, die ein stark erweitertes Kontextfenster bietet. Das Kontextfenster, gemessen in Token, stellt die Textmenge dar, die das Modell berücksichtigt, bevor es weiteren Text generiert. Modelle mit kleineren Kontextfenstern haben unter Umständen Schwierigkeiten, selbst aktuelle Gesprächsinhalte abzurufen, was zu themenfremden Antworten führt. Die neueste GPT-3.5-Turbo-Iteration bietet eine viermal größere Kontextlänge (16.000 Token) als ihr Vorgänger, und das zum doppelten Preis - 0,003 $ pro 1.000 Input-Token und 0,004 $ pro 1.000 Output-Token. OpenAI hebt hervor, dass dieses Modell in der Lage ist, etwa 20 Seiten Text in einem Durchgang zu erfassen. Damit bleibt es jedoch hinter dem Vorzeigemodell des KI-Startups Anthropic zurück, das Berichten zufolge Hunderte von Seiten auf einmal verarbeiten kann. OpenAI testet eine GPT-4-Version mit einem 32.000-Token-Kontextfenster, wenn auch nur in einer begrenzten Version.
Eine weitere gute Nachricht für Entwickler ist, dass OpenAI die Preise für das ursprüngliche GPT-3,5-Turbo-Modell um 25 % senkt. Die Kosten betragen nun 0,0015 $ pro 1.000 Eingabe-Token und 0,002 $ pro 1.000 Ausgabe-Token, was ungefähr 700 Seiten pro Dollar entspricht. Darüber hinaus senkt das Unternehmen den Preis für text-embedding-ada-002, ein beliebtes Modell für die Texteinbettung, um 75 %. Der neue Preis liegt bei $0,0001 pro 1.000 Token. Texteinbettungen werden verwendet, um die Verwandtschaft zwischen Textstrings zu messen, mit Anwendungen in Such- und Empfehlungssystemen. OpenAI führt diese Preissenkung auf die Verbesserung der Effizienz seiner Systeme zurück.
OpenAIs Strategie für die Zukunft scheint sich auf schrittweise Aktualisierungen seiner bestehenden Modelle zu konzentrieren, anstatt neue, groß angelegte Modelle von Grund auf zu entwickeln. Der CEO von OpenAI, Sam Altman, erklärte kürzlich auf einer Konferenz der Economic Times, dass das Unternehmen noch nicht mit der Ausbildung eines Nachfolgers von GPT-4 begonnen hat, was darauf hindeutet, dass noch ein erheblicher Teil der Arbeit und der Verfeinerung an den aktuellen Modellen geleistet werden muss.
Mit leistungsstarken Tools wie AppMaster.io ( no-code), die es Nutzern ermöglichen, Backend-, Web- und mobile Anwendungen mit Leichtigkeit zu erstellen, könnte die Integration verbesserter KI-Lösungen wie GPT-3.5-turbo und GPT-4 von OpenAI noch mehr verbesserte Nutzererfahrungen in der sich schnell entwickelnden Tech-Landschaft bieten.


