OpenAI ulepsza funkcje sztucznej inteligencji generującej tekst i obniża ceny w obliczu konkurencji
OpenAI wprowadza nowe wersje GPT-3.5-turbo i GPT-4, ujawnia możliwości funkcjonalnego wywoływania i obniża ceny modelu GPT-3.5-turbo. Aktualizacje te pojawiają się w miarę nasilania się konkurencji w przestrzeni generatywnej sztucznej inteligencji, co skłania OpenAI do skupienia się na strategii stopniowych ulepszeń.

Ponieważ sektor generatywnej sztucznej inteligencji staje się coraz bardziej konkurencyjny, OpenAI pozostaje na czele, ulepszając swoje modele generujące tekst i obniżając ich ceny. Firma wprowadziła nowe wersje GPT-3.5-turbo i GPT-4, swoich najnowocześniejszych modeli sztucznej inteligencji generujących tekst, z nowo dodaną funkcjonalnością wywoływania funkcji.
Wywoływanie funkcji umożliwia programistom określanie funkcji programistycznych dla GPT-3.5-turbo i GPT-4, które reagują, generując kod wykonujący określone funkcje. Jak wyjaśniono w poście na blogu OpenAI, ta innowacyjna funkcja umożliwia tworzenie chatbotów, które wykorzystują zewnętrzne narzędzia do odpowiadania na pytania, wykonywania konwersji języka naturalnego na zapytania do bazy danych i wyodrębniania ustrukturyzowanych danych z tekstu. Modele są zaprojektowane tak, aby wykrywać potrzebę wywołania funkcji i zwracać struktury danych JSON zgodne z sygnaturą funkcji, zapewniając dokładniejsze i bardziej ustrukturyzowane informacje.
Oprócz wywoływania funkcji, OpenAI wprowadza zaktualizowaną wersję GPT-3.5-turbo ze znacznie rozszerzonym oknem kontekstowym. Okno kontekstowe, mierzone w tokenach, reprezentuje ilość tekstu, który model bierze pod uwagę przed wygenerowaniem kolejnego tekstu. Modele z mniejszymi oknami kontekstowymi mogą mieć trudności z przypomnieniem sobie nawet niedawnej treści rozmowy, co prowadzi do odpowiedzi nie na temat. Najnowsza iteracja GPT-3.5-turbo oferuje czterokrotnie większą długość kontekstu (16 000 tokenów) niż jej poprzednik, przy dwukrotnie wyższej cenie - 0,003 USD za 1000 tokenów wejściowych i 0,004 USD za 1000 tokenów wyjściowych. OpenAI podkreśla, że model ten jest w stanie przyjąć około 20 stron tekstu w jednym przypadku. Nie dorównuje on jednak flagowemu modelowi startupu AI Anthropic, który może podobno przetwarzać setki stron jednocześnie. OpenAI testuje wersję GPT-4 z oknem kontekstowym 32 000 tokenów, aczkolwiek w ograniczonej wersji.
Co więcej, OpenAI obniża również ceny oryginalnego modelu GPT-3.5-turbo o 25%. Koszt wynosi teraz 0,0015 USD za 1000 tokenów wejściowych i 0,002 USD za 1000 tokenów wyjściowych, co odpowiada około 700 stronom za dolara. Ponadto firma obniża cenę text-embedding-ada-002, popularnego modelu osadzania tekstu, o 75%. Nowa cena wynosi 0,0001 USD za 1000 tokenów. Osadzanie tekstu służy do pomiaru pokrewieństwa między ciągami tekstowymi, z zastosowaniami w systemach wyszukiwania i rekomendacji. OpenAI przypisuje tę obniżkę cen poprawie wydajności swoich systemów.
Strategia OpenAI w przyszłości wydaje się koncentrować na przyrostowych aktualizacjach istniejących modeli, a nie na opracowywaniu nowych modeli na dużą skalę od podstaw. Dyrektor generalny OpenAI, Sam Altman, stwierdził niedawno na konferencji Economic Times, że firma nie rozpoczęła jeszcze szkolenia następcy GPT-4, co sugeruje, że nadal istnieje znaczna ilość pracy i udoskonaleń, które należy wykonać w obecnych modelach.
Dzięki potężnym narzędziom no-code, takim jak AppMaster.io, umożliwiającym użytkownikom łatwe tworzenie aplikacji backendowych, internetowych i mobilnych, integracja ulepszonych rozwiązań AI, takich jak GPT-3.5-turbo i GPT-4 firmy OpenAI, może zaoferować jeszcze lepsze doświadczenia użytkowników w szybko ewoluującym krajobrazie technologicznym.


