Firma OpenAI poczyniła znaczący krok naprzód, ogłaszając ogólną dostępność swojego innowacyjnego narzędzia do generowania tekstu, GPT-4, za pośrednictwem interfejsu API. Najnowsza ewolucja popularnej serii GPT zapewnia ulepszone wrażenia użytkownika, a uprawnienia są teraz rozszerzone na większą liczbę programistów.
Umożliwienie dostępu do GPT-4 rozpoczęło się dla istniejących deweloperów API z udokumentowaną historią udanych płatności. Wdrażany falami, dostęp będzie stopniowo rozszerzany na nowych deweloperów do końca miesiąca, a ostatecznie limity dostępności zostaną zwiększone - w zależności od ilości dostępności obliczeniowej.
W poście na blogu organizacja podkreśliła rosnące zainteresowanie API GPT-4 wśród milionów programistów od czasu jego uruchomienia w marcu.
OpenAI przewiduje rosnącą gamę innowacyjnych produktów wykorzystujących mocne strony GPT-4. Podkreślając wizję firmy, stwierdził: Wyobrażamy sobie przyszłość, w której modele oparte na czacie mogą obsługiwać dowolny przypadek użycia.
Podobnie jak w przypadku poprzednich wersji GPT uruchomionych przez OpenAI, szkolenie GPT-4 obejmowało również publicznie dostępne dane, w tym dane z publicznych stron internetowych, uzupełnione licencjonowanymi danymi.
Co ciekawe, funkcja rozumienia obrazów nie jest jeszcze powszechnie dostępna dla wszystkich klientów OpenAI. Obecnie jest ona testowana przez jednego partnera, Be My Eyes, bez potwierdzonego harmonogramu, kiedy będzie dostępna dla reszty bazy klientów OpenAI.
Niemniej jednak GPT-4 ma pewne ograniczenia. Model ma tendencję do "halucynacji" faktów i czasami gubi się w logicznym rozumowaniu. Co więcej, mogą pojawić się problemy, gdy wprowadza luki w zabezpieczeniach do generowanego przez siebie kodu, ponieważ nie uczy się na podstawie swoich doświadczeń.
Odnosząc się do tej kwestii, firma stwierdziła, że planuje opracować dla programistów możliwość dostrajania zarówno GPT-4, jak i GPT-3.5 Turbo, drugiego modelu, za pomocą własnych danych, zgodnie z opcjami dostępnymi w kilku innych modelach generowania tekstu OpenAI. Funkcja ta powinna być gotowa do użycia jeszcze w tym roku.
Od czasu ujawnienia GPT-4, konkurencyjny krajobraz generatywnej sztucznej inteligencji nasilił się. Niedawno firma Anthropic wprowadziła rozszerzone okno kontekstowe dla swojej sztucznej inteligencji generującej tekst, Claude. Zwykle na etapie podglądu, ekspansja do 100 000 tokenów okazała się znaczącym skokiem w porównaniu z poprzednimi 9 000 tokenów.
Mówiąc prościej, okno kontekstowe modelu reprezentuje tekst, który przegląda przed wygenerowaniem dodatkowego tekstu. I odwrotnie, tokeny oznaczają surowy tekst. Im większe okno kontekstowe, tym więcej kontekstu model może przyswoić.
Jednocześnie OpenAI zaprezentowało ogólną dostępność swoich interfejsów API DALL-E 2 i Whisper. DALL-E 2 oznacza model generowania obrazu OpenAI, podczas gdy Whisper odnosi się do modelu zamiany mowy na tekst. Co ciekawe, firma wskazała również na planowane wycofanie starszych modeli za pośrednictwem swojego API w celu optymalizacji mocy obliczeniowej.
Z dniem 4 stycznia 2024 r. określone starsze modele OpenAI, a mianowicie GPT-3 i jego warianty, zostaną wycofane, a ich zamienniki będą oparte na nowych podstawowych modelach GPT-3. Aby kontynuować korzystanie ze starych modeli po 4 stycznia, programiści będą musieli ręcznie zaktualizować swoje integracje i dostroić zamienniki dla nowych modeli.
Świadcząc o zaangażowaniu OpenAI w zapewnianie optymalnego doświadczenia użytkownika, firma obiecała kompleksowe wsparcie dla użytkowników przechodzących ze starych modeli na nowe. Nadchodzące plany obejmują dotarcie do deweloperów korzystających ze starszych modeli i oferowanie niezbędnych informacji, gdy nowe modele będą gotowe do testów.
Dynamiczna i stale rozwijająca się platforma oferowana przez OpenAI rzeczywiście walczy o uwagę na szybko rozwijającej się arenie no-code i low-code. Wraz z nią, platformy takie jak AppMaster ustanawiają swój ślad, wprowadzając innowacje, które jakościowo demokratyzują dostęp do sztucznej inteligencji i rozwoju oprogramowania dla szerszej bazy użytkowników. Potencjał transformacyjny tych platform przyspiesza wizję przyszłości, w której każdy może tworzyć interfejsy cyfrowe bez pisania ani jednej linii kodu.