OpenAI melhora as funcionalidades de IA para geração de texto e baixa os preços no meio da concorrência
A OpenAI apresenta novas versões do GPT-3.5-turbo e do GPT-4, revela a capacidade de chamada funcional e reduz o preço do modelo GPT-3.5-turbo. Estas actualizações surgem à medida que a concorrência no espaço da IA generativa se intensifica, levando a OpenAI a concentrar-se numa estratégia de melhorias incrementais.

À medida que o sector da IA generativa se torna cada vez mais competitivo, a OpenAI mantém-se na vanguarda, melhorando os seus modelos de geração de texto e baixando os respectivos preços. A empresa introduziu novas versões do GPT-3.5-turbo e do GPT-4, os seus modelos de IA geradores de texto de ponta, com a nova funcionalidade de chamada de funções.
A chamada de funções permite aos programadores delinear funções de programação para o GPT-3.5-turbo e o GPT-4, que respondem gerando código que executa as funções especificadas. Conforme explicado na publicação do blogue da OpenAI, esta funcionalidade inovadora permite a criação de chatbots que utilizam ferramentas externas para responder a perguntas, efectuar conversões de linguagem natural para consultas a bases de dados e extrair dados estruturados de texto. Os modelos são concebidos para detectar a necessidade de uma chamada de função e devolver estruturas de dados JSON que aderem à assinatura da função, garantindo informações mais precisas e estruturadas.
Para além da chamada de função, a OpenAI lança uma versão actualizada do GPT-3.5-turbo que apresenta uma janela de contexto amplamente expandida. A janela de contexto, medida em tokens, representa a quantidade de texto que o modelo leva em consideração antes de gerar qualquer texto subsequente. Os modelos com janelas de contexto mais pequenas podem ter dificuldade em recordar até mesmo o conteúdo de conversas recentes, levando a respostas fora do tópico. A última iteração do GPT-3.5-turbo oferece um comprimento de contexto quatro vezes maior (16.000 tokens) do que o seu antecessor, ao dobro do preço - $0,003 por 1.000 tokens de entrada e $0,004 por 1.000 tokens de saída. A OpenAI destaca que este modelo tem a capacidade de ingerir cerca de 20 páginas de texto numa única instância. No entanto, fica aquém do modelo principal da startup Anthropic, que pode processar centenas de páginas de uma só vez. A OpenAI está a testar uma versão GPT-4 com uma janela de contexto de 32.000 tokens, embora numa versão limitada.
Mais uma boa notícia para os programadores, a OpenAI também está a reduzir o preço do modelo GPT-3.5-turbo original em 25%. O custo agora é de US$ 0,0015 por 1.000 tokens de entrada e US$ 0,002 por 1.000 tokens de saída, o que equivale a cerca de 700 páginas por dólar. Além disso, a empresa está a baixar o preço do text-embedding-ada-002, um modelo popular de incorporação de texto, em 75%. O novo preço é de $0,0001 por 1.000 tokens. Os text embeddings são utilizados para medir a relação entre cadeias de texto, com aplicações em sistemas de pesquisa e recomendação. A OpenAI atribui esta redução de preços a melhorias na eficiência dos seus sistemas.
A estratégia da OpenAI para o futuro parece centrar-se em actualizações incrementais dos seus modelos existentes, em vez de desenvolver novos modelos de grande escala a partir do zero. O director executivo da OpenAI, Sam Altman, declarou recentemente numa conferência do Economic Times que a empresa ainda não começou a treinar um sucessor do GPT-4, o que implica que ainda há muito trabalho e aperfeiçoamento a fazer nos seus modelos actuais.
Com poderosas ferramentas no-code, como a AppMaster.io, que permitem aos utilizadores criar facilmente aplicações backend, web e móveis, a integração de soluções de IA melhoradas, como a GPT-3.5-turbo e a GPT-4 da OpenAI, poderá oferecer experiências de utilizador ainda mais avançadas no panorama tecnológico em rápida evolução.


