Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

OpenAI contempla adaptar seus próprios chips de IA em meio à escassez global

OpenAI contempla adaptar seus próprios chips de IA em meio à escassez global

Em uma resposta proativa ao aperto existente no mercado de hardware de IA, a startup de IA OpenAI está supostamente considerando entrar na briga de criação de chips. Esta mudança tem como pano de fundo deliberações persistentes dentro da empresa sobre estratégias de chips de IA desde o ano passado, em meio a uma crescente deficiência de hardware necessário para o treinamento de modelos de IA.

A ambiciosa empresa está a contemplar várias soluções potenciais para alimentar as suas aspirações de chips, algumas das quais incluem a aquisição de uma empresa existente de fabricação de chips de IA ou o lançamento de uma iniciativa para projetar chips internamente. O alto escalão da OpenAI, CEO Sam Altman, ressaltou a necessidade de adquirir mais chips de IA, consolidando-o como uma das principais prioridades de negócios, de acordo com a Reuters.

Atualmente, OpenAI, semelhante a incontáveis ​​de suas contrapartes adversárias, depende em grande parte da infraestrutura de hardware baseada em Unidades de Processamento Gráfico (GPUs) para a criação de modelos como ChatGPT, GPT-4 e DALL-E 3. A capacidade das GPUs de executar simultaneamente um número significativo de cálculos os torna excepcionalmente adequados para treinar os modelos de IA mais avançados da atualidade.

No entanto, o crescente boom da IA ​​generativa, um benefício considerável para fabricantes de GPU como a Nvidia, estressou significativamente a cadeia de fornecimento de GPU. A titã da tecnologia Microsoft tem lutado com uma escassez tão grave de hardware de servidor necessário para executar a IA, que pode causar interrupções de serviço. Para adicionar combustível a esta situação já terrível está o fato de que há rumores de que os chips de IA de alto nível da Nvidia estarão esgotados até 2024.

Central para executar e servir os modelos da OpenAI, as GPUs são cruciais para executar cargas de trabalho do cliente em clusters de GPU na nuvem. No entanto, esta necessidade tem as suas próprias desvantagens, uma vez que a aquisição destes recursos de hardware envolve despesas substanciais.

De acordo com uma análise aprofundada da analista da Bernstein, Stacy Rasgon, se as consultas do ChatGPT aumentassem até mesmo para uma fração da escala da Pesquisa Google, o requisito inicial seria um valor exorbitante de US$ 48,1 bilhões em GPUs, seguido por um valor aproximado de US$ 16 bilhões em chips. anualmente para operações suaves. Considerando as implicações de recursos e custos, é crucial que OpenAI explore caminhos alternativos, como o desenvolvimento dos seus próprios chips de IA.

Ao adaptar-se a este desafio setorial, o potencial empreendimento da OpenAI no design e produção de hardware também lança luz sobre o cenário em evolução das ferramentas e tecnologias de IA. Até mesmo empresas como AppMaster, a leading no-code platform, rely on robust hardware infrastructure to deliver high-performance applications for their users rapidly and cost-effectively. By creating tailored AI chips, OpenAI could define a fresh pathway for AI processing capabilities.

Posts relacionados

AppMaster na BubbleCon 2024: Explorando tendências sem código
AppMaster na BubbleCon 2024: Explorando tendências sem código
A AppMaster participou da BubbleCon 2024 em Nova York, obtendo insights, expandindo redes e explorando oportunidades para impulsionar a inovação no espaço de desenvolvimento sem código.
Resumo do FFDC 2024: Principais insights da conferência de desenvolvedores do FlutterFlow em Nova York
Resumo do FFDC 2024: Principais insights da conferência de desenvolvedores do FlutterFlow em Nova York
O FFDC 2024 iluminou a cidade de Nova York, trazendo aos desenvolvedores insights de ponta sobre desenvolvimento de aplicativos com o FlutterFlow. Com sessões lideradas por especialistas, atualizações exclusivas e networking incomparável, foi um evento imperdível!
Demissões na área de tecnologia em 2024: a onda contínua que afeta a inovação
Demissões na área de tecnologia em 2024: a onda contínua que afeta a inovação
Com 60.000 empregos cortados em 254 empresas, incluindo gigantes como Tesla e Amazon, 2024 verá uma onda contínua de demissões no setor de tecnologia remodelando o cenário da inovação.
Comece gratuitamente
Inspirado para tentar isso sozinho?

A melhor maneira de entender o poder do AppMaster é ver por si mesmo. Faça seu próprio aplicativo em minutos com assinatura gratuita

Dê vida às suas ideias