Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

Amazon reinventa a roda com chips inovadores para treinamento e execução de modelos de IA

Amazon reinventa a roda com chips inovadores para treinamento e execução de modelos de IA

Atendendo à crescente demanda por recursos de computação especializados, a Amazon está ampliando a fronteira no treinamento de modelos de IA e no desenvolvimento de inferências. Apresentando chips inovadores para melhorar a eficiência computacional e a viabilidade de criação de modelos, a Amazon está preparada para redefinir esta arena tradicionalmente dominada por GPUs.

A gigante da tecnologia revelou recentemente seu mais recente chip personalizado, o AWS Trainium2, em sua conferência anual re:Invent. Este chip de segunda geração promete oferecer desempenho quatro vezes superior ao seu antecessor e o dobro da eficiência energética, de acordo com relatórios da Amazon. O Trainium2 estará disponível em instâncias EC Trn2 em clusters de 16 chips na nuvem AWS e pode escalar até 100.000 chips no produto EC2 UltraCluster da AWS, simbolizando uma tremenda escalabilidade.

No domínio da capacidade computacional, 100.000 chips Trainium podem fornecer 65 exaflops de computação. Cada chip Trainium2 promete potencialmente cerca de 200 teraflops de desempenho, superando os chips de treinamento de IA do Google por volta de 2017 por uma margem significativa. Levando em consideração a capacidade computacional e as variáveis ​​de desempenho, esse recurso impressionante foi criado para fornecer velocidade e potência computacional incomparáveis ​​para implantação de modelos de IA.

A Amazon postula que tal cluster de chips Trainium pode efetivamente reduzir o tempo de treinamento de um modelo de linguagem grande de IA com 300 bilhões de parâmetros de meses para semanas. Os parâmetros subjacentes de um modelo de IA, que são aprendidos a partir dos dados de treinamento, representam essencialmente a proficiência do modelo na resolução de problemas, como geração de texto ou código.

O notável vice-presidente de computação e rede da AWS, David Brown, delineou a importância e o impacto do novo desenvolvimento durante a inauguração, enfatizando o papel crucial de tais avanços no cumprimento da carga de trabalho do cliente e no crescente interesse na IA generativa. Ele elogiou ainda o Trainium2 por sua capacidade de aumentar a velocidade do treinamento de modelos de ML, reduzir custos gerais e aumentar a eficiência energética, mas não revelou quando as instâncias do Trainium2 estarão disponíveis para clientes da AWS.

Simultaneamente, a Amazon lançou seu chip de inferência de IA de quarta geração, o Graviton4 baseado em Arm. Intencionalmente distinto do outro chip de inferência da Amazon, o Inferentia, o Graviton4 marca uma atualização impressionante de seu antecessor, oferecendo desempenho de computação 30% melhor, 50% mais núcleos e 75% mais largura de banda de memória do que Graviton3.

Aumentando a segurança dos dados, todas as interfaces de hardware físico do Graviton4 apresentam criptografia, um aprimoramento projetado para reforçar o nível de proteção de cargas de trabalho e dados de treinamento de IA para clientes com necessidades rigorosas de criptografia.

David Brown destacou ainda Graviton4 como superior a todas as ofertas anteriores da Amazon, marcando o chip mais poderoso e com maior eficiência energética, feito sob medida para diversas cargas de trabalho. Ele defendeu a prática da Amazon de focar o design de chips nas cargas de trabalho reais dos clientes para fornecer a infraestrutura de nuvem mais avançada por meio de suas ofertas.

O novo Graviton4 será apresentado em instâncias R8g do Amazon EC2, atualmente disponíveis em versão prévia com lançamento geral agendado para os próximos meses.

Plataformas No-code como AppMaster , estão integrando cada vez mais funcionalidades de IA para agilizar vários processos. O desenvolvimento de chips de formação de IA melhorados, como os chips Trainium2 e Graviton4 da Amazon, sinaliza potencialmente uma melhoria na capacidade de tais plataformas fornecerem soluções baseadas em IA de forma mais eficaz e eficiente. Isto pode ser particularmente relevante para plataformas que oferecem ferramentas de design sem código , aumentando a sua capacidade de aproveitar a IA para automação e otimização de design.

Posts relacionados

AppMaster na BubbleCon 2024: Explorando tendências sem código
AppMaster na BubbleCon 2024: Explorando tendências sem código
A AppMaster participou da BubbleCon 2024 em Nova York, obtendo insights, expandindo redes e explorando oportunidades para impulsionar a inovação no espaço de desenvolvimento sem código.
Resumo do FFDC 2024: Principais insights da conferência de desenvolvedores do FlutterFlow em Nova York
Resumo do FFDC 2024: Principais insights da conferência de desenvolvedores do FlutterFlow em Nova York
O FFDC 2024 iluminou a cidade de Nova York, trazendo aos desenvolvedores insights de ponta sobre desenvolvimento de aplicativos com o FlutterFlow. Com sessões lideradas por especialistas, atualizações exclusivas e networking incomparável, foi um evento imperdível!
Demissões na área de tecnologia em 2024: a onda contínua que afeta a inovação
Demissões na área de tecnologia em 2024: a onda contínua que afeta a inovação
Com 60.000 empregos cortados em 254 empresas, incluindo gigantes como Tesla e Amazon, 2024 verá uma onda contínua de demissões no setor de tecnologia remodelando o cenário da inovação.
Comece gratuitamente
Inspirado para tentar isso sozinho?

A melhor maneira de entender o poder do AppMaster é ver por si mesmo. Faça seu próprio aplicativo em minutos com assinatura gratuita

Dê vida às suas ideias