Atendendo à crescente demanda por recursos de computação especializados, a Amazon está ampliando a fronteira no treinamento de modelos de IA e no desenvolvimento de inferências. Apresentando chips inovadores para melhorar a eficiência computacional e a viabilidade de criação de modelos, a Amazon está preparada para redefinir esta arena tradicionalmente dominada por GPUs.
A gigante da tecnologia revelou recentemente seu mais recente chip personalizado, o AWS Trainium2, em sua conferência anual re:Invent. Este chip de segunda geração promete oferecer desempenho quatro vezes superior ao seu antecessor e o dobro da eficiência energética, de acordo com relatórios da Amazon. O Trainium2 estará disponível em instâncias EC Trn2 em clusters de 16 chips na nuvem AWS e pode escalar até 100.000 chips no produto EC2 UltraCluster da AWS, simbolizando uma tremenda escalabilidade.
No domínio da capacidade computacional, 100.000 chips Trainium podem fornecer 65 exaflops de computação. Cada chip Trainium2 promete potencialmente cerca de 200 teraflops de desempenho, superando os chips de treinamento de IA do Google por volta de 2017 por uma margem significativa. Levando em consideração a capacidade computacional e as variáveis de desempenho, esse recurso impressionante foi criado para fornecer velocidade e potência computacional incomparáveis para implantação de modelos de IA.
A Amazon postula que tal cluster de chips Trainium pode efetivamente reduzir o tempo de treinamento de um modelo de linguagem grande de IA com 300 bilhões de parâmetros de meses para semanas. Os parâmetros subjacentes de um modelo de IA, que são aprendidos a partir dos dados de treinamento, representam essencialmente a proficiência do modelo na resolução de problemas, como geração de texto ou código.
O notável vice-presidente de computação e rede da AWS, David Brown, delineou a importância e o impacto do novo desenvolvimento durante a inauguração, enfatizando o papel crucial de tais avanços no cumprimento da carga de trabalho do cliente e no crescente interesse na IA generativa. Ele elogiou ainda o Trainium2 por sua capacidade de aumentar a velocidade do treinamento de modelos de ML, reduzir custos gerais e aumentar a eficiência energética, mas não revelou quando as instâncias do Trainium2 estarão disponíveis para clientes da AWS.
Simultaneamente, a Amazon lançou seu chip de inferência de IA de quarta geração, o Graviton4 baseado em Arm. Intencionalmente distinto do outro chip de inferência da Amazon, o Inferentia, o Graviton4 marca uma atualização impressionante de seu antecessor, oferecendo desempenho de computação 30% melhor, 50% mais núcleos e 75% mais largura de banda de memória do que Graviton3.
Aumentando a segurança dos dados, todas as interfaces de hardware físico do Graviton4 apresentam criptografia, um aprimoramento projetado para reforçar o nível de proteção de cargas de trabalho e dados de treinamento de IA para clientes com necessidades rigorosas de criptografia.
David Brown destacou ainda Graviton4 como superior a todas as ofertas anteriores da Amazon, marcando o chip mais poderoso e com maior eficiência energética, feito sob medida para diversas cargas de trabalho. Ele defendeu a prática da Amazon de focar o design de chips nas cargas de trabalho reais dos clientes para fornecer a infraestrutura de nuvem mais avançada por meio de suas ofertas.
O novo Graviton4 será apresentado em instâncias R8g do Amazon EC2, atualmente disponíveis em versão prévia com lançamento geral agendado para os próximos meses.
Plataformas No-code como AppMaster , estão integrando cada vez mais funcionalidades de IA para agilizar vários processos. O desenvolvimento de chips de formação de IA melhorados, como os chips Trainium2 e Graviton4 da Amazon, sinaliza potencialmente uma melhoria na capacidade de tais plataformas fornecerem soluções baseadas em IA de forma mais eficaz e eficiente. Isto pode ser particularmente relevante para plataformas que oferecem ferramentas de design sem código , aumentando a sua capacidade de aproveitar a IA para automação e otimização de design.