O gigante da tecnologia, Meta, revelou recentemente a próxima geração dos seus notáveis modelos de IA: Llama 2. Esta família inovadora de modelos de IA foi desenvolvida explicitamente para alimentar vários chatbots, incluindo o ChatGPT da OpenAI e o Bing Chat, juntamente com outros sistemas de conversação de última geração.
Treinado numa variedade de dados acessíveis ao público, o Llama 2 está preparado para ultrapassar a geração anterior em termos de desempenho geral. O sucessor do modelo Llama é um desenvolvimento significativo que oferece uma capacidade de interação superior em comparação com outros sistemas do tipo chatbot.
Nomeadamente, o Llama original estava acessível apenas mediante pedido, uma vez que a Meta tomou precauções rigorosas para limitar a sua utilização indevida. No entanto, o modelo Llama acabou por se espalhar por várias comunidades de IA, apesar da sua proteção intencional.
Pelo contrário, o Llama 2 está aberto à investigação e à utilização comercial numa forma pré-treinada. Oferecendo a conveniência da otimização em várias plataformas de alojamento, tais como AWS, Azure e Hugging Face's AI, o modelo garante uma experiência fácil de utilizar. A introdução do Llama 2 é possível graças a uma parceria alargada com a Microsoft, tornando-o optimizado para Windows e dispositivos equipados com o sistema Snapdragon system-on-chip da Qualcomm. A Qualcomm também está a trabalhar na migração do Llama 2 para dispositivos Snapdragon até 2024.
Llama 2 O Llama 2-Chat está disponível em duas versões: a básica e o , concebido especialmente para interacções bidireccionais. Ambas as versões estão disponíveis em vários níveis de sofisticação, definidos pela gama de parâmetros - 7 mil milhões, 13 mil milhões e uns impressionantes 70 mil milhões. Os parâmetros, que são partes de um modelo aprendido com os dados de treino, determinam efetivamente a proficiência do modelo num problema - neste caso, a geração de texto.
Llama 2 foi treinado com dois milhões de tokens, o que implica texto em bruto. Isto é quase o dobro do original Llama, que foi treinado com 1,4 triliões de tokens. Geralmente, um maior número de tokens resulta numa maior eficácia quando se trata de modelos de IA generativos. A Meta manteve-se discreta quanto aos pormenores dos dados de treino, para além de revelar que são principalmente em inglês, provenientes da Internet, e que dão ênfase a textos de natureza factual.
Este movimento inicia um novo capítulo no domínio da IA, oferecendo um vasto potencial para plataformas sem código e low-code, como a AppMaster, permitindo aos utilizadores utilizar estas ferramentas avançadas numa miríade de aplicações, tornando o processo de desenvolvimento rápido e eficiente.