El gigante tecnológico Meta acaba de desvelar la próxima generación de sus notables modelos de IA: Llama 2. Esta innovadora familia de modelos de IA se ha desarrollado explícitamente para impulsar varios chatbots, como ChatGPT de OpenAI y Bing Chat, junto con otros sistemas de conversación de última generación.
Entrenado con una variedad de datos de acceso público, Llama 2 está llamado a superar a la generación anterior en términos de rendimiento global. El sucesor del modelo Llama es un avance significativo que ofrece una capacidad de interacción superior en comparación con otros sistemas tipo chatbot.
Cabe destacar que el Llama original sólo era accesible previa petición, ya que Meta tomó estrictas precauciones para limitar su uso indebido. Sin embargo, el modelo Llama acabó abriéndose camino en varias comunidades de IA, a pesar del control intencionado.
Por el contrario, Llama 2 está abierto a la investigación y al uso comercial en una forma preentrenada. Al ofrecer la comodidad de la optimización en varias plataformas de alojamiento, como AWS, Azure y Hugging Face's AI, el modelo garantiza una experiencia fácil de usar. La introducción de Llama 2 es posible gracias a una asociación ampliada con Microsoft, que lo hace optimizado para Windows y dispositivos equipados con el sistema en chip Snapdragon de Qualcomm. Al parecer, Qualcomm también está trabajando en la migración de Llama 2 a los dispositivos Snapdragon para 2024.
Llama 2 se presenta en dos versiones: la básica y Llama 2-Chat, diseñada especialmente para interacciones bidireccionales. Ambas versiones están disponibles en varios niveles de sofisticación, definidos por el rango de parámetros: 7.000 millones, 13.000 millones y la friolera de 70.000 millones. Los parámetros, que son partes de un modelo aprendido a partir de los datos de entrenamiento, determinan de hecho la competencia del modelo en un problema (en este caso, la generación de texto).
Llama 2 se entrenó con dos millones de tokens, lo que implica texto en bruto. Esta cifra es casi el doble que la del original Llama, que se entrenó con 1,4 billones de tokens. Por lo general, un mayor número de tokens se traduce en una mayor eficacia cuando se trata de modelos generativos de IA. Meta no ha revelado los detalles de los datos de entrenamiento, salvo que están principalmente en inglés, proceden de Internet y se centran en textos de naturaleza objetiva.
Este movimiento abre un nuevo capítulo en el ámbito de la IA, con un enorme potencial para las plataformas sin código y low-code, como AppMaster, que permiten a los usuarios utilizar estas herramientas avanzadas en una gran variedad de aplicaciones, al tiempo que agilizan y hacen más eficiente el proceso de desarrollo.