Le géant de la technologie Meta a récemment dévoilé la nouvelle génération de ses célèbres modèles d'IA : Llama 2. Cette famille innovante de modèles d'IA a été explicitement développée pour alimenter plusieurs chatbots, dont ChatGPT et Bing Chat d'OpenAI, ainsi que d'autres systèmes de conversation de pointe.
Entraîné sur un assortiment de données accessibles au public, Llama 2 devrait surpasser la génération précédente en termes de performances globales. Le successeur du modèle Llama est un développement significatif qui offre une capacité d'interaction supérieure à celle d'autres systèmes de type chatbot.
Le modèle original Llama n'était accessible que sur demande, Meta ayant pris des précautions strictes pour limiter son utilisation abusive. Cependant, le modèle Llama a fini par se frayer un chemin dans diverses communautés d'intelligence artificielle, malgré le cloisonnement intentionnel.
À l'inverse, Llama 2 est ouvert à la recherche et à l'utilisation commerciale sous une forme préformée. Offrant la commodité d'une optimisation sur diverses plateformes d'hébergement, telles que AWS, Azure et Hugging Face's AI, le modèle garantit une expérience conviviale. L'introduction de Llama 2 est rendue possible grâce à un partenariat élargi avec Microsoft, ce qui permet de l'optimiser pour Windows et les appareils équipés du système sur puce Snapdragon de Qualcomm. Qualcomm travaillerait également à la migration de Llama 2 vers les appareils Snapdragon d'ici 2024.
Llama 2 est disponible en deux versions : la version de base et la version Llama 2-Chat, conçue spécialement pour les interactions bidirectionnelles. Les deux versions sont disponibles à différents niveaux de sophistication, définis par la gamme de paramètres : 7 milliards, 13 milliards et 70 milliards. Les paramètres, qui sont des éléments d'un modèle appris à partir des données d'entraînement, déterminent effectivement la compétence du modèle sur un problème - dans ce cas, la génération de texte.
Llama 2 a été entraîné sur deux millions de tokens, c'est-à-dire du texte brut. C'est presque deux fois plus que le modèle original Llama, qui a été entraîné sur 1,4 trillion de tokens. En règle générale, un plus grand nombre de tokens se traduit par une plus grande efficacité lorsqu'il s'agit de modèles d'IA génératifs. Meta est resté très discret sur les spécificités des données d'entraînement, si ce n'est qu'elles sont principalement en anglais, proviennent de l'internet et mettent l'accent sur des textes de nature factuelle.
Cette initiative ouvre un nouveau chapitre dans le domaine de l'IA, offrant un vaste potentiel pour les plateformes sans code et low-code, telles qu'AppMaster, permettant aux utilisateurs d'utiliser ces outils avancés dans une myriade d'applications tout en rendant le processus de développement rapide et efficace.