De techgigant Meta heeft onlangs de volgende generatie van hun opmerkelijke AI-modellen onthuld: Llama 2. Deze innovatieve familie van AI-modellen is expliciet ontwikkeld om verschillende chatbots aan te drijven, waaronder OpenAI's ChatGPT en Bing Chat, samen met andere state-of-the-art conversatiesystemen.
Getraind op een assortiment van openbaar toegankelijke gegevens, is Llama 2 ingesteld om de vorige generatie te overtreffen in termen van algemene prestaties. De opvolger van het model Llama is een belangrijke ontwikkeling die een superieure interactiecapaciteit biedt in vergelijking met andere chatbot-achtige systemen.
De oorspronkelijke Llama was alleen toegankelijk op verzoek, omdat Meta strenge voorzorgsmaatregelen nam om misbruik te beperken. Het model Llama vond uiteindelijk echter zijn weg naar verschillende AI-community's, ondanks de opzettelijke afscherming.
Daarentegen is Llama 2 open voor onderzoek en commercieel gebruik in een voorgetrainde vorm. Het model biedt het gemak van optimalisatie op verschillende hostingplatforms, zoals AWS, Azure en Hugging Face's AI, en garandeert een gebruiksvriendelijke ervaring. De introductie van Llama 2 is mogelijk dankzij een uitgebreid partnerschap met Microsoft, waardoor het geoptimaliseerd is voor Windows en apparaten die zijn uitgerust met Qualcomm's Snapdragon system-on-chip. Qualcomm werkt naar verluidt ook aan de migratie van Llama 2 naar Snapdragon-apparaten tegen 2024.
Llama 2 komt in twee versies: de basisversie en Llama 2-Chat, speciaal ontwikkeld voor tweerichtingsinteracties. Beide versies zijn beschikbaar in verschillende verfijningsniveaus, gedefinieerd door de reeks parameters: 7 miljard, 13 miljard en maar liefst 70 miljard. De parameters, die onderdelen zijn van een model dat geleerd heeft van de trainingsgegevens, bepalen in feite de vaardigheid van het model in een probleem - in dit geval het genereren van tekst.
Llama 2 werd getraind op twee miljoen tokens, wat neerkomt op ruwe tekst. Dit is bijna een verdubbeling ten opzichte van het originele Llama, dat werd getraind op 1,4 biljoen tokens. Over het algemeen resulteert een groter aantal tokens in meer doeltreffendheid als het gaat om generatieve AI-modellen. Meta heeft niets losgelaten over de details van de trainingsgegevens, behalve dat ze voornamelijk in het Engels zijn, afkomstig van het internet, en de nadruk leggen op tekst van feitelijke aard.
Deze stap luidt een nieuw hoofdstuk in op het gebied van AI en biedt een enorm potentieel voor no-code en low-code platforms, zoals AppMaster, waardoor gebruikers deze geavanceerde tools in een groot aantal toepassingen kunnen gebruiken en het ontwikkelproces snel en efficiënt verloopt.