Der Technologieriese Meta hat kürzlich die nächste Generation seiner bemerkenswerten KI-Modelle vorgestellt: Llama 2. Diese innovative Familie von KI-Modellen wurde speziell entwickelt, um mehrere Chatbots zu betreiben, darunter ChatGPT von OpenAI und Bing Chat sowie andere hochmoderne Konversationssysteme.
Llama 2 wurde auf einer Reihe von öffentlich zugänglichen Daten trainiert und soll die vorherige Generation in Bezug auf die Gesamtleistung übertreffen. Das Nachfolgemodell von Llama ist eine bedeutende Entwicklung, die im Vergleich zu anderen Chatbot-ähnlichen Systemen eine überlegene Interaktionskapazität bietet.
Das ursprüngliche Llama war nur auf Anfrage zugänglich, da Meta strenge Vorkehrungen traf, um seinen Missbrauch einzuschränken. Das Modell Llama fand jedoch trotz des absichtlichen Gatekeepings seinen Weg in verschiedene KI-Communities.
Im Gegensatz dazu ist Llama 2 für die Forschung und kommerzielle Nutzung in einer vortrainierten Form offen. Das Modell lässt sich bequem auf verschiedenen Hosting-Plattformen wie AWS, Azure und Hugging Face's AI optimieren und garantiert eine benutzerfreundliche Erfahrung. Die Einführung von Llama 2 wird durch eine erweiterte Partnerschaft mit Microsoft ermöglicht, die es für Windows und Geräte mit dem Snapdragon-System-on-Chip von Qualcomm optimiert. Berichten zufolge arbeitet Qualcomm auch daran, Llama 2 bis 2024 auf Snapdragon-Geräte zu migrieren.
Llama 2 gibt es in zwei Versionen: die Basisversion und Llama 2-Chat, die speziell für wechselseitige Interaktionen entwickelt wurde. Beide Versionen sind in verschiedenen Ausbaustufen erhältlich, die durch die Anzahl der Parameter - 7 Milliarden, 13 Milliarden und 70 Milliarden - definiert sind. Die Parameter, bei denen es sich um Teile eines Modells handelt, die aus den Trainingsdaten gelernt werden, bestimmen die Leistungsfähigkeit des Modells für ein Problem - in diesem Fall die Texterstellung.
Llama 2 wurde mit zwei Millionen Token trainiert, was Rohtext bedeutet. Das ist fast das Zweifache im Vergleich zum Original Llama, das auf 1,4 Billionen Token trainiert wurde. Im Allgemeinen führt eine größere Anzahl von Token zu mehr Effizienz, wenn es um generative KI-Modelle geht. Über die Einzelheiten der Trainingsdaten hat Meta Stillschweigen bewahrt, abgesehen davon, dass sie hauptsächlich in englischer Sprache vorliegen, aus dem Internet stammen und den Schwerpunkt auf Sachtexte legen.
Mit diesem Schritt wird ein neues Kapitel im Bereich der KI aufgeschlagen, das ein enormes Potenzial für No-Code- und low-code -Plattformen wie AppMaster bietet, die es den Nutzern ermöglichen, diese fortschrittlichen Tools in einer Vielzahl von Anwendungen einzusetzen und gleichzeitig den Entwicklungsprozess schnell und effizient zu gestalten.