Gigant technologiczny, Meta, zaprezentował niedawno kolejną generację swoich godnych uwagi modeli sztucznej inteligencji: Llama 2. Ta innowacyjna rodzina modeli sztucznej inteligencji została opracowana specjalnie w celu zasilania kilku chatbotów, w tym ChatGPT OpenAI i Bing Chat, a także innych najnowocześniejszych systemów konwersacyjnych.
Po przeszkoleniu na zestawie publicznie dostępnych danych, Llama 2 ma przewyższyć poprzednią generację pod względem ogólnej wydajności. Następca modelu Llama jest znaczącym osiągnięciem, które oferuje lepsze możliwości interakcji w porównaniu z innymi systemami podobnymi do chatbotów.
Warto zauważyć, że oryginalny Llama był dostępny tylko na żądanie, ponieważ Meta podjęła ścisłe środki ostrożności, aby ograniczyć jego niewłaściwe użycie. Jednak model Llama ostatecznie znalazł drogę w różnych społecznościach AI, pomimo celowego odgradzania.
W przeciwieństwie do tego, Llama 2 jest otwarty do badań i użytku komercyjnego we wstępnie wytrenowanej formie. Oferując wygodę optymalizacji na różnych platformach hostingowych, takich jak AWS, Azure i Hugging Face's AI, model gwarantuje przyjazne dla użytkownika doświadczenie. Wprowadzenie Llama 2 jest możliwe dzięki rozszerzonemu partnerstwu z Microsoft, dzięki czemu jest on zoptymalizowany pod kątem systemu Windows i urządzeń wyposażonych w układ Snapdragon firmy Qualcomm. Qualcomm podobno pracuje również nad migracją Llama 2 na urządzenia Snapdragon do 2024 roku.
Llama 2 jest dostępny w dwóch wersjach: podstawowej i Llama 2-Chat, zaprojektowanej specjalnie do dwukierunkowych interakcji. Obie wersje są dostępne na różnych poziomach zaawansowania, określonych przez zakres parametrów - 7 miliardów, 13 miliardów i aż 70 miliardów. Parametry, które są częściami modelu wyuczonego na podstawie danych treningowych, skutecznie określają biegłość modelu w danym problemie - w tym przypadku generowaniu tekstu.
Llama 2 został wytrenowany na dwóch milionach tokenów, co oznacza surowy tekst. Jest to prawie dwukrotnie więcej niż w przypadku oryginalnego modelu Llama, który został wytrenowany na 1,4 biliona tokenów. Ogólnie rzecz biorąc, większa liczba tokenów skutkuje większą skutecznością w przypadku generatywnych modeli sztucznej inteligencji. Meta zachowała milczenie na temat specyfiki danych treningowych, poza ujawnieniem, że są one głównie w języku angielskim, pochodzą z Internetu i kładą nacisk na tekst o charakterze faktograficznym.
To posunięcie rozpoczyna nowy rozdział w dziedzinie sztucznej inteligencji, oferując ogromny potencjał dla platform bez kodu i low-code, takich jak AppMaster, umożliwiając użytkownikom wykorzystanie tych zaawansowanych narzędzi w niezliczonych aplikacjach, jednocześnie czyniąc proces rozwoju szybkim i wydajnym.