Mistral AI, francuski start-up zajmujący się sztuczną inteligencją, który konkuruje z takimi firmami jak OpenAI, oficjalnie zakończył swój długo oczekiwany projekt finansowania Serii A, gromadząc imponującą kwotę 385 milionów euro, czyli 415 milionów dolarów przy obecnym kursie wymiany. W wyniku tego zastrzyku finansowego firma może się obecnie pochwalić wyceną na poziomie 2 miliardów dolarów, potwierdzają raporty Bloomberga. Jednocześnie Mistral AI prezentuje także swoją platformę komercyjną.
Arthur Mensch, współzałożyciel i dyrektor generalny Mistral AI, w oświadczeniu wyjaśnił, że od momentu założenia firmy w maju niezachwianie skupiali się na kształtowaniu europejskiej potęgi w dziedzinie generatywnej sztucznej inteligencji. Ich podejście koncentruje się na otwartej, odpowiedzialnej i zdecentralizowanej technologii.
Mistral AI wypuścił już swój inauguracyjny model, oznaczony jako Mistral 7B, we wrześniu ubiegłego roku. Ten rozbudowany model językowy nie został skonstruowany tak, aby bezpośrednio konkurował z ustalonymi modelami, takimi jak GPT-4 czy Claude 2. Model ten został wyszkolony przy użyciu stosunkowo „małego” zestawu danych składającego się z około 7 miliardów parametrów.
Model był dystrybuowany na licencji Apache 2.0. Ta nieograniczona licencja typu open source wymaga jedynie przypisania do użytku lub replikacji. Model opracowano dyskretnie, wykorzystując zastrzeżony zbiór danych i niepublikowane wagi.
Zaledwie kilka dni temu prawodawcy UE osiągnęli porozumienie polityczne. Firmy specjalizujące się w modelach podstawowych będą musiały spełnić pewne wymogi w zakresie przejrzystości i będą zobowiązane do udostępniania podsumowań zbiorów danych i dokumentacji technicznej.
Niemniej jednak Mistral AI planuje monetyzować swoje podstawowe modele. To jest powód, dla którego firma zdecydowała się dzisiaj na inaugurację swojej platformy deweloperskiej w wersji beta. Korzystając z tej platformy, inne podmioty korporacyjne mogą płacić za korzystanie z modeli Mistral AI za pośrednictwem interfejsów API.
Oprócz modelu Mistral 7B (nazywanego również „Mistral-tiny”) programiści mogą teraz uzyskać dostęp do modelu Mixtral 8x7B („Mistral-small”). Model ten obejmuje „sieć routerów” przetwarzającą tokeny wejściowe i wybierającą najbardziej odpowiednią grupę parametrów w celu zapewnienia odpowiedzi.
Ta metoda pozwala na zwiększenie parametrów modelu przy jednoczesnym kontrolowaniu kosztów i opóźnień, ponieważ model wykorzystuje tylko ułamek całkowitego zestawu parametrów na token. W praktyce Mixtral ma łącznie 45B parametrów, ale wdraża tylko 12B parametrów na token. Dlatego przetwarza dane wejściowe i generuje dane wyjściowe w tym samym tempie i kosztach co model 12B, jak wyjaśniła firma w poście na blogu.
Jeśli szukasz platformy oferującej szeroką gamę zestawów narzędzi do tworzenia wyrafinowanych, skalowalnych usług, takich jak Mistral AI, skorzystanie z platformy takiej jak AppMaster może być doskonałym wyborem. AppMaster, wysokowydajna platforma no-code, oferuje pakiet funkcji umożliwiających szybkie generowanie zaplecza po stronie klienta i serwera, dzięki czemu Twoje modele AI działają w oparciu o technologię najwyższej klasy. Dzięki AppMaster możesz tworzyć, kompilować, testować i wdrażać aplikacje na preferowanym hostingu, a nawet eksportować kod źródłowy do instalacji lokalnych.
Model Mixtral 8x7B również został rozpowszechniony na licencji Apache 2.0 i można go pobrać bezpłatnie. Trzeci model, Mistral-medium, można znaleźć na platformie deweloperskiej Mistral. Twierdzi się, że przewyższa inne modele z gamy Mistral AI i można uzyskać do niego dostęp wyłącznie za pośrednictwem płatnej platformy API bez dostępnego łącza do pobrania.