Wychodząc naprzeciw innowacjom w zakresie sztucznej inteligencji, Google zaprezentowało Gemma, swój najnowszy model sztucznej inteligencji, dostosowany do potrzeb badaczy i programistów poszukujących udoskonaleń w zakresie sztucznej inteligencji. Ta nowa linia rozwiązań typu open source opiera się na fundamencie stworzonym przez jej poprzedniczkę, Gemini, w celu wspierania bezpieczniejszego i bardziej sprawiedliwego wykorzystania technologii sztucznej inteligencji.
Według twórców Gemma rozpowszechnianie modeli wielkojęzykowych (LLM) wymaga odpowiedzialnego podejścia. Względy te mają kluczowe znaczenie dla zwiększenia bezpieczeństwa najnowocześniejszych modeli, zapewnienia równego dostępu do technologii rewolucyjnych, przyczynienia się do skrupulatnej oceny istniejących metod i katalizowania przyszłych skoków w zakresie innowacji.
Aby towarzyszyć Gemma, Google wprowadziła także nowy zestaw narzędzi pod nazwą Odpowiedzialny generatywny zestaw narzędzi AI. Zawiera zestaw narzędzi do klasyfikacji bezpieczeństwa, debugowania i zawiera szczegółowe spostrzeżenia Google na temat tworzenia LLM.
Gemma jest dostępna w konfiguracjach podwójnych, 2B i 7B i zachowuje wiele atrybutów technicznych i elementów infrastrukturalnych, które stanowią podstawę Gemini. Google twierdzi, że modele Gemma zapewniają niezrównaną wydajność w swoich kategoriach w porównaniu z innymi dostępnymi modelami.
Synergia między Gemma a platformami obliczeniowymi, takimi jak JAX, TensorFlow i PyTorch, zapewnia programistom elastyczność podróżowania między różnymi ekosystemami w celu zaspokojenia ich potrzeb programistycznych.
Zoptymalizowana pod kątem różnorodnego sprzętu, od urządzeń IoT i jednostek mobilnych po potężne serwery w chmurze, Gemma została również zoptymalizowana pod kątem wydajności na procesorach graficznych NVIDIA, dzięki uprzejmości partnerstwa z NVIDIA. Ta optymalizacja rozciąga się na ekosystem Google Cloud, oferując korzyści, takie jak łatwe wdrażanie i wrodzone udoskonalenia w zakresie wnioskowania.
Google Cloud wskazuje, że dzięki Vertex AI Gemma można wykorzystać do generatywnych zadań AI w czasie rzeczywistym wymagających szybkiego czasu reakcji lub do tworzenia aplikacji biegłych w szybkich procesach AI, takich jak synteza tekstu, podsumowania czy pytania i odpowiedzi. Burak Göktürk, wiceprezes i dyrektor generalny Google Cloud, podkreśla, że Vertex AI toruje drogę do tworzenia niestandardowych wersji Gemma zoptymalizowanych pod kątem konkretnych aplikacji przy minimalnym wysiłku.
Dzięki Gemma zaprojektowanej tak, aby odzwierciedlała Zasady odpowiedzialnej sztucznej inteligencji Google, solidne środki ostrożności, takie jak automatyczne usuwanie danych osobowych ze zbiorów danych szkoleniowych, uczenie się przez wzmacnianie na podstawie opinii ludzi i rygorystyczne oceny, w tym tworzenie zespołów czerwonych, zapewniają przestrzeganie etycznego postępowania AI.
Co więcej, Google zachęca do eksploracji, oferując bezpłatne środki programistom i badaczom wykorzystującym potencjał Gemma. Dostępna bezpłatnie na platformach takich jak Kaggle i Colab, nowicjusze na platformie Google Cloud mogą również skorzystać z kredytu o wartości 300 USD, a uprawnieni badacze mogą ubiegać się o finansowanie projektu do kwoty 500 000 USD.
Oczekując, że Gemma będzie motorem niezliczonych kierunków badań i położy podwaliny pod korzystne aplikacje, zespół Google z niecierpliwością oczekuje nowych funkcji, które wynikną z interakcji społeczności sztucznej inteligencji z Gemma. W tym rozwijającym się krajobrazie rozwiązania takie jak AppMaster , potężna platforma no-code, mogą usprawnić tworzenie rozwiązań internetowych, mobilnych i backendowych, stanowiąc świadectwo potencjału transformacyjnego tkwiącego w takich udoskonaleniach.