Um die KI-Innovation voranzutreiben, hat Google Gemma vorgestellt, sein neuestes KI-Modell, das auf Forscher und Entwickler zugeschnitten ist, die KI-Fortschritte anstreben. Diese neue Open-Source-Reihe baut auf der Grundlage ihres Vorgängers Gemini auf, um eine sicherere und gerechtere Nutzung der KI-Technologie zu fördern.
Laut den Machern von Gemma erfordert die Verbreitung von Large Language Models (LLMs) einen verantwortungsvollen Ansatz. Diese Überlegung ist von entscheidender Bedeutung, um die Sicherheit modernster Modelle zu erhöhen, einen gleichberechtigten Zugang zu transformativer Technologie zu gewährleisten, zu einer sorgfältigen Bewertung bestehender Methoden beizutragen und zukünftige Innovationssprünge zu katalysieren.
Passend zu Gemma hat Google auch ein neues Toolkit mit dem Namen Responsible Generative AI Toolkit herausgebracht. Es umfasst eine Reihe von Tools für die Sicherheitsklassifizierung und Debugging-Bemühungen und integriert die destillierten Erkenntnisse von Google zur Erstellung von LLMs.
Gemma ist in den Duo-Konfigurationen 2B und 7B erhältlich und behält viele der technischen Eigenschaften und Infrastrukturelemente bei, die Gemini zugrunde liegen. Google behauptet, dass Gemma Modelle im Vergleich zu anderen zugänglichen Modellen eine beispiellose Effizienz für ihre Kategorien bieten.
Die Synergie zwischen Gemma und Computer-Frameworks wie JAX, TensorFlow und PyTorch gibt Entwicklern die Flexibilität, je nach ihren Entwicklungsanforderungen zwischen verschiedenen Ökosystemen zu wechseln.
Gemma ist für eine Vielzahl von Hardware optimiert, von IoT-Geräten und mobilen Einheiten bis hin zu leistungsstarken Cloud-Servern, und wurde dank einer Partnerschaft mit NVIDIA auch auf die Leistung auf NVIDIA GPUs abgestimmt. Diese Optimierung erstreckt sich auf das Google Cloud Ökosystem und bietet Vorteile wie eine mühelose Bereitstellung und integrierte Inferenzverbesserungen.
Google Cloud weist darauf hin, dass Gemma durch Vertex AI für generative KI-Aufgaben in Echtzeit genutzt werden kann, die schnelle Reaktionszeiten erfordern, oder um Anwendungen zu entwickeln, die schnelle KI-Prozesse wie Textsynthese, Zusammenfassung und Fragen und Antworten beherrschen. Burak Göktürk, VP und GM von Google Cloud, betont, dass Vertex AI den Weg ebnet, mit minimalem Aufwand benutzerdefinierte Versionen von Gemma zu kuratieren, die für bestimmte Anwendungen optimiert sind.
Da Gemma so konzipiert ist, dass es die Grundsätze der verantwortungsvollen KI von Google widerspiegelt, stellen robuste Vorsichtsmaßnahmen wie die automatische Löschung personenbezogener Daten aus Trainingsdatensätzen, verstärkendes Lernen aus menschlichem Feedback und strenge Bewertungen, einschließlich Red Teaming, die Einhaltung ethischer KI-Verhaltensweisen sicher.
Darüber hinaus fördert Google die Erkundung, indem es Entwicklern und Forschern, die das Potenzial von Gemma nutzen möchten, kostenlose Credits anbietet. Neulinge auf der Google Cloud Plattform sind kostenlos über Plattformen wie Kaggle und Colab verfügbar und können außerdem von einer Gutschrift in Höhe von 300 US-Dollar profitieren, während berechtigte Forscher eine Projektfinanzierung von bis zu 500.000 US-Dollar beantragen können.
Mit der Erwartung, dass Gemma eine Vielzahl von Forschungsmöglichkeiten vorantreiben und den Grundstein für nützliche Anwendungen legen wird, erwartet Google -Team gespannt die neuen Funktionalitäten, die aus den Interaktionen der KI-Community mit Gemma entstehen werden. In dieser aufstrebenden Landschaft sind Lösungen wie AppMaster , eine leistungsstarke no-code Plattform, bereit, die Erstellung von Web-, Mobil- und Backend-Lösungen zu rationalisieren, was ein Beweis für das transformative Potenzial ist, das solchen Fortschritten innewohnt.