Dans une avancée majeure en matière d'innovation en matière d'IA, Google a dévoilé Gemma, son dernier modèle d'IA, conçu pour les chercheurs et les développeurs qui poursuivent les progrès de l'IA. Cette nouvelle gamme open source s'appuie sur les bases posées par son prédécesseur, Gemini, pour favoriser une utilisation plus sûre et plus équitable de la technologie de l'IA.
Selon les créateurs de Gemma, la diffusion de Large Language Models (LLM) nécessite une approche responsable. Cette considération est essentielle pour renforcer la sécurité des modèles de pointe, garantir l’égalité d’accès aux technologies transformatrices, contribuer à une évaluation méticuleuse des méthodes existantes et catalyser les futurs progrès de l’innovation.
Pour accompagner Gemma, Google a également déployé une nouvelle boîte à outils baptisée Responsible Generative AI Toolkit. Il comprend une suite d'outils pour la classification de sécurité, les efforts de débogage et intègre les informations distillées par Google sur la création de LLM.
Gemma est disponible en configurations duo, 2B et 7B, et conserve de nombreux attributs techniques et éléments d'infrastructure qui sous-tendent Gemini. Google affirme que les modèles Gemma offrent une efficacité inégalée pour leurs catégories lorsqu'ils sont juxtaposés à d'autres modèles accessibles.
La synergie entre Gemma et les frameworks informatiques tels que JAX, TensorFlow et PyTorch offre aux développeurs la flexibilité nécessaire pour parcourir différents écosystèmes en fonction de leurs besoins de développement.
Optimisé pour une large gamme de matériels, depuis les appareils IoT et les unités mobiles jusqu'aux puissants serveurs cloud, Gemma a également été optimisé pour les performances des GPU NVIDIA, grâce à un partenariat avec NVIDIA. Cette optimisation s'étend à l'écosystème Google Cloud, offrant des avantages tels qu'un déploiement sans effort et des avancées d'inférence innée.
Google Cloud indique que grâce à Vertex AI, Gemma peut être exploité pour des tâches d'IA générative en temps réel exigeant des temps de réponse rapides ou pour développer des applications maîtrisant les processus d'IA rapides tels que la synthèse de texte, le résumé et les questions-réponses. Burak Göktürk, vice-président et directeur général de Google Cloud, souligne que Vertex AI ouvre la voie à la création de versions personnalisées de Gemma optimisées pour des applications spécifiques avec un minimum de tracas.
Avec Gemma conçu pour refléter les principes d'IA responsable de Google, des mesures de précaution robustes telles que l'expurgation automatique des données personnelles des ensembles de données de formation, l'apprentissage par renforcement à partir des commentaires humains et des évaluations rigoureuses, y compris l'équipe rouge, garantissent le respect d'une conduite éthique en matière d'IA.
De plus, Google encourage l'exploration en offrant des crédits gratuits aux développeurs et aux chercheurs exploitant le potentiel de Gemma. Disponible gratuitement via des plateformes telles que Kaggle et Colab, les nouveaux arrivants sur la plateforme Google Cloud peuvent également bénéficier d'un crédit de 300 $, tandis que les chercheurs éligibles peuvent demander un financement de projet allant jusqu'à 500 000 $.
En espérant que Gemma propulsera une myriade de pistes de recherche et jettera les bases d'applications bénéfiques, l'équipe de Google attend avec impatience les nouvelles fonctionnalités qui naîtront des interactions de la communauté de l'IA avec Gemma. Dans ce paysage en plein essor, des solutions comme AppMaster , une puissante plateforme no-code, sont sur le point de rationaliser la création de solutions Web, mobiles et back-end, témoignant du potentiel de transformation inhérent à de telles avancées.