Facendo un passo avanti verso l’innovazione dell’intelligenza artificiale, Google ha presentato Gemma, il suo ultimo modello di intelligenza artificiale, su misura per ricercatori e sviluppatori che perseguono i progressi dell’intelligenza artificiale. Questa nuova linea open source si basa sulle basi gettate dal suo predecessore, Gemini, per promuovere un utilizzo più sicuro ed equo della tecnologia AI.
Secondo gli ideatori di Gemma, la diffusione dei Large Language Models (LLM) necessita di un approccio responsabile. Questa considerazione è vitale per rafforzare la sicurezza dei modelli all’avanguardia, garantire pari accesso alla tecnologia trasformativa, contribuire a una valutazione meticolosa dei metodi esistenti e catalizzare i futuri passi avanti nell’innovazione.
Per accompagnare Gemma, Google ha anche lanciato un nuovo toolkit denominato Responsible Generative AI Toolkit. Include una suite di strumenti per la classificazione della sicurezza, attività di debug e incorpora le intuizioni distillate di Google sulla creazione di LLM.
Gemma è disponibile nelle configurazioni duo, 2B e 7B, e mantiene molti degli attributi tecnici e degli elementi infrastrutturali che sono alla base Gemini. Google afferma che i modelli Gemma offrono un'efficienza senza pari per le loro categorie se giustapposti ad altri modelli accessibili.
La sinergia tra Gemma e framework informatici come JAX, TensorFlow e PyTorch offre agli sviluppatori la flessibilità di spostarsi tra diversi ecosistemi per soddisfare le loro esigenze di sviluppo.
Ottimizzato per una vasta gamma di hardware, dai dispositivi IoT e unità mobili ai potenti server cloud, Gemma è stato anche ottimizzato per le prestazioni sulle GPU NVIDIA, grazie a una partnership con NVIDIA. Questa ottimizzazione si estende all'ecosistema Google Cloud, offrendo vantaggi come un'implementazione semplice e progressi nell'inferenza innata.
Google Cloud indica che attraverso Vertex AI, Gemma può essere sfruttata per attività di intelligenza artificiale generativa in tempo reale che richiedono tempi di risposta rapidi o per sviluppare applicazioni competenti in processi di intelligenza artificiale veloci come sintesi di testo, riepilogo e domande e risposte. Burak Göktürk, vicepresidente e direttore generale di Google Cloud, sottolinea che Vertex AI apre la strada alla cura di versioni personalizzate di Gemma ottimizzate per applicazioni specifiche con il minimo sforzo.
Con Gemma progettato per rispecchiare i principi di intelligenza artificiale responsabile di Google, solide misure precauzionali come l'eliminazione automatica dei dati personali dai set di dati di addestramento, l'apprendimento di rinforzo dal feedback umano e valutazioni rigorose incluso il red teaming, garantiscono l'adesione alla condotta etica dell'IA.
Inoltre, Google incoraggia l'esplorazione offrendo crediti gratuiti per sviluppatori e ricercatori che sfruttano il potenziale di Gemma. Disponibile gratuitamente tramite piattaforme come Kaggle e Colab, i nuovi arrivati sulla piattaforma Google Cloud possono anche beneficiare di un credito di 300 dollari, mentre i ricercatori idonei possono richiedere finanziamenti per progetti fino a 500.000 dollari.
Con l'aspettativa che Gemma darà impulso a una miriade di percorsi di ricerca e getterà le basi per applicazioni vantaggiose, il team di Google anticipa con impazienza le nuove funzionalità che nasceranno dalle interazioni della comunità AI con Gemma. All’interno di questo panorama in espansione, soluzioni come AppMaster , una potente piattaforma no-code, sono pronte a semplificare la creazione di soluzioni web, mobili e backend, testimoniando il potenziale di trasformazione insito in tali progressi.