Il gigante tecnologico Meta ha recentemente presentato la nuova generazione di modelli di intelligenza artificiale: Llama 2. Questa innovativa famiglia di modelli di intelligenza artificiale è stata sviluppata esplicitamente per alimentare diversi chatbot, tra cui ChatGPT di OpenAI e Bing Chat, oltre ad altri sistemi di conversazione all'avanguardia.
Addestrato su un assortimento di dati pubblicamente accessibili, Llama 2 è destinato a superare la generazione precedente in termini di prestazioni complessive. Il successore del modello Llama è uno sviluppo significativo che offre una capacità di interazione superiore rispetto ad altri sistemi simili ai chatbot.
In particolare, il modello Llama originale era accessibile solo su richiesta, in quanto Meta prendeva severe precauzioni per limitarne l'uso improprio. Tuttavia, il modello Llama ha finito per farsi strada in diverse comunità di IA, nonostante l'intenzionale chiusura.
Al contrario, Llama 2 è aperto alla ricerca e all'uso commerciale in una forma pre-addestrata. Offrendo la comodità dell'ottimizzazione su varie piattaforme di hosting, come AWS, Azure e Hugging Face's AI, il modello garantisce un'esperienza di facile utilizzo. L'introduzione di Llama 2 è resa possibile da una partnership estesa con Microsoft, che lo rende ottimizzato per Windows e per i dispositivi dotati del system-on-chip Snapdragon di Qualcomm. Qualcomm starebbe inoltre lavorando alla migrazione di Llama 2 sui dispositivi Snapdragon entro il 2024.
Llama 2 è disponibile in due versioni: quella di base e Llama 2-Chat, progettata appositamente per le interazioni bidirezionali. Entrambe le versioni sono disponibili in vari livelli di sofisticazione, definiti dalla gamma di parametri: 7 miliardi, 13 miliardi e ben 70 miliardi. I parametri, che sono parti di un modello apprese dai dati di addestramento, determinano effettivamente la capacità del modello di affrontare un problema, in questo caso la generazione di testo.
Llama 2 è stato addestrato su due milioni di token, che implicano un testo grezzo. Questo dato è quasi raddoppiato rispetto all'originale Llama, che è stato addestrato su 1,4 trilioni di token. In genere, un numero maggiore di token si traduce in una maggiore efficacia quando si tratta di modelli di intelligenza artificiale generativa. Meta ha mantenuto il massimo riserbo sulle specifiche dei dati di addestramento, a parte rivelare che sono principalmente in inglese, provenienti da Internet, e che enfatizzano i testi di natura fattuale.
Questa mossa inaugura un nuovo capitolo nel regno dell'IA che offre un vasto potenziale alle piattaforme no-code e low-code, come AppMaster, consentendo agli utenti di utilizzare questi strumenti avanzati in una miriade di applicazioni e rendendo il processo di sviluppo rapido ed efficiente.