Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

Databricks svela il supporto per l'ottimizzazione di GPU e LLM per la pubblicazione di modelli Databricks

Databricks svela il supporto per l'ottimizzazione di GPU e LLM per la pubblicazione di modelli Databricks

In una mossa destinata a trasformare radicalmente l'implementazione del modello AI, Databricks ha rilasciato un'anteprima pubblica del supporto di ottimizzazione GPU e LLM per il suo Databricks Model Serving. Questa funzionalità innovativa apre la strada all’implementazione di una serie di modelli di intelligenza artificiale, come i modelli LLM (Large Language Models) e i modelli di visione, sulla piattaforma Lakehouse.

Databricks Model Serving offre l'ottimizzazione automatica per LLM Serving. Ciò elimina la necessità di configurazione manuale, garantendo risultati ad alte prestazioni. Databricks afferma che questo è il primo prodotto di servizio GPU serverless basato su una piattaforma dati e AI unificata. Consente agli utenti di progettare e implementare senza problemi applicazioni di Intelligenza Artificiale Generale (GenAI) all'interno di un'unica piattaforma, facilitando tutti i passaggi, dall'acquisizione dei dati all'implementazione e al monitoraggio del modello.

Con Databricks Model Serving, la distribuzione di modelli IA diventa un gioco da ragazzi, anche per gli utenti che non dispongono di una conoscenza completa dell'infrastruttura. Gli utenti ottengono la versatilità di implementare miriadi di modelli, compresi quelli basati sul linguaggio naturale, sulla visione, sull'audio, su tabelle o personalizzati, indipendentemente dal loro metodo di formazione, sia esso da zero, open source o ottimizzato con dati proprietari.

Per avviare il processo, gli utenti devono registrare il proprio modello con MLflow, pubblicare il quale Databricks Model Serving creerà un contenitore a livello di produzione completo di librerie GPU come CUDA e lo distribuirà su GPU serverless. Questo servizio completamente gestito si occupa di tutto, dalla gestione delle istanze, al mantenimento della compatibilità delle versioni, agli aggiornamenti delle patch e persino alla regolazione automatica del ridimensionamento delle istanze in modo congruente con i flussi di traffico, portando a risparmi sostanziali sulle spese dell'infrastruttura e ottimizzando al tempo stesso prestazioni e latenza.

Oltre al lancio del supporto GPU e LLM, Databricks Model Serving ha introdotto aggiornamenti per un servizio più efficiente di modelli linguistici di grandi dimensioni, con conseguente riduzione significativa della latenza e dei costi, fino a un fattore di 3-5 volte. Per utilizzare questo servizio LLM ottimizzato, è sufficiente fornire il modello e i pesi corrispondenti. Databricks copre gli aspetti rimanenti per garantire prestazioni ottimali del modello.

Questo processo libera gli utenti dalla gestione delle complessità di ottimizzazione del modello di basso livello, consentendo loro di concentrarsi sull'integrazione di LLM nella propria applicazione. Attualmente, Databricks Model Serving ottimizza automaticamente i modelli MPT e Llama2 con piani in cantiere per estendere il proprio supporto a più modelli in futuro.

AppMaster, una piattaforma senza codice , è nota anche per le sue potenti funzionalità nella gestione di applicazioni backend, web e mobili. Offrendo un ambiente di sviluppo integrato, AppMaster semplifica il processo di creazione e distribuzione delle applicazioni, rendendolo un attore forte nel mercato no-code.

Post correlati

AppMaster a BubbleCon 2024: esplorazione delle tendenze senza codice
AppMaster a BubbleCon 2024: esplorazione delle tendenze senza codice
AppMaster ha partecipato al BubbleCon 2024 di New York, acquisendo informazioni, ampliando le reti ed esplorando opportunità per guidare l'innovazione nello spazio di sviluppo no-code.
Riepilogo FFDC 2024: approfondimenti chiave dalla FlutterFlow Developers Conference di New York
Riepilogo FFDC 2024: approfondimenti chiave dalla FlutterFlow Developers Conference di New York
FFDC 2024 ha illuminato New York City, offrendo agli sviluppatori approfondimenti all'avanguardia sullo sviluppo di app con FlutterFlow. Con sessioni condotte da esperti, aggiornamenti esclusivi e networking senza pari, è stato un evento da non perdere!
Licenziamenti tecnologici del 2024: l'ondata continua che colpisce l'innovazione
Licenziamenti tecnologici del 2024: l'ondata continua che colpisce l'innovazione
Con 60.000 posti di lavoro tagliati in 254 aziende, tra cui giganti come Tesla e Amazon, il 2024 vedrà una continua ondata di licenziamenti nel settore tecnologico che rimodellerà il panorama dell'innovazione.
Inizia gratis
Ispirato a provarlo tu stesso?

Il modo migliore per comprendere il potere di AppMaster è vederlo di persona. Crea la tua applicazione in pochi minuti con l'abbonamento gratuito

Dai vita alle tue idee