Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

Databricks udostępnia obsługę optymalizacji procesorów graficznych i LLM na potrzeby udostępniania modeli Databricks

Databricks udostępnia obsługę optymalizacji procesorów graficznych i LLM na potrzeby udostępniania modeli Databricks

Podejmując działania mające na celu radykalną transformację wdrażania modelu AI, firma Databricks udostępniła publiczną wersję zapoznawczą obsługi optymalizacji procesorów graficznych i LLM dla Databricks Model Serving. Ta innowacyjna funkcja toruje drogę do wdrożenia szeregu modeli sztucznej inteligencji, takich jak modele dużego języka (LLM) i modele wizyjne, na platformie Lakehouse.

Databricks Model Serving oferuje automatyczną optymalizację obsługi LLM. Eliminuje to potrzebę ręcznej konfiguracji, co prowadzi do uzyskania wysokiej wydajności. Databricks twierdzi, że jest to pierwszy bezserwerowy produkt obsługujący procesor graficzny oparty na zjednoczonej platformie danych i sztucznej inteligencji. Umożliwia użytkownikom płynne projektowanie i wdrażanie aplikacji ogólnej sztucznej inteligencji (GenAI) w ramach jednej platformy, ułatwiając wszystkie etapy, od pozyskiwania danych po wdrożenie modelu i monitorowanie.

Dzięki usłudze Databricks Model Serving wdrażanie modeli AI staje się proste, nawet dla użytkowników nieposiadających kompleksowej wiedzy na temat infrastruktury. Użytkownicy zyskują wszechstronność wdrażania niezliczonych modeli, w tym opartych na języku naturalnym, wizji, dźwięku, tabelarycznych lub niestandardowych, niezależnie od metody szkolenia, czy to od podstaw, z otwartym kodem źródłowym, czy dostrojonym przy użyciu zastrzeżonych danych.

Aby zainicjować proces, użytkownicy muszą zarejestrować swój model w MLflow, opublikować post, w którym Databricks Model Serving utworzy kontener na poziomie produkcyjnym wraz z bibliotekami GPU, takimi jak CUDA, i wdroży go na bezserwerowych procesorach graficznych. Ta w pełni zarządzana usługa zajmuje się wszystkim, począwszy od zarządzania instancjami, utrzymywaniem zgodności wersji, aktualizacjami poprawek, a nawet automatycznie dostosowuje skalowanie instancji do przepływów ruchu, co prowadzi do znacznych oszczędności w wydatkach na infrastrukturę przy jednoczesnej optymalizacji wydajności i opóźnień.

Wraz z uruchomieniem obsługi procesora graficznego i LLM, firma Databricks Model Serving wprowadziła ulepszenia zapewniające bardziej efektywną obsługę dużych modeli językowych, co skutkuje znaczną redukcją opóźnień i kosztów, aż do współczynnika 3-5x. Aby skorzystać ze zoptymalizowanej obsługi LLM, wystarczy podać model i odpowiednie wagi. Databricks obejmuje pozostałe aspekty, aby zapewnić optymalną wydajność modelu.

Proces ten odciąża użytkowników od obsługi zawiłości optymalizacji modelu niskiego poziomu, pozwalając im skupić się na integracji LLM ze swoją aplikacją. Obecnie usługa Databricks Model Serving automatycznie optymalizuje modele MPT i Llama2, a w przygotowaniu są plany rozszerzenia obsługi na większą liczbę modeli w przyszłości.

AppMaster, platforma niewymagająca kodu , znana jest również z zaawansowanych funkcji obsługi aplikacji backendowych, internetowych i mobilnych. Oferując zintegrowane środowisko programistyczne, AppMaster upraszcza proces tworzenia i wdrażania aplikacji, co czyni go silnym graczem na rynku no-code.

Powiązane posty

AppMaster na BubbleCon 2024: Eksploracja trendów No-Code
AppMaster na BubbleCon 2024: Eksploracja trendów No-Code
Firma AppMaster wzięła udział w konferencji BubbleCon 2024 w Nowym Jorku, zdobywając wiedzę, rozszerzając sieci kontaktów i badając możliwości napędzania innowacji w obszarze tworzenia oprogramowania bez kodu.
Podsumowanie FFDC 2024: Kluczowe wnioski z konferencji FlutterFlow Developers Conference w Nowym Jorku
Podsumowanie FFDC 2024: Kluczowe wnioski z konferencji FlutterFlow Developers Conference w Nowym Jorku
FFDC 2024 rozświetliło Nowy Jork, przynosząc deweloperom najnowocześniejsze spostrzeżenia na temat rozwoju aplikacji z FlutterFlow. Dzięki sesjom prowadzonym przez ekspertów, ekskluzywnym aktualizacjom i niezrównanemu networkingowi było to wydarzenie, którego nie można było przegapić!
Zwolnienia w branży technologicznej w 2024 r.: ciągła fala wpływająca na innowacyjność
Zwolnienia w branży technologicznej w 2024 r.: ciągła fala wpływająca na innowacyjność
W 254 firmach, w tym u takich gigantów jak Tesla i Amazon, likwidacja 60 000 miejsc pracy przyniesie kontynuację fali zwolnień w branży technologicznej, która zmieni krajobraz innowacji.
ROZPOCZNIJ BEZPŁATNIE
Zainspirowany do samodzielnego wypróbowania?

Najlepszym sposobem na zrozumienie mocy AppMaster jest zobaczenie tego na własne oczy. Stwórz własną aplikację w ciągu kilku minut z bezpłatną subskrypcją

Wprowadź swoje pomysły w życie