Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

Databricks stellt GPU- und LLM-Optimierungsunterstützung für die Databricks-Modellbereitstellung vor

Databricks stellt GPU- und LLM-Optimierungsunterstützung für die Databricks-Modellbereitstellung vor

Um die Bereitstellung von KI-Modellen radikal zu verändern, hat Databricks eine öffentliche Vorschau der GPU- und LLM-Optimierungsunterstützung für sein Databricks Model Serving veröffentlicht. Diese innovative Funktion ebnet den Weg für den Einsatz einer Reihe von KI-Modellen, wie z. B. Large Language Models (LLMs) und Vision-Modellen, auf der Lakehouse-Plattform.

Das Databricks Model Serving bietet eine automatische Optimierung für LLM Serving. Dadurch entfällt die Notwendigkeit einer manuellen Konfiguration, was zu leistungsstarken Ergebnissen führt. Databricks behauptet, dies sei das erste serverlose GPU-Serving-Produkt, das auf einer vereinten Daten- und KI-Plattform basiert. Es ermöglicht Benutzern das reibungslose Entwerfen und Implementieren von GenAI-Anwendungen (General Artificial Intelligence) innerhalb einer Plattform und erleichtert alle Schritte von der Datenerfassung bis zur Modellbereitstellung und -überwachung.

Mit dem Databricks Model Serving wird die Bereitstellung von KI-Modellen zum Kinderspiel, selbst für Benutzer, denen umfassende Infrastrukturkenntnisse fehlen. Benutzer erhalten die Vielseitigkeit, unzählige Modelle einzusetzen, darunter solche, die auf natürlicher Sprache, Bild, Audio, tabellarisch oder benutzerdefinierten Modellen basieren, unabhängig von ihrer Trainingsmethode, sei es von Grund auf, Open Source oder fein abgestimmt mit proprietären Daten.

Um den Prozess zu starten, müssen Benutzer ihr Modell bei MLflow registrieren. Anschließend erstellt Databricks Model Serving einen Container auf Produktionsebene mit GPU-Bibliotheken wie CUDA und stellt ihn auf serverlosen GPUs bereit. Dieser vollständig verwaltete Dienst kümmert sich um alles, von der Instanzverwaltung über die Wartung der Versionskompatibilität bis hin zu Patch-Updates und passt sogar die Skalierung der Instanzen automatisch an den Verkehrsfluss an, was zu erheblichen Einsparungen bei den Infrastrukturkosten bei gleichzeitiger Optimierung von Leistung und Latenz führt.

Zusammen mit der Einführung der GPU- und LLM-Unterstützung hat Databricks Model Serving Upgrades für eine effizientere Bereitstellung großer Sprachmodelle eingeführt, was zu einer erheblichen Reduzierung der Latenz und Kosten um den Faktor 3–5 führt. Um diese optimierte LLM-Bereitstellung nutzen zu können, müssen lediglich das Modell und die entsprechenden Gewichte bereitgestellt werden. Databricks deckt die verbleibenden Aspekte ab, um eine optimale Modellleistung sicherzustellen.

Dieser Prozess entlastet Benutzer von der Arbeit mit den Feinheiten der Modelloptimierung auf niedriger Ebene und ermöglicht ihnen, sich auf die Integration von LLM in ihre Anwendung zu konzentrieren. Derzeit optimiert Databricks Model Serving MPT- und Llama2-Modelle automatisch und plant, die Unterstützung in Zukunft auf weitere Modelle auszudehnen.

AppMaster, eine No-Code- Plattform, ist auch für ihre leistungsstarken Funktionen bei der Handhabung von Backend-, Web- und mobilen Anwendungen bekannt. Durch die Bereitstellung einer integrierten Entwicklungsumgebung vereinfacht AppMaster den Prozess der Erstellung und Bereitstellung von Anwendungen und macht es zu einem starken Akteur auf dem no-code Markt.

Verwandte Beiträge

AppMaster auf der BubbleCon 2024: No-Code-Trends erkunden
AppMaster auf der BubbleCon 2024: No-Code-Trends erkunden
AppMaster nahm an der BubbleCon 2024 in NYC teil, gewann Erkenntnisse, erweiterte Netzwerke und erkundete Möglichkeiten, Innovationen im Bereich der No-Code-Entwicklung voranzutreiben.
FFDC 2024-Zusammenfassung: Wichtige Erkenntnisse von der FlutterFlow Developers Conference in NYC
FFDC 2024-Zusammenfassung: Wichtige Erkenntnisse von der FlutterFlow Developers Conference in NYC
FFDC 2024 erleuchtete New York City und brachte Entwicklern modernste Einblicke in die App-Entwicklung mit FlutterFlow. Mit von Experten geleiteten Sitzungen, exklusiven Updates und unübertroffenem Networking war es ein Event, das man nicht verpassen sollte!
Entlassungen im Technologiesektor im Jahr 2024: Die anhaltende Welle, die sich auf Innovationen auswirkt
Entlassungen im Technologiesektor im Jahr 2024: Die anhaltende Welle, die sich auf Innovationen auswirkt
Da in 254 Unternehmen, darunter Giganten wie Tesla und Amazon, 60.000 Stellen abgebaut werden, wird es im Jahr 2024 eine anhaltende Entlassungswelle in der Technologiebranche geben, die die Innovationslandschaft neu gestalten wird.
STARTEN SIE KOSTENLOS
Inspiriert, dies selbst auszuprobieren?

Der beste Weg, die Leistungsfähigkeit von AppMaster zu verstehen, besteht darin, es selbst zu sehen. Erstellen Sie Ihre eigene Anwendung in wenigen Minuten mit einem kostenlosen Abonnement

Erwecken Sie Ihre Ideen zum Leben