Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

Databricks onthult GPU- en LLM-optimalisatieondersteuning voor Databricks Model Serving

Databricks onthult GPU- en LLM-optimalisatieondersteuning voor Databricks Model Serving

In een poging om de implementatie van AI-modellen radicaal te transformeren, heeft Databricks een openbare preview uitgebracht van GPU- en LLM-optimalisatieondersteuning voor zijn Databricks Model Serving. Deze innovatieve functie maakt de weg vrij voor de inzet van een reeks AI-modellen, zoals Large Language Models (LLM's) en Vision-modellen, op het Lakehouse Platform.

Het Databricks Model Serving biedt automatische optimalisatie voor LLM Serving. Dit elimineert de noodzaak van handmatige configuratie, wat leidt tot hoogwaardige resultaten. Databricks beweert dat dit het eerste serverloze GPU-product is dat is gebaseerd op een verenigd data- en AI-platform. Het stelt gebruikers in staat om General Artificial Intelligence (GenAI)-applicaties soepel te ontwerpen en implementeren binnen één platform, waardoor alle stappen worden gefaciliteerd, van gegevensopname tot modelimplementatie en monitoring.

Met Databricks Model Serving wordt het implementeren van AI-modellen een fluitje van een cent, zelfs voor gebruikers die geen uitgebreide kennis van de infrastructuur hebben. Gebruikers krijgen de veelzijdigheid door talloze modellen in te zetten, waaronder modellen die zijn gebaseerd op natuurlijke taal, visie, audio, tabellarische of aangepaste modellen, ongeacht hun trainingsmethode, of deze nu helemaal opnieuw is opgebouwd, open-source is of is verfijnd met bedrijfseigen gegevens.

Om het proces te starten, moeten gebruikers hun model registreren bij MLflow, waarna Databricks Model Serving een container op productieniveau zal maken, compleet met GPU-bibliotheken zoals CUDA, en deze zal implementeren op serverloze GPU's. Deze volledig beheerde service zorgt voor alles, van instancebeheer, onderhoud van versiecompatibiliteit, patchupdates en zelfs automatisch aanpassen van instances die congruent zijn met de verkeersstromen, wat leidt tot aanzienlijke besparingen op infrastructuurkosten terwijl de prestaties en latentie worden geoptimaliseerd.

Naast de lancering van de GPU- en LLM-ondersteuning heeft Databricks Model Serving upgrades geïntroduceerd voor een efficiëntere weergave van grote taalmodellen, wat resulteert in een aanzienlijke vermindering van de latentie en kosten, tot een factor 3-5x. Om deze geoptimaliseerde LLM-serving te gebruiken, hoeft u alleen maar het model en de bijbehorende gewichten op te geven. Databricks behandelt de overige aspecten om optimale modelprestaties te garanderen.

Dit proces ontlast gebruikers van het omgaan met ingewikkelde modeloptimalisaties op laag niveau, waardoor ze zich kunnen concentreren op de integratie van LLM in hun applicatie. Momenteel optimaliseert Databricks Model Serving automatisch MPT- en Llama2-modellen met plannen in de pijplijn om de ondersteuning in de toekomst uit te breiden naar meer modellen.

AppMaster, een platform zonder code , staat ook bekend om zijn krachtige functies bij het verwerken van backend-, web- en mobiele applicaties. AppMaster biedt een geïntegreerde ontwikkelomgeving en vereenvoudigt het proces van het bouwen en implementeren van applicaties, waardoor het een sterke speler wordt op de no-code markt.

Gerelateerde berichten

Samsung onthult Galaxy A55 met innovatieve beveiliging en premium build
Samsung onthult Galaxy A55 met innovatieve beveiliging en premium build
Samsung breidt zijn middenklasse-assortiment uit met de introductie van de Galaxy A55 en A35, met Knox Vault-beveiliging en verbeterde ontwerpelementen, waardoor het segment vlaggenschipkwaliteiten krijgt.
Cloudflare onthult firewall voor AI om grote taalmodellen te beschermen
Cloudflare onthult firewall voor AI om grote taalmodellen te beschermen
Cloudflare gaat een stap verder met Firewall for AI, een geavanceerde WAF die is ontworpen om potentieel misbruik gericht op grote taalmodellen preventief te identificeren en te dwarsbomen.
ChatGPT van OpenAI spreekt nu: de toekomst van spraakinteractieve AI
ChatGPT van OpenAI spreekt nu: de toekomst van spraakinteractieve AI
ChatGPT heeft een mijlpaalfunctie bereikt met de uitrol van spraakmogelijkheden door OpenAI. Gebruikers kunnen nu genieten van handsfree interactie terwijl ChatGPT de reacties hardop voorleest op iOS, Android en internet.
Ga gratis aan de slag
Geïnspireerd om dit zelf te proberen?

De beste manier om de kracht van AppMaster te begrijpen, is door het zelf te zien. Maak binnen enkele minuten uw eigen aanvraag met een gratis abonnement

Breng uw ideeën tot leven