Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

Databricks เปิดตัวการสนับสนุนการเพิ่มประสิทธิภาพ GPU และ LLM สำหรับการให้บริการโมเดล Databricks

Databricks เปิดตัวการสนับสนุนการเพิ่มประสิทธิภาพ GPU และ LLM สำหรับการให้บริการโมเดล Databricks

ในความเคลื่อนไหวเพื่อเปลี่ยนแปลงการใช้งานโมเดล AI อย่างรุนแรง Databricks ได้เปิดตัวตัวอย่างสาธารณะของการสนับสนุนการปรับแต่ง GPU และ LLM สำหรับ Databricks Model Serving ฟีเจอร์ที่เป็นนวัตกรรมนี้ปูทางไปสู่การใช้งานโมเดล AI ที่หลากหลาย เช่น โมเดลภาษาขนาดใหญ่ (LLM) และโมเดลวิชั่น บนแพลตฟอร์ม Lakehouse

Databricks Model Serving นำเสนอการเพิ่มประสิทธิภาพอัตโนมัติสำหรับ LLM Serving ซึ่งช่วยลดความจำเป็นในการกำหนดค่าด้วยตนเอง นำไปสู่ผลลัพธ์ที่มีประสิทธิภาพสูง Databricks อ้างว่านี่เป็นผลิตภัณฑ์ที่ให้บริการ GPU แบบไร้เซิร์ฟเวอร์ตัวแรกที่ใช้ข้อมูลและแพลตฟอร์ม AI ที่เป็นหนึ่งเดียว ช่วยให้ผู้ใช้สามารถออกแบบและใช้งานแอปพลิเคชันปัญญาประดิษฐ์ทั่วไป (GenAI) ได้อย่างราบรื่นภายในแพลตฟอร์มเดียว อำนวยความสะดวกทุกขั้นตอนตั้งแต่การนำเข้าข้อมูลไปจนถึงการปรับใช้โมเดลและการตรวจสอบ

ด้วย Databricks Model Serving การปรับใช้โมเดล AI กลายเป็นเรื่องง่าย แม้ว่าผู้ใช้จะขาดความรู้ด้านโครงสร้างพื้นฐานที่ครอบคลุมก็ตาม ผู้ใช้จะมีความคล่องตัวในการปรับใช้โมเดลมากมาย รวมถึงโมเดลที่ใช้ภาษาธรรมชาติ การมองเห็น เสียง ตาราง หรือแบบกำหนดเอง โดยไม่คำนึงถึงวิธีการฝึกอบรม ไม่ว่าจะเป็นตั้งแต่เริ่มต้น โอเพ่นซอร์ส หรือปรับแต่งด้วยข้อมูลที่เป็นกรรมสิทธิ์

ในการเริ่มต้นกระบวนการ ผู้ใช้จำเป็นต้องลงทะเบียนโมเดลของตนกับ MLflow โดยโพสต์ว่า Databricks Model Serving ใดจะสร้างคอนเทนเนอร์ระดับการผลิตพร้อมไลบรารี GPU เช่น CUDA และปรับใช้บน GPU แบบไร้เซิร์ฟเวอร์ บริการที่มีการจัดการเต็มรูปแบบนี้จะดูแลทุกอย่างตั้งแต่การจัดการอินสแตนซ์ การบำรุงรักษาความเข้ากันได้ของเวอร์ชัน การอัปเดตแพตช์ และแม้แต่ปรับขนาดอินสแตนซ์อัตโนมัติให้สอดคล้องกับโฟลว์การรับส่งข้อมูล ซึ่งนำไปสู่การประหยัดค่าใช้จ่ายด้านโครงสร้างพื้นฐานได้อย่างมากในขณะที่เพิ่มประสิทธิภาพและเวลาแฝง

นอกเหนือจากการเปิดตัวการรองรับ GPU และ LLM แล้ว Databricks Model Serving ยังได้นำเสนอการอัพเกรดเพื่อการให้บริการโมเดลภาษาขนาดใหญ่ที่มีประสิทธิภาพมากขึ้น ส่งผลให้เวลาในการตอบสนองและต้นทุนลดลงอย่างมาก มากถึง 3-5 เท่า สำหรับการใช้การแสดง LLM ที่ปรับให้เหมาะสมแล้ว สิ่งที่ต้องทำคือระบุโมเดลและน้ำหนักที่เกี่ยวข้อง Databricks ครอบคลุมประเด็นที่เหลือเพื่อให้แน่ใจว่าโมเดลมีประสิทธิภาพสูงสุด

กระบวนการนี้แบ่งเบาภาระผู้ใช้จากการจัดการความซับซ้อนในการเพิ่มประสิทธิภาพโมเดลระดับต่ำ ทำให้พวกเขามุ่งเน้นไปที่การรวม LLM เข้ากับแอปพลิเคชันของตนได้ ปัจจุบัน Databricks Model Serving เพิ่มประสิทธิภาพโมเดล MPT และ Llama2 โดยอัตโนมัติโดยมีแผนในขั้นตอนการทำงานเพื่อขยายการรองรับไปยังโมเดลอื่นๆ ในอนาคต

AppMaster ซึ่งเป็นแพลตฟอร์ม ที่ไม่ต้องเขียนโค้ด มีชื่อเสียงในด้านคุณสมบัติอันทรงพลังในการจัดการแบ็กเอนด์ เว็บ และแอปพลิเคชันมือถือ AppMaster นำเสนอสภาพแวดล้อมการพัฒนาแบบครบวงจรทำให้กระบวนการสร้างและปรับใช้แอปพลิเคชันง่ายขึ้น ทำให้ AppMaster เป็นผู้เล่นที่แข็งแกร่งในตลาด no-code

กระทู้ที่เกี่ยวข้อง

เปิดเผย: บทบาทเริ่มต้นของ Google ในการสร้างแอป Android ตัวแรกของ Twitter
เปิดเผย: บทบาทเริ่มต้นของ Google ในการสร้างแอป Android ตัวแรกของ Twitter
ค้นพบเรื่องราวที่ไม่เคยบอกเล่าเกี่ยวกับการมีส่วนร่วมที่สำคัญของ Google ในการพัฒนาแอปโซเชียลหลักๆ เช่น Twitter สำหรับ Android ในช่วงเริ่มแรก
ข่าวที่น่าตื่นเต้น: เรากำลังเข้าสู่วาทกรรม!
ข่าวที่น่าตื่นเต้น: เรากำลังเข้าสู่วาทกรรม!
ชุมชน AppMaster กำลังจะเข้าสู่การสนทนา
Samsung เปิดตัว Galaxy A55 พร้อมนวัตกรรมความปลอดภัยและโครงสร้างระดับพรีเมียม
Samsung เปิดตัว Galaxy A55 พร้อมนวัตกรรมความปลอดภัยและโครงสร้างระดับพรีเมียม
Samsung ขยายกลุ่มผลิตภัณฑ์ระดับกลางด้วยการเปิดตัว Galaxy A55 และ A35 ที่มีการรักษาความปลอดภัยแบบ Knox Vault และองค์ประกอบการออกแบบที่ได้รับการอัปเกรด โดยผสมผสานกลุ่มนี้เข้ากับคุณสมบัติระดับเรือธง
เริ่มต้นฟรี
แรงบันดาลใจที่จะลองสิ่งนี้ด้วยตัวเอง?

วิธีที่ดีที่สุดที่จะเข้าใจถึงพลังของ AppMaster คือการได้เห็นมันด้วยตัวคุณเอง สร้างแอปพลิเคชันของคุณเองในไม่กี่นาทีด้วยการสมัครสมาชิกฟรี

นำความคิดของคุณมาสู่ชีวิต