Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

Databricks เปิดตัวการสนับสนุนการเพิ่มประสิทธิภาพ GPU และ LLM สำหรับการให้บริการโมเดล Databricks

Databricks เปิดตัวการสนับสนุนการเพิ่มประสิทธิภาพ GPU และ LLM สำหรับการให้บริการโมเดล Databricks

ในความเคลื่อนไหวเพื่อเปลี่ยนแปลงการใช้งานโมเดล AI อย่างรุนแรง Databricks ได้เปิดตัวตัวอย่างสาธารณะของการสนับสนุนการปรับแต่ง GPU และ LLM สำหรับ Databricks Model Serving ฟีเจอร์ที่เป็นนวัตกรรมนี้ปูทางไปสู่การใช้งานโมเดล AI ที่หลากหลาย เช่น โมเดลภาษาขนาดใหญ่ (LLM) และโมเดลวิชั่น บนแพลตฟอร์ม Lakehouse

Databricks Model Serving นำเสนอการเพิ่มประสิทธิภาพอัตโนมัติสำหรับ LLM Serving ซึ่งช่วยลดความจำเป็นในการกำหนดค่าด้วยตนเอง นำไปสู่ผลลัพธ์ที่มีประสิทธิภาพสูง Databricks อ้างว่านี่เป็นผลิตภัณฑ์ที่ให้บริการ GPU แบบไร้เซิร์ฟเวอร์ตัวแรกที่ใช้ข้อมูลและแพลตฟอร์ม AI ที่เป็นหนึ่งเดียว ช่วยให้ผู้ใช้สามารถออกแบบและใช้งานแอปพลิเคชันปัญญาประดิษฐ์ทั่วไป (GenAI) ได้อย่างราบรื่นภายในแพลตฟอร์มเดียว อำนวยความสะดวกทุกขั้นตอนตั้งแต่การนำเข้าข้อมูลไปจนถึงการปรับใช้โมเดลและการตรวจสอบ

ด้วย Databricks Model Serving การปรับใช้โมเดล AI กลายเป็นเรื่องง่าย แม้ว่าผู้ใช้จะขาดความรู้ด้านโครงสร้างพื้นฐานที่ครอบคลุมก็ตาม ผู้ใช้จะมีความคล่องตัวในการปรับใช้โมเดลมากมาย รวมถึงโมเดลที่ใช้ภาษาธรรมชาติ การมองเห็น เสียง ตาราง หรือแบบกำหนดเอง โดยไม่คำนึงถึงวิธีการฝึกอบรม ไม่ว่าจะเป็นตั้งแต่เริ่มต้น โอเพ่นซอร์ส หรือปรับแต่งด้วยข้อมูลที่เป็นกรรมสิทธิ์

ในการเริ่มต้นกระบวนการ ผู้ใช้จำเป็นต้องลงทะเบียนโมเดลของตนกับ MLflow โดยโพสต์ว่า Databricks Model Serving ใดจะสร้างคอนเทนเนอร์ระดับการผลิตพร้อมไลบรารี GPU เช่น CUDA และปรับใช้บน GPU แบบไร้เซิร์ฟเวอร์ บริการที่มีการจัดการเต็มรูปแบบนี้จะดูแลทุกอย่างตั้งแต่การจัดการอินสแตนซ์ การบำรุงรักษาความเข้ากันได้ของเวอร์ชัน การอัปเดตแพตช์ และแม้แต่ปรับขนาดอินสแตนซ์อัตโนมัติให้สอดคล้องกับโฟลว์การรับส่งข้อมูล ซึ่งนำไปสู่การประหยัดค่าใช้จ่ายด้านโครงสร้างพื้นฐานได้อย่างมากในขณะที่เพิ่มประสิทธิภาพและเวลาแฝง

นอกเหนือจากการเปิดตัวการรองรับ GPU และ LLM แล้ว Databricks Model Serving ยังได้นำเสนอการอัพเกรดเพื่อการให้บริการโมเดลภาษาขนาดใหญ่ที่มีประสิทธิภาพมากขึ้น ส่งผลให้เวลาในการตอบสนองและต้นทุนลดลงอย่างมาก มากถึง 3-5 เท่า สำหรับการใช้การแสดง LLM ที่ปรับให้เหมาะสมแล้ว สิ่งที่ต้องทำคือระบุโมเดลและน้ำหนักที่เกี่ยวข้อง Databricks ครอบคลุมประเด็นที่เหลือเพื่อให้แน่ใจว่าโมเดลมีประสิทธิภาพสูงสุด

กระบวนการนี้แบ่งเบาภาระผู้ใช้จากการจัดการความซับซ้อนในการเพิ่มประสิทธิภาพโมเดลระดับต่ำ ทำให้พวกเขามุ่งเน้นไปที่การรวม LLM เข้ากับแอปพลิเคชันของตนได้ ปัจจุบัน Databricks Model Serving เพิ่มประสิทธิภาพโมเดล MPT และ Llama2 โดยอัตโนมัติโดยมีแผนในขั้นตอนการทำงานเพื่อขยายการรองรับไปยังโมเดลอื่นๆ ในอนาคต

AppMaster ซึ่งเป็นแพลตฟอร์ม ที่ไม่ต้องเขียนโค้ด มีชื่อเสียงในด้านคุณสมบัติอันทรงพลังในการจัดการแบ็กเอนด์ เว็บ และแอปพลิเคชันมือถือ AppMaster นำเสนอสภาพแวดล้อมการพัฒนาแบบครบวงจรทำให้กระบวนการสร้างและปรับใช้แอปพลิเคชันง่ายขึ้น ทำให้ AppMaster เป็นผู้เล่นที่แข็งแกร่งในตลาด no-code

กระทู้ที่เกี่ยวข้อง

AppMaster ที่ BubbleCon 2024: สำรวจเทรนด์ No-Code
AppMaster ที่ BubbleCon 2024: สำรวจเทรนด์ No-Code
AppMaster เข้าร่วมงาน BubbleCon 2024 ในนิวยอร์กซิตี้ เพื่อรับข้อมูลเชิงลึก ขยายเครือข่าย และสำรวจโอกาสในการขับเคลื่อนการสร้างสรรค์นวัตกรรมในพื้นที่การพัฒนาแบบไร้โค้ด
สรุป FFDC 2024: ข้อมูลเชิงลึกที่สำคัญจากการประชุมนักพัฒนา FlutterFlow ในนิวยอร์ก
สรุป FFDC 2024: ข้อมูลเชิงลึกที่สำคัญจากการประชุมนักพัฒนา FlutterFlow ในนิวยอร์ก
FFDC 2024 จุดประกายให้เมืองนิวยอร์กซิตี้ด้วยการนำเสนอข้อมูลเชิงลึกที่ล้ำสมัยเกี่ยวกับการพัฒนาแอพด้วย FlutterFlow ให้กับนักพัฒนา ด้วยเซสชันที่นำโดยผู้เชี่ยวชาญ การอัปเดตพิเศษ และการสร้างเครือข่ายที่ไม่มีใครเทียบได้ นับเป็นงานที่ไม่ควรพลาด!
การเลิกจ้างพนักงานด้านเทคโนโลยีในปี 2024: คลื่นลูกใหม่ที่ส่งผลกระทบต่อนวัตกรรม
การเลิกจ้างพนักงานด้านเทคโนโลยีในปี 2024: คลื่นลูกใหม่ที่ส่งผลกระทบต่อนวัตกรรม
จากการเลิกจ้างพนักงาน 60,000 คนใน 254 บริษัท รวมถึงบริษัทยักษ์ใหญ่เช่น Tesla และ Amazon ทำให้ปี 2024 จะเห็นการเลิกจ้างพนักงานในสายเทคโนโลยีอย่างต่อเนื่อง ซึ่งส่งผลต่อภูมิทัศน์ของนวัตกรรม
เริ่มต้นฟรี
แรงบันดาลใจที่จะลองสิ่งนี้ด้วยตัวเอง?

วิธีที่ดีที่สุดที่จะเข้าใจถึงพลังของ AppMaster คือการได้เห็นมันด้วยตัวคุณเอง สร้างแอปพลิเคชันของคุณเองในไม่กี่นาทีด้วยการสมัครสมาชิกฟรี

นำความคิดของคุณมาสู่ชีวิต