ในความเคลื่อนไหวเพื่อเปลี่ยนแปลงการใช้งานโมเดล AI อย่างรุนแรง Databricks ได้เปิดตัวตัวอย่างสาธารณะของการสนับสนุนการปรับแต่ง GPU และ LLM สำหรับ Databricks Model Serving ฟีเจอร์ที่เป็นนวัตกรรมนี้ปูทางไปสู่การใช้งานโมเดล AI ที่หลากหลาย เช่น โมเดลภาษาขนาดใหญ่ (LLM) และโมเดลวิชั่น บนแพลตฟอร์ม Lakehouse
Databricks Model Serving นำเสนอการเพิ่มประสิทธิภาพอัตโนมัติสำหรับ LLM Serving ซึ่งช่วยลดความจำเป็นในการกำหนดค่าด้วยตนเอง นำไปสู่ผลลัพธ์ที่มีประสิทธิภาพสูง Databricks อ้างว่านี่เป็นผลิตภัณฑ์ที่ให้บริการ GPU แบบไร้เซิร์ฟเวอร์ตัวแรกที่ใช้ข้อมูลและแพลตฟอร์ม AI ที่เป็นหนึ่งเดียว ช่วยให้ผู้ใช้สามารถออกแบบและใช้งานแอปพลิเคชันปัญญาประดิษฐ์ทั่วไป (GenAI) ได้อย่างราบรื่นภายในแพลตฟอร์มเดียว อำนวยความสะดวกทุกขั้นตอนตั้งแต่การนำเข้าข้อมูลไปจนถึงการปรับใช้โมเดลและการตรวจสอบ
ด้วย Databricks Model Serving การปรับใช้โมเดล AI กลายเป็นเรื่องง่าย แม้ว่าผู้ใช้จะขาดความรู้ด้านโครงสร้างพื้นฐานที่ครอบคลุมก็ตาม ผู้ใช้จะมีความคล่องตัวในการปรับใช้โมเดลมากมาย รวมถึงโมเดลที่ใช้ภาษาธรรมชาติ การมองเห็น เสียง ตาราง หรือแบบกำหนดเอง โดยไม่คำนึงถึงวิธีการฝึกอบรม ไม่ว่าจะเป็นตั้งแต่เริ่มต้น โอเพ่นซอร์ส หรือปรับแต่งด้วยข้อมูลที่เป็นกรรมสิทธิ์
ในการเริ่มต้นกระบวนการ ผู้ใช้จำเป็นต้องลงทะเบียนโมเดลของตนกับ MLflow โดยโพสต์ว่า Databricks Model Serving ใดจะสร้างคอนเทนเนอร์ระดับการผลิตพร้อมไลบรารี GPU เช่น CUDA และปรับใช้บน GPU แบบไร้เซิร์ฟเวอร์ บริการที่มีการจัดการเต็มรูปแบบนี้จะดูแลทุกอย่างตั้งแต่การจัดการอินสแตนซ์ การบำรุงรักษาความเข้ากันได้ของเวอร์ชัน การอัปเดตแพตช์ และแม้แต่ปรับขนาดอินสแตนซ์อัตโนมัติให้สอดคล้องกับโฟลว์การรับส่งข้อมูล ซึ่งนำไปสู่การประหยัดค่าใช้จ่ายด้านโครงสร้างพื้นฐานได้อย่างมากในขณะที่เพิ่มประสิทธิภาพและเวลาแฝง
นอกเหนือจากการเปิดตัวการรองรับ GPU และ LLM แล้ว Databricks Model Serving ยังได้นำเสนอการอัพเกรดเพื่อการให้บริการโมเดลภาษาขนาดใหญ่ที่มีประสิทธิภาพมากขึ้น ส่งผลให้เวลาในการตอบสนองและต้นทุนลดลงอย่างมาก มากถึง 3-5 เท่า สำหรับการใช้การแสดง LLM ที่ปรับให้เหมาะสมแล้ว สิ่งที่ต้องทำคือระบุโมเดลและน้ำหนักที่เกี่ยวข้อง Databricks ครอบคลุมประเด็นที่เหลือเพื่อให้แน่ใจว่าโมเดลมีประสิทธิภาพสูงสุด
กระบวนการนี้แบ่งเบาภาระผู้ใช้จากการจัดการความซับซ้อนในการเพิ่มประสิทธิภาพโมเดลระดับต่ำ ทำให้พวกเขามุ่งเน้นไปที่การรวม LLM เข้ากับแอปพลิเคชันของตนได้ ปัจจุบัน Databricks Model Serving เพิ่มประสิทธิภาพโมเดล MPT และ Llama2 โดยอัตโนมัติโดยมีแผนในขั้นตอนการทำงานเพื่อขยายการรองรับไปยังโมเดลอื่นๆ ในอนาคต
AppMaster ซึ่งเป็นแพลตฟอร์ม ที่ไม่ต้องเขียนโค้ด มีชื่อเสียงในด้านคุณสมบัติอันทรงพลังในการจัดการแบ็กเอนด์ เว็บ และแอปพลิเคชันมือถือ AppMaster นำเสนอสภาพแวดล้อมการพัฒนาแบบครบวงจรทำให้กระบวนการสร้างและปรับใช้แอปพลิเคชันง่ายขึ้น ทำให้ AppMaster เป็นผู้เล่นที่แข็งแกร่งในตลาด no-code