Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

Databricks представляет поддержку оптимизации GPU и LLM для обслуживания моделей Databricks

Databricks представляет поддержку оптимизации GPU и LLM для обслуживания моделей Databricks

В стремлении радикально изменить развертывание моделей искусственного интеллекта компания Databricks выпустила общедоступную предварительную версию поддержки оптимизации графических процессоров и LLM для Databricks Model Serving. Эта инновационная функция открывает путь к развертыванию множества моделей искусственного интеллекта, таких как модели большого языка (LLM) и модели Vision, на платформе Lakehouse.

Databricks Model Serving предлагает автоматическую оптимизацию для обслуживания LLM. Это устраняет необходимость ручной настройки, что приводит к повышению производительности. Databricks утверждает, что это первый бессерверный продукт для обслуживания графических процессоров, основанный на единой платформе данных и искусственного интеллекта. Оно позволяет пользователям плавно разрабатывать и внедрять приложения общего искусственного интеллекта (GenAI) на одной платформе, упрощая все этапы — от приема данных до развертывания модели и мониторинга.

Благодаря Databricks Model Serving развертывание моделей искусственного интеллекта становится проще даже для пользователей, не имеющих комплексных знаний об инфраструктуре. Пользователи получают возможность развертывать множество моделей, в том числе основанных на естественном языке, зрении, аудио, табличных или пользовательских моделях, независимо от их метода обучения, будь то с нуля, с открытым исходным кодом или с тонкой настройкой с использованием собственных данных.

Чтобы начать процесс, пользователям необходимо зарегистрировать свою модель в MLflow, после чего Databricks Model Serving создаст контейнер производственного уровня с библиотеками графических процессоров, такими как CUDA, и развернет его на бессерверных графических процессорах. Эта полностью управляемая служба заботится обо всем: от управления экземплярами, обеспечения совместимости версий, обновлений исправлений и даже автоматической настройки масштабирования экземпляров в соответствии с потоками трафика, что приводит к существенной экономии расходов на инфраструктуру при одновременной оптимизации производительности и задержки.

Наряду с запуском поддержки графического процессора и LLM, Databricks Model Serving представила обновления для более эффективного обслуживания больших языковых моделей, что привело к значительному сокращению задержек и затрат — в 3–5 раз. Для использования этого оптимизированного обслуживания LLM все, что нужно сделать, — это предоставить модель и соответствующие веса. Databricks охватывает оставшиеся аспекты, чтобы обеспечить оптимальную производительность модели.

Этот процесс освобождает пользователей от необходимости решать тонкости низкоуровневой оптимизации моделей, позволяя им сосредоточиться на интеграции LLM в свое приложение. В настоящее время Databricks Model Serving автоматически оптимизирует модели MPT и Llama2, и в будущем планируется расширить поддержку большего количества моделей.

AppMaster, no-code платформа, также известна своими мощными функциями обработки серверных, веб- и мобильных приложений. Предлагая интегрированную среду разработки, AppMaster упрощает процесс создания и развертывания приложений, что делает его сильным игроком на рынке no-code.

Похожие статьи

AppMaster на BubbleCon 2024: изучение тенденций No-Code
AppMaster на BubbleCon 2024: изучение тенденций No-Code
AppMaster принял участие в BubbleCon 2024 в Нью-Йорке, где получил новые знания, расширил связи и изучил возможности внедрения инноваций в сфере разработки без кода.
Итоги FFDC 2024: основные выводы с конференции разработчиков FlutterFlow в Нью-Йорке
Итоги FFDC 2024: основные выводы с конференции разработчиков FlutterFlow в Нью-Йорке
Конференция FFDC 2024 (Нью-Йорк) предоставила разработчикам передовые идеи в разработке приложений с FlutterFlow. Сессии под руководством экспертов, эксклюзивные обновления и обмен опытом — такое событие мы не могли пропустить!
Увольнения в сфере технологий в 2024 году: продолжающаяся волна, влияющая на инновации
Увольнения в сфере технологий в 2024 году: продолжающаяся волна, влияющая на инновации
В 2024 году, когда в 254 компаниях, включая таких гигантов, как Tesla и Amazon, будет сокращено 60 000 рабочих мест, продолжится волна увольнений в сфере технологий, которая изменит ландшафт инноваций.
Начните бесплатно
Хотите попробовать сами?

Лучший способ понять всю мощь AppMaster - это увидеть все своими глазами. Создайте собственное приложение за считанные минуты с бесплатной подпиской AppMaster

Воплотите свои идеи в жизнь