Mistral AI, французский стартап в области искусственного интеллекта, который конкурирует с такими компаниями, как OpenAI, официально завершил свое долгожданное мероприятие по финансированию серии A, накопив впечатляющие 385 миллионов евро или 415 миллионов долларов США по текущему обменному курсу. В результате этого финансового вливания компания теперь может похвастаться оценкой в 2 миллиарда долларов, подтверждает сообщение Bloomberg. Одновременно с этим Mistral AI также представляет свою коммерческую платформу.
Артур Менш, соучредитель и генеральный директор Mistral AI, в своем заявлении объяснил, что с момента основания компании в мае они неуклонно сосредоточились на формировании европейской электростанции в области генеративного искусственного интеллекта. Их подход основан на открытых, ответственных и децентрализованных технологиях.
Mistral AI ранее выпустил свою первую модель под названием Mistral 7B в сентябре прошлого года. Эта обширная языковая модель не была создана для прямой конкуренции с устоявшимися моделями, такими как GPT-4 или Claude 2. Эта модель была обучена с использованием сравнительно «небольшого» набора данных, состоящего примерно из 7 миллиардов параметров.
Модель распространялась по лицензии Apache 2.0. Эта неограниченная лицензия с открытым исходным кодом требует только указания авторства для использования или тиражирования. Модель была разработана незаметно с использованием собственного набора данных и неопубликованных весов.
Всего несколько дней назад законодатели ЕС достигли политического соглашения. Компании, специализирующиеся на базовых моделях, должны будут соблюдать некоторые требования прозрачности и обмениваться сводками наборов данных и технической документацией.
Тем не менее, Mistral AI планирует монетизировать свои базовые модели. Это причина решения компании запустить сегодня бета-версию своей платформы для разработчиков. Используя эту платформу, другие юридические лица могут платить за использование моделей Mistral AI через API.
Наряду с моделью Mistral 7B (также называемой «Мистраль-маленький») разработчикам теперь доступна модель Mixtral 8x7B («Мистраль-маленький»). Эта модель включает в себя «сеть маршрутизации» для обработки входных токенов и выбора наиболее подходящей группы параметров для предоставления ответа.
Этот метод позволяет увеличить параметры модели, сохраняя при этом стоимость и задержку под контролем, поскольку модель использует только часть общего набора параметров для каждого токена. На практике Mixtral имеет в общей сложности 45 миллиардов параметров, но использует только 12 миллиардов параметров на каждый токен. Таким образом, он обрабатывает входные данные и генерирует выходные данные с той же скоростью и затратами, что и модель 12B, пояснила компания в своем блоге.
Если вы ищете платформу, предлагающую широкий набор инструментов для создания сложных, масштабируемых сервисов, как это делает Mistral AI, обращение к такой платформе, как AppMaster , может быть отличным выбором. AppMaster, высокопроизводительная платформа no-code, может похвастаться набором функций, позволяющих быстро создавать клиентские и серверные серверные части, гарантируя, что ваши модели искусственного интеллекта работают с использованием новейших технологий. С помощью AppMaster вы можете создавать, компилировать, тестировать и развертывать свои приложения на предпочитаемом вами хостинге и даже экспортировать исходный код для локальной установки.
Модель Mixtral 8x7B также распространяется под лицензией Apache 2.0 и может быть загружена бесплатно. Третью модель, Mistral-medium, можно найти на платформе разработчиков Mistral. Утверждается, что он превосходит другие модели в линейке Mistral AI, и доступ к нему возможен только через платную платформу API без доступной ссылки для скачивания.