Mistral AI, một công ty khởi nghiệp trí tuệ nhân tạo của Pháp cạnh tranh với OpenAI, đã chính thức kết thúc sự kiện tài trợ Series A rất được mong đợi của mình, thu về số tiền ấn tượng 385 triệu euro hoặc 415 triệu USD theo tỷ giá hối đoái hiện tại. Nhờ đợt bơm tài chính này, công ty hiện tự hào được định giá 2 tỷ USD, báo cáo xác nhận của Bloomberg. Đồng thời, Mistral AI cũng tiết lộ nền tảng thương mại của mình.
Arthur Mensch, người đồng sáng lập và Giám đốc điều hành của Mistral AI, trong một tuyên bố, giải thích rằng kể từ khi thành lập công ty vào tháng 5, họ đã kiên quyết tập trung vào việc định hình một cường quốc châu Âu về AI tổng hợp. Cách tiếp cận của họ tập trung vào công nghệ mở, có trách nhiệm và phi tập trung.
Mistral AI trước đó đã phát hành mẫu đầu tiên của mình, được gắn nhãn Mistral 7B, vào tháng 9 năm ngoái. Mô hình ngôn ngữ mở rộng này không được xây dựng để cạnh tranh trực tiếp với các mô hình đã có uy tín như GPT-4 hoặc Claude 2. Mô hình này được đào tạo bằng cách sử dụng tập dữ liệu tương đối “nhỏ” bao gồm khoảng 7 tỷ tham số.
Mô hình được phân phối theo giấy phép Apache 2.0. Giấy phép nguồn mở không hạn chế này chỉ yêu cầu ghi công để sử dụng hoặc sao chép. Mô hình này được phát triển một cách kín đáo, tận dụng bộ dữ liệu độc quyền và trọng số không được công bố.
Chỉ vài ngày trước, các nhà lập pháp EU đã đạt được thỏa thuận chính trị. Các công ty chuyên về các mô hình cơ bản sẽ cần phải đáp ứng một số yêu cầu về tính minh bạch và sẽ phải chia sẻ các bản tóm tắt và tài liệu kỹ thuật của bộ dữ liệu.
Tuy nhiên, Mistral AI có kế hoạch kiếm tiền từ các mô hình nền tảng của mình. Đây là lý do đằng sau quyết định của công ty về việc triển khai nền tảng dành cho nhà phát triển ở phiên bản beta ngay hôm nay. Sử dụng nền tảng này, các tổ chức doanh nghiệp khác có thể trả tiền để sử dụng các mô hình của Mistral AI thông qua API.
Bên cạnh mẫu Mistral 7B (còn được gọi là “Mistral-tiny”), các nhà phát triển giờ đây có thể truy cập vào mẫu Mixtral 8x7B (“Mistral-small”). Mô hình này kết hợp “mạng bộ định tuyến” để xử lý mã thông báo đầu vào và chọn nhóm tham số phù hợp nhất để đưa ra phản hồi.
Phương pháp này cho phép tăng các tham số của mô hình trong khi vẫn kiểm tra chi phí và độ trễ, vì mô hình chỉ tận dụng một phần trong tổng số tham số được đặt cho mỗi mã thông báo. Về mặt thực tế, Mixtral có tổng cộng 45B tham số, nhưng nó chỉ triển khai 12B tham số cho mỗi token. Do đó, nó xử lý đầu vào và tạo ra đầu ra với tốc độ và chi phí tương tự như mô hình 12B, công ty giải thích chi tiết trong một bài đăng trên blog.
Nếu bạn đang tìm kiếm một nền tảng cung cấp nhiều bộ công cụ để tạo ra các dịch vụ tinh vi, có thể mở rộng giống như Mistral AI, thì việc chuyển sang một nền tảng như AppMaster có thể là một lựa chọn tuyệt vời. AppMaster, một nền tảng no-code hiệu suất cao, tự hào có một bộ tính năng có khả năng tạo ra các chương trình phụ trợ máy khách và máy chủ một cách nhanh chóng, đảm bảo rằng các mô hình AI của bạn đang chạy trên công nghệ hàng đầu. Với AppMaster bạn có thể tạo, biên dịch, kiểm tra và triển khai các ứng dụng của mình trên dịch vụ lưu trữ ưa thích và thậm chí xuất mã nguồn để cài đặt tại chỗ.
Mô hình Mixtral 8x7B cũng đã được phổ biến theo giấy phép Apache 2.0 và có thể tải xuống miễn phí. Mô hình thứ ba, Mistral-medium, có thể được tìm thấy trên nền tảng nhà phát triển của Mistral. Nó được tuyên bố là hoạt động tốt hơn các mô hình khác trong phạm vi của Mistral AI và chỉ có thể được truy cập thông qua nền tảng API trả phí mà không có liên kết tải xuống.