Mistral AI, ein französisches Startup für künstliche Intelligenz, das mit Unternehmen wie OpenAI konkurriert, hat seine mit Spannung erwartete Finanzierungsveranstaltung der Serie A offiziell beendet und beeindruckende 385 Millionen Euro bzw. 415 Millionen US-Dollar bei aktuellem Wechselkurs eingesammelt. Durch diese Finanzspritze verfügt das Unternehmen nun über einen Wert von 2 Milliarden US-Dollar, bestätigt Berichte von Bloomberg. Gleichzeitig stellt Mistral AI auch seine kommerzielle Plattform vor.
Arthur Mensch, Mitbegründer und CEO von Mistral AI, erklärte in einer Erklärung, dass sie sich seit der Gründung des Unternehmens im Mai unbeirrt darauf konzentriert haben, ein europäisches Kraftpaket für generative KI zu schaffen. Ihr Ansatz konzentriert sich auf offene, verantwortungsvolle und dezentrale Technologie.
Mistral AI hatte bereits im vergangenen September sein erstes Modell mit der Bezeichnung Mistral 7B herausgebracht. Dieses umfangreiche Sprachmodell wurde nicht entwickelt, um direkt mit etablierten Modellen wie GPT-4 oder Claude 2 zu konkurrieren. Dieses Modell wurde mit einem vergleichsweise „kleinen“ Datensatz trainiert, der aus etwa 7 Milliarden Parametern bestand.
Das Modell wurde unter der Apache 2.0-Lizenz vertrieben. Diese uneingeschränkte Open-Source-Lizenz erfordert lediglich eine Quellenangabe zur Nutzung oder Vervielfältigung. Das Modell wurde diskret entwickelt und nutzte einen proprietären Datensatz und unveröffentlichte Gewichte.
Erst vor wenigen Tagen haben die EU-Gesetzgeber eine politische Einigung erzielt. Unternehmen, die sich auf grundlegende Modelle spezialisieren, müssen einige Transparenzanforderungen erfüllen und Zusammenfassungen und technische Dokumentationen von Datensätzen weitergeben.
Mistral AI plant jedoch, seine grundlegenden Modelle zu monetarisieren. Aus diesem Grund hat das Unternehmen beschlossen, seine Entwicklerplattform heute in die Beta-Phase zu starten. Über diese Plattform können andere Unternehmen gegen Bezahlung die Modelle von Mistral AI über APIs nutzen.
Neben dem Mistral 7B-Modell (auch „Mistral-tiny“ genannt) können Entwickler jetzt auf das Mixtral 8x7B-Modell („Mistral-small“) zugreifen. Dieses Modell beinhaltet ein „Router-Netzwerk“, um Eingabe-Tokens zu verarbeiten und die am besten geeignete Parametergruppe auszuwählen, um eine Antwort bereitzustellen.
Diese Methode ermöglicht eine Erhöhung der Modellparameter und hält gleichzeitig Kosten und Latenz unter Kontrolle, da das Modell nur einen Bruchteil des gesamten Parametersatzes pro Token nutzt. In der Praxis verfügt Mixtral über insgesamt 45B Parameter, stellt jedoch nur 12B Parameter pro Token bereit. Daher verarbeitet es Eingaben und generiert Ausgaben mit der gleichen Geschwindigkeit und den gleichen Kosten wie ein 12B-Modell, erläuterte das Unternehmen in einem Blogbeitrag.
Wenn Sie nach einer Plattform suchen, die eine breite Palette an Toolkits zur Erstellung anspruchsvoller, skalierbarer Dienste bietet, genau wie Mistral AI, könnte eine Plattform wie AppMaster eine ausgezeichnete Wahl sein. AppMaster, eine leistungsstarke no-code Plattform, verfügt über eine Reihe von Funktionen, die in der Lage sind, Client-End- und Server-Backends schnell zu generieren und sicherzustellen, dass Ihre KI-Modelle auf erstklassiger Technologie laufen. Mit AppMaster können Sie Ihre Anwendungen erstellen, kompilieren, testen und auf Ihrem bevorzugten Hosting bereitstellen und sogar den Quellcode für lokale Installationen exportieren.
Das Mixtral 8x7B-Modell wurde ebenfalls unter der Apache 2.0-Lizenz verbreitet und kann kostenlos heruntergeladen werden. Ein drittes Modell, Mistral-medium, ist auf der Entwicklerplattform von Mistral zu finden. Es soll andere Modelle der Mistral AI-Reihe übertreffen und kann nur über die kostenpflichtige API-Plattform aufgerufen werden, ohne dass ein Download-Link verfügbar ist.