Mistral AI, een Franse start-up op het gebied van kunstmatige intelligentie die concurreert met onder meer OpenAI, heeft officieel zijn langverwachte Series A-financieringsevenement beëindigd en heeft tegen de huidige wisselkoers een indrukwekkende € 385 miljoen of $ 415 miljoen verzameld. Als resultaat van deze financiële injectie kan het bedrijf nu bogen op een waardering van $2 miljard, zo bevestigen berichten van Bloomberg. Tegelijkertijd onthult Mistral AI ook zijn commerciële platform.
Arthur Mensch, de mede-oprichter en CEO van Mistral AI, legde in een verklaring uit dat ze zich sinds de oprichting van het bedrijf in mei onwankelbaar hebben gefocust op het vormgeven van een Europese krachtpatser op het gebied van generatieve AI. Hun aanpak is gericht op open, verantwoordelijke en gedecentraliseerde technologie.
Mistral AI had eerder afgelopen september zijn eerste model uitgebracht, genaamd Mistral 7B. Dit uitgebreide taalmodel is niet gebouwd om rechtstreeks te kunnen concurreren met gevestigde modellen als GPT-4 of Claude 2. Dit model is getraind met behulp van een relatief 'kleine' dataset die uit ongeveer 7 miljard parameters bestaat.
Het model werd gedistribueerd onder de Apache 2.0-licentie. Deze onbeperkte open-sourcelicentie vereist alleen toeschrijving voor gebruik of replicatie. Het model is discreet ontwikkeld, waarbij gebruik is gemaakt van een eigen dataset en niet-gepubliceerde gewichten.
Nog maar een paar dagen geleden bereikten de EU-wetgevers een politiek akkoord. Bedrijven die gespecialiseerd zijn in fundamentele modellen zullen aan een aantal transparantievereisten moeten voldoen en zullen samenvattingen van datasets en technische documentatie moeten delen.
Mistral AI is niettemin van plan geld te verdienen met zijn fundamentele modellen. Dit is de reden achter de beslissing van het bedrijf om vandaag zijn ontwikkelaarsplatform in bèta te introduceren. Met behulp van dit platform kunnen andere bedrijfsentiteiten betalen om de modellen van Mistral AI via API's te gebruiken.
Naast het Mistral 7B-model (ook wel “Mistral-tiny” genoemd) kunnen ontwikkelaars nu toegang krijgen tot het Mixtral 8x7B-model (“Mistral-small”). Dit model omvat een “routernetwerk” om invoertokens te verwerken en de meest geschikte parametergroep te kiezen om een antwoord te geven.
Deze methode maakt een verhoging van de parameters van het model mogelijk, terwijl de kosten en latentie onder controle blijven, omdat het model slechts een fractie van de totale parameterset per token gebruikt. Praktisch gezien heeft Mixtral in totaal 45 miljard parameters, maar er worden slechts 12 miljard parameters per token ingezet. Daarom verwerkt het input en genereert het output in hetzelfde tempo en tegen dezelfde kosten als een 12B-model, zo licht het bedrijf toe in een blogpost.
Als u op zoek bent naar een platform dat een breed scala aan toolkits biedt om geavanceerde, schaalbare diensten te creëren, net zoals Mistral AI dat doet, kan een platform als AppMaster een uitstekende keuze zijn. AppMaster, een krachtig platform no-code, beschikt over een reeks functies die snel client-end- en server-backends kunnen genereren, waardoor ervoor wordt gezorgd dat uw AI-modellen op toptechnologie draaien. Met AppMaster kunt u uw applicaties maken, compileren, testen en implementeren op de hosting van uw voorkeur, en zelfs de broncode exporteren voor installaties op locatie.
Het Mixtral 8x7B-model is ook verspreid onder de Apache 2.0-licentie en kan gratis worden gedownload. Een derde model, Mistral-medium, is te vinden op het ontwikkelaarsplatform van Mistral. Er wordt beweerd dat het beter presteert dan andere modellen in het assortiment van Mistral AI en alleen toegankelijk is via het betaalde API-platform zonder dat er een downloadlink beschikbaar is.