Mistral a dévoilé un modèle hybride et multimodal ainsi qu'une nouvelle plateforme qui permet aux entreprises de créer des modèles personnalisés formés sur leurs propres données.
Le dernier modèle de Mistral AI dans la série « Small » entièrement open source tentera de consolider les capacités de ses modèles phares, selon la société.
Le « Mistral Small 4 » est un modèle hybride optimisé pour une variété de tâches, a déclaré la société française, alimenté par les forces de raisonnement du modèle « Magistral », les capacités multimodales de « Pixtral » et les bases de codage de « Devstral ». Les modèles « Small » sont conçus pour la prise d'instructions.
Le nouveau modèle multimodal est commercialisé auprès des développeurs souhaitant automatiser le codage, explorer les bases de code et coder des flux de travail agents. Les entreprises peuvent utiliser Small 4 pour les assistants de discussion généraux, l'analyse de documents et l'analyse multimodale, tandis que les chercheurs peuvent effectuer des tâches mathématiques, de recherche et d'autres tâches de raisonnement complexes.
Small 4 a un total de 119 milliards de paramètres, dont 6 milliards actifs par jeton. Il bascule automatiquement entre les capacités en fonction de la tâche, ce qui entraîne une réduction de 40 % du temps d'exécution de bout en bout et trois fois plus de requêtes par seconde par rapport à Mistral Small 3.
Mistral Small 4 avec son raisonnement correspond ou dépasse le GPT-OSS 120B d'OpenAI en termes de raisonnement contextuel long, de codage en direct et de références mathématiques, a indiqué la société.
La start-up française a également lancé une nouvelle plateforme appelée « Mistral Forge » qui permet aux entreprises de créer des modèles personnalisés formés sur leurs propres données. La nouvelle plateforme tente de combler l'écart entre les modèles d'IA formés sur des données génériques et les entreprises qui ont besoin de modèles pour des besoins très spécifiques et adaptés.
Mistral s'est déjà associé à des sociétés comme AMSL, Ericsson et l'Agence spatiale européenne pour former des modèles sur leurs données exclusives.
En septembre dernier, le chouchou français de l’IA, fondé en 2023, a annoncé une augmentation de série C de 1,7 milliard d’euros pour une valorisation post-money de 11,7 milliards d’euros dirigée par ASML. Les investisseurs existants DST Global, Andreessen Horowitz, Bpifrance, General Catalyst, Index Ventures, Lightspeed et Nvidia y ont participé.
Mistral est membre fondateur de la Nvidia Nemotron Coalition. Dans le cadre de cette initiative, Mistral et Nvidia prévoient de co-développer des modèles d’IA open source de pointe.
Pendant ce temps, hier (17 mars), OpenAI a lancé GPT-5.4 dans les versions « mini » et « nano ».
Selon le géant de l'IA, GPT‑5.4 Mini « s'améliore considérablement » par rapport à GPT‑5 Mini en termes de codage, de raisonnement, de compréhension multimodale et d'utilisation des outils, tout en fonctionnant plus de deux fois plus vite. GPT‑5.4 Nano est la version la plus petite et la moins chère de GPT‑5.4, et elle est optimisée pour être rapide et rentable.
Celles-ci font suite aux lancements récents de GPT-5.4 Thinking, un modèle de raisonnement approfondi hautes performances, et de GPT-5.3 Instant, destiné au travail conversationnel rapide et quotidien.
