Mistral AI sort Devstral, un agent spécialisé dans le développement informatique
Et un de plus. Mistral AI entend proposer un catalogue fourni de modèles adaptés aux besoins de chacun. Et puisque l'heure est à l'agentique, la start-up lance son propre modèle dédié aux tâches d'ingénierie logicielle, baptisé Devstral. Capable de rivaliser avec ceux de Google, Anthropic ou OpenAI, il a l'avantage de pouvoir être déployé en local et pas seulement dans le cloud.
Mistral AI accélère la cadence. Après avoir introduit Le Chat Enterprise en début de mois - désormais disponible via Google Cloud Marketplace, Dell Enterprise Hub et bientôt Azure AI et AWS Marketplace - la pépite française lève le voile sur Devstral, son "meilleur modèle open source pour les agents de codage".
Dans les faits, ce LLM agentique dédié aux tâches d’ingénierie logicielle est le fruit d’une collaboration entre Mistral AI et All Hands AI, une plateforme open source qui développe des agents IA pour automatiser les tâches de développement logiciel. Selon la start-up, ce modèle a pour objectif de résoudre des problèmes concrets de développement, tels que contextualiser le code dans une vaste base existante, identifier les relations entre composants disparates, et repérer des bugs subtils dans des fonctions complexes.
Un modèle capable de rivaliser avec les plus gros
Devstral est tout particulièrement entraîné à résoudre de vrais problèmes GitHub et fonctionne avec des solutions comme OpenHands ou SWE-Agent, qui définissent l'interface entre le modèle et les cas de test. Les équipes de Mistral ont testé les performances de leur modèle sur le benchmark SWE-Bench Verified, un ensemble de 500 tickets GitHub réels, vérifiés manuellement pour leur exactitude.
Il apparaît que Devstral atteint un score de 46,8% sur SWE-Bench Verified, dépassant les précédents modèles open source comme Gemma-3 27B, Qwen3 235B-A22B ou encore DeepSeek V3-0324 (671B). Testé avec OpenHands, fourni par All Hands AI, Devstral surpasse des modèles bien plus volumineux, incluant les modèles Claude 3.5 Haiku et GPT-4.1-mini (avec un écart supérieur de plus de 20% noté pour ce dernier).
Un déploiement possible en local ou sur Mac
Autre atout de Devstral : il est suffisamment léger pour tourner sur une RTX 4090 ou sur un Mac avec 32 Go de RAM, ce qui en fait un excellent choix pour un déploiement local ou sur appareil. Il ne s'agit pas du premier modèle que Mistral adapte à un fonctionnement en local - on se souvient notamment de Mistral Small 3.1 - et pour cause.
Proposer de tels modèles permet de toucher un autre march, mais aussi d'en maîtriser les coûts et de garantir une souveraineté des données. Des plateformes comme OpenHands permettent au modèle d’interagir avec des bases de code locales et de résoudre rapidement les problèmes.
Le modèle est publié gratuitement sous licence Apache 2.0, précise Mistral AI, et est également disponible via son API sous le nom devstral-small-2505, au même tarif que Mistral Small 3.1 : 0,1 $/million de tokens en entrée et 0,3 $/million de tokens en sortie. A A noter qu'il s'agit d'une version de recherche qui devrait très vite connaître une suite, la start-up ayant annoncé qu'elle travaille "déjà sur un modèle agentique de plus grande envergure qui sera disponible dans les prochaines semaines".
SUR LE MÊME SUJET
Mistral AI sort Devstral, un agent spécialisé dans le développement informatique
Tous les champs sont obligatoires
0Commentaire
Réagir