Mistral AI a publié Small 4, un nouveau modèle de langage open source conçu pour consolider plusieurs fonctions d’IA en un seul package efficace. Le modèle combine raisonnement, capacités multimodales (gestion du texte et des images) et performances de codage, tout en visant des coûts d’inférence inférieurs à ceux des solutions concurrentes. Ceci est important car les entreprises déploient souvent des modèles distincts pour chaque tâche, ce qui augmente la complexité et les coûts.
Capacités unifiées dans un package plus petit
Small 4 s’appuie sur Mistral Small 3.2, offrant un modèle unique qui correspond aux performances des offres plus larges de Mistral, telles que Magistral (raisonnement), Pixtral (compréhension multimodale) et Devstral (codage). Bien qu’il n’ait que 6 milliards de paramètres actifs par jeton sur un total de 119 milliards, le modèle dispose d’une fenêtre contextuelle de 256 Ko, utile pour les analyses et les conversations de longue durée. Cette architecture, basée sur un mélange d’experts, permet une mise à l’échelle et une spécialisation efficaces, ce qui signifie des réponses plus rapides, même pour des tâches complexes.
Le compromis : efficacité contre fragmentation
Même si la flexibilité du Small 4 constitue un avantage technique, le marché est confronté à une fragmentation croissante à mesure que de plus en plus de petits modèles émergent d’entreprises comme Qwen et Claude. Selon Rob May, PDG de Neurometric, gagner le « mindshare » – qui devient un cas de test standard – est crucial pour l’adoption. Mistral doit prouver les capacités de son modèle à surmonter la confusion du marché et à s’imposer comme une option viable.
Raisonner à la demande avec un effort réglable
Une fonctionnalité clé est le paramètre «reasoning_effort», permettant aux utilisateurs d’ajuster dynamiquement le comportement du modèle. Les entreprises peuvent choisir entre des réponses rapides et légères similaires à Small 3.2 ou un raisonnement plus détaillé, étape par étape, similaire à Magistral. Ce contrôle sur le style de sortie est précieux pour diverses applications, de l’analyse rapide de documents aux tâches analytiques approfondies.
Matériel et performances
Mistral Small 4 est optimisé pour le matériel Nvidia, nécessitant seulement quatre GPU HGX H100/H200 ou deux DGX B200. Les benchmarks montrent qu’il fonctionne près de Mistral Medium 3.1 et Large 3 dans MMLU Pro, bien qu’il soit à la traîne derrière Qwen et Claude Haiku dans des benchmarks à forte intensité de raisonnement comme LiveCodeBench. Cependant, Mistral affirme que ses résultats nettement plus courts se traduisent par des coûts et une latence inférieurs, ce qui le rend compétitif dans les applications d’entreprise à grand volume. En mode instruction, Small 4 génère les sorties les plus courtes de tous les modèles testés.
En conclusion, Mistral Small 4 représente une étape vers la consolidation des capacités d’IA dans des modèles plus efficaces et accessibles. Son succès dépendra de la nécessité de surmonter la fragmentation du marché et de prouver sa valeur aux entreprises qui privilégient la rentabilité et la performance.
