Les choses s'accélèrent chez Mistral. La start-up française vient de publier Mistral Small 3.1 sous licence Apache 2.0, qu'elle considère ni plus ni moins comme "le meilleur modèle dans sa catégorie". Développée à partir du modèle Small 3 - publié en janvier dernier -, cette itération à 24 milliards de paramètres est dotée de performances textuelles améliorées, d'une compréhension multimodale et d'une fenêtre contextuelle élargie pouvant contenir jusqu'à 128 000 tokens.
Mais ce qui impressionne davantage, c'est sa capacité à égaler, voire surpasser, les performances des principaux petits modèles propriétaires sur tous ces aspects. Il se mesure ainsi à Gemma 3 (27B) - publié par Google la semaine dernière -, GPT-4o mini ou encore Claude-3.5 Haïku, tout en offrant des vitesses d'inférence de 150 jetons par seconde.
Un modèle capable de tourner sur mobile dans une kyrielle d'applications
Léger, il peut également fonctionner sur une carte graphique RTX 4090 - réputée pour les jeux et applications exigeants en matière de graphisme - ou un Mac avec 32 Go de RAM, ce qui le rend donc idéal pour une utilisation sur appareil mobile. Les équipes de Mistral affirment par ailleurs qu'il convient très bien pour les assistants virtuels et autres applications où des réponses rapides et précises sont essentielles. Le modèle est également capable d'exécuter rapidement des fonctions dans des flux de travail automatisés ou agentiques.
"Mistral Small 3.1 peut être utilisé dans diverses applications d'entreprise et grand public qui nécessitent une compréhension multimodale, telles que la vérification de documents, les diagnostics, le traitement d'images sur l'appareil, l'inspection visuelle pour les contrôles de qualité, la détection d'objets dans les systèmes de sécurité, le support client basé sur l'image et l'assistance à usage général".
La personnalisation, clé pour accélérer l'adoption du modèle
Enfin, la start-up fait le pari de rendre son modèle personnalisable à souhait, notamment dans des domaines comme le conseil juridique, le diagnostic médical et le support technique et met à disposition des développeurs toutes les clés pour y parvenir. Sont ainsi disponibles Mistral Small 3.1 Base et Mistral Small 3.1 Instruct sur Hugging Face et le modèle peut également être testé via l'API sur La Plateforme de Mistral AI.
Le modèle est également disponible sur le service Vertex AI de Google Cloud Vertex AI et devrait arriver sur NIM de Nvidia dans les prochaines semaines.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
