La start-up française Mistral AI poursuit son incursion dans la cour des grands. Au détour d'un communiqué, nous apprenons en effet que celle-ci a fait appel à Snowflake, ou plus précisément à son fonds Snowflake Ventures, afin de participer à sa série A bouclée en décembre dernier.
Aujourd'hui, le spécialiste du data cloud fait part d'un partenariat avec la start-up. Objectif affiché : faire bénéficier les utilisateurs de Snowflake des différents grands modèles de langage (LLM) de Mistral AI.
Mistral Large disponible sur Snowflake
Dans le détail, c'est le modèle le plus récent et considéré comme le plus performant qui fait son apparition dans la plateforme Data Cloud de Snowflake. Baptisé Mistral Large et dédié au raisonnement de haut niveau pour des tâches complexes, ce LLM atteint, sur la série de benchmarks couramment utilisés, des performances qui égalent presque celles de GPT-4 d'OpenAI.
Large possède des capacités de raisonnement pour le moins impressionnantes, maîtrise le code et les mathématiques. Il parle également couramment cinq langues : français, anglais, allemand, espagnol et italien et peut traiter des centaines de pages de documents en une seule fois.
Mixtral 8x7B et Mistral 7B également accessibles
En parallèle, les utilisateurs de Snowflake ont accès à Mixtral 8x7B, le modèle open source de Mistral AI qui dépasse le modèle GPT-3.5 d'OpenAI en termes de vitesse et de qualité sur la plupart des benchmarks, ainsi qu'à Mistral 7B, le premier modèle de base développé par la start-up, également open source et optimisé pour une faible latence avec un faible besoin en mémoire et un débit élevé pour sa taille.
Les modèles de Mistral AI sont désormais disponibles pour les utilisateurs des services Snowflake en public preview. Ils peuvent notamment y accéder en passant par Cortex LLM Functions, son service géré pour créer des LLM et des applications d’IA.
Dans le sillon d'AWS, Google et Microsoft, Snowflake pousse l'IA auprès de ses utilisateurs
Le spécialiste du data cloud précise qu'"en utilisant des fonctions spécialisées, tout utilisateur ayant des compétences en SQL peut exploiter de plus petits LLM pour traiter de manière rentable des tâches spécifiques telles que l'analyse des sentiments, la traduction et le résumé en quelques secondes". Pour les cas d'utilisation plus complexes, les développeurs Python peuvent passer du concept à des applications d'IA complètes telles que les chatbots en quelques minutes, précise la firme.
D'autres ont bien sûr fait ce pari avant Snowflake, la firme n'étant pas la seule à faire les yeux doux à la vedette française de l'IA. C'est Microsoft le premier qui a opéré un rapprochement avec la mise à disposition des modèles ouverts de la start-up sur Azure en novembre dernier. Plus tôt le mois dernier, elle a indiqué que les modèles dits fermés de Mistral AI faisaient également leur apparition sur Azure AI pour être commercialisés, ce qui lui vaut l'étiquette de "revendeur officiel".
Google a également signé un partenariat avec la start-up : celui-ci comprend non seulement la mise à disposition de Mistral-7B auprès des entreprises sur Vertex AI, mais aussi la commercialisation de son modèle Mistral-8x7B sur la marketplace Google Cloud. Enfin, plus récemment, c'est AWS qui a annoncé la disponibilité des deux modèles performants de Mistral AI, Mistral 7B et Mixtral 8x7B sur Amazon Bedrock. Notons que pour l'heure, seuls les clients de la région Ouest des États-Unis peuvent y accéder.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
