Mistral AI poursuit sa stratégie de multiplication des plateformes et se rapproche de Databricks

La start-up d'IA la plus en vogue en France poursuit la stratégie dépeinte par l'un de ses fondateurs et actuel dirigeant, Arthur Mensch, à savoir "apporter l'intelligence artificielle générative partout". Et pour ce faire, quoi de mieux que de multiplier les partenariats avec des entreprises technologiques de renommée internationale. Dernière en date à succomber au charme de Mistral AI : Databricks.

Arthur Mensch, CEO et cofondateur Mistral AI
Arthur Mensch, cofondateur et CEO de Mistral AI, affirme que ce partenariat représente la suite logique de la stratégie élaborée par la start-up, à savoir la démocratisation de l'IA.

Mistral AI s'entoure des plus grands, et à raison. Ses solutions d'IA générative font tourner la tête des géants de la tech qui se pressent pour pouvoir les distribuer et, au passage, investir dans la start-up érigée en licorne française et grand atout pour la souveraineté. La semaine dernière, elle opérait un rapprochement stratégique avec Snowflake, le spécialiste du data cloud.

Aujourd'hui, c'est au tour de Databricks d'annoncer un partenariat avec le fleuron tricolore de l'IA. Cela inclut notamment l'intégration native des modèles ouverts de Mistral AI au sein de la "Data Intelligence Platform" de Databricks.

Mistral 7B et Mixtral 8x7B débarquent sur la plateforme Databricks

A date, la start-up propose deux modèles ouverts qui sont Mistral 7B et Mixtral 8x7B. Si le premier est de type transfomer avec une fenêtre contextuelle de 8000 tokens, le second est un modèle de SMoE (Sparse Mixture of Experts), prenant en charge une longueur de fenêtre contextuelle de 32 000 tokens.

Mistral 7B est réputé pour être "petit mais puissant", en raison de sa taille, à savoir 7 milliards de paramètres. De son côté, Mixtral 8x7B offre des capacités pour le moins impressionnantes. Il est capable de traiter l'anglais, le français, l'italien, l'allemand et l'espagnol. Il surpasse par ailleurs Llama 2 70B sur la plupart des benchmarks, tout en offrant une inférence 6 fois plus rapide grâce à son architecture SMoE qui n'active que 12 milliards de paramètres pendant l'inférence, sur un total de 45 milliards de paramètres entraînés.

Une disponibilité sur la marketplace avec des capacités d'inférence et de personnalisation

De fait, les clients de Databricks peuvent désormais accéder aux modèles de Mistral AI sur la marketplace du fournisseur de data lakehouse, interagir avec ces modèles dans le Mosaic AI Playground, ou encore les utiliser comme endpoints de modèles optimisés grâce à Mosaic AI Model Serving.

Grâce à cette fonction, les utilisateurs peuvent accéder aux modèles à l'aide d'API et par la suite déployer, gouverner, interroger et surveiller n'importe quel modèle fondamental à travers les clouds et les prestataires, précise Databricks. Un avantage dans l'expérimentation et la mise en production de grands modèles de langage (LLM).

Les clients peuvent également faire appel à l'inférence de modèle directement à partir de Databricks SQL en utilisant la fonction SQL "ai_query". Pour les utilisateurs qui ont besoin d'une précision accrue pour des cas d'usage spécifiques, la personnalisation des modèles Mistral sur des données propriétaires est par ailleurs possible grâce à Mosaic AI Foundation Model Adaptation.

Une participation dans la série A de Mistral AI

En parallèle, Databricks révèle avoir participé au financement de la série A de Mistral AI, tour de table bouclé en décembre dernier. L'entreprise américaine rejoint donc la (longue) liste d'investisseurs qui inclut le fonds californien Andreessen Horowitz, BNP Paribas, CMA CGM, Nvidia, Salesforce, mais aussi Snowflake.

Le spécialiste du data lakehouse s'inscrit également dans la (tout aussi longue) liste de distributeurs des modèles de Mistral AI. Une stratégie entièrement assumée par Arthur Mensch, cofondateur et dirigeant de Mistral AI. "Ne pas s’attacher à un fournisseur de cloud unique, c’est aussi notre stratégie", indiquait-il lors de son intervention à l'événement organisé par Salesforce plus tôt cette semaine.

Ainsi, les modèles open source développés par la start-up sont disponibles sur "tous les gros providers", précise-t-il, ainsi que sur la plateforme Hugging Face. "L’idée, c’est que nos clients peuvent choisir l’infrastructure et changer au fil du temps".

Microsoft, premier à se lancer dans la distribution des modèles de la start-up

 Microsoft a été le premier à opérer un rapprochement avec la mise à disposition des modèles ouverts de la start-up sur Azure en novembre dernier. Plus tôt le mois dernier, elle a indiqué que les modèles dits fermés de Mistral AI faisaient également leur apparition sur Azure AI pour être commercialisés, ce qui lui vaut l'étiquette de "revendeur officiel".

Google a également signé un partenariat avec la start-up : celui-ci comprend non seulement la mise à disposition de Mistral-7B auprès des entreprises sur Vertex AI, mais aussi la commercialisation de son modèle Mistral-8x7B sur la marketplace Google Cloud. Enfin, plus récemment, c'est AWS qui a annoncé la disponibilité des deux modèles performants de Mistral AI, Mistral 7B et Mixtral 8x7B sur Amazon Bedrock. Notons que pour l'heure, seuls les clients de la région Ouest des États-Unis peuvent y accéder.

Pour Arthur Mensch, ce partenariat représente donc la suite logique de la stratégie dévoilée plus haut. "En intégrant de manière transparente nos modèles dans la plateforme de data intelligence de Databricks, nous faisons progresser notre mission commune de démocratisation de l'IA. Cette intégration marque une étape importante dans l'extension de nos solutions innovantes à la vaste base de clients de Databricks".

Newsletter L'Usine Digitale
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.
Cherche talents numériques
Les webinars