Mistral AI lance des services et un SDK pour personnaliser ses modèles

Les start-up veulent aussi gagner de l'argent. C'est le cas de Mistral AI qui cherche à diversifier son offre de services et propose désormais aux développeurs et aux entreprises de personnaliser ses grands modèles de langage pour des cas d'usage particuliers. En libre-service, géré ou sur mesure, l'éventail de choix est large et devrait séduire un certain nombre de ses clients.

Codestral - Mistral AI - LLM code
Codestral - Mistral AI - LLM code

L'heure est à la personnalisation des grands modèles de langage. Mistral AI l'a bien compris. La start-up française propose désormais de "fine-tuner" ses modèles depuis sa plateforme. L'objectif est toujours le même : pousser à l'ultra-personnalisation pour toucher un plus grand nombre d'entreprises et, de manière plus large, des secteurs tout aussi variés.

Pour s'adapter à la demande, Mistral AI propose trois manières de procéder. Tout d'abord, via un SDK open source : pour les développeurs qui souhaitent affiner les modèles open source de Mistral sur leur infrastructure, ils peuvent s'appuyer sur mistral-finetune, une base de code dédiée construite sur LoRA. La start-up promet des capacités de fine-tuning performantes sans besoin de sacrifier la performance ou l'efficacité de la mémoire.

Pour une efficacité maximale, il est recommandé d'utiliser un GPU A100 ou H100. La base de code est optimisée pour des configurations de formation multi-GPU-single-node, mais pour des modèles plus petits, tels que le 7B, un seul GPU suffit, note Mistral

Un service plus géré ou sur mesure, les utilisateurs ont le choix

La deuxième option consiste en une solution plus gérée directement dans la plateforme de Mistral AI. Ces services s'appuient sur les techniques de réglage fin de Mistral et sont disponibles via l'API de l'entreprise. La start-up précise qu'elle utilise "des adaptateurs LoRA sous le capot pour éviter de perdre la connaissance du modèle de base et offrir un service efficace". Dans ce cas présent, seuls deux des modèles de l'entreprise sont compatibles : il s'agit de Mistral 7B et Mistral Small. A terme, la société prévoit d'en rendre d'autres compatibles avec ses services.

Enfin, la troisième possibilité consiste à utiliser des services sur mesure. Les utilisateurs peuvent fine-tuner les modèles d'IA de Mistral sur des applications spécifiques en utilisant leurs propres données, une aubaine pour des domaines de niche par exemple. Mistral affirme qu'il propose des techniques avancées telles que le pré-entraînement continu pour inclure les connaissances propriétaires dans les poids des modèles eux-mêmes. Notons toutefois que seul un groupe restreint de clients aura accès à cette option.

Le choix de la personnalisation pour attirer les clients

Bien évidemment, Mistral AI n'est pas la seule entreprise à miser sur la personnalisation pour accroître sa part de marché. D'autres entreprises font ce pari, à commencer par Snowflake - également investisseur de la start-up - et OpenAI. Fin avril, le spécialiste du data cloud a en effet lancé son propre LLM baptisé Arctic que les utilisateurs peuvent personnaliser à l'aide de leurs frameworks préférés. Il s'agit notamment de Nvidia NIM avec TensorRT-LLM, vLLM et Hugging Face.

Un autre acteur - plus discret - a fait de cette personnalisation son principal commerce. Il s'agit de la start-up AdaptiveML qui a levé 20 millions d'euros en mars dernier. Basée en France et aux États-Unis, la société développe des modèles de langage adaptés pour chaque entreprise et les améliore en continu avec les interactions utilisateur. Elle souhaite ouvrir un centre de R&D à Paris, mais aussi améliorer sa technologie, pour varier les interactions et permettre aux modèles de langage de s’autocritiquer.

Newsletter L'Usine Digitale
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.