La course aux agents IA se poursuit. L’entreprise américaine Anthropic, à l'origine du LLM Claude, s’associe au français Dust connu pour développer des agents IA. L'ambition ? Fournir un "port USB-C" pour les applications d’IA. Dans les faits, Dust compte proposer aux entreprises de créer des agents IA en utilisant Claude et le Model Context Protocol (MCP) d’Anthropic, une norme ouverte qui relie des sources de données externes aux outils d’IA, d'où l'image du port USB-C.
L'origine de ce rapprochement est simple : la start-up française, également basée à San Francisco, a annoncé qu'elle avait été sélectionnée dans le cadre de l'écosystème "Powered by Claude" d'Anthropic. Ensemble, les deux sociétés espèrent donc créer un système d’exploitation central où les agents IA pourront accéder aux connaissances internes d’une entreprise et agir de manière autonome, tout en garantissant la sécurité des données. L'idée étant de casser les silos existants pour pouvoir faire travailler ces différents agents sur plusieurs tâches.
Dust profite de la popularité d'Anthropic
Les cofondateurs d’Anthropic et de Dust ont tous travaillé auparavant chez OpenAI. Dust, fondée début 2023 à Paris par Gabriel Hubert et Stanislas Polu, deux anciens de Stripe et d’OpenAI, a réussi à s'ancrer dans l'écosystème, avec des bureaux entre Paris et San Francisco. Sa plateforme offre aux entreprises les clés pour bâtir en quelques minutes des agents IA sur mesure, reliés de façon sécurisée aux silos internes (Slack, Drive, GitHub, etc.) et capables de s’appuyer indifféremment sur Claude, GPT-4, Mistral ou tout autre modèle.
Si elle figure parmi les derniers arrivés sur le marché, la start-up a déjà conquis bon nombre d'entreprises, à commencer par des scale-up françaises comme Alan, Doctolib, Malt, Mirakl, Pennylane ou encore Qonto. Côté financement, Dust a levé cinq millions d'euros en amorçage auprès de Sequoia en juin 2023, puis 15 millions d'euros supplémentaires lors d’une série A en juin 2024 afin d’accélérer son expansion européenne. Après deux ans d'existence, elle affirme avoir réalisé cette année un chiffre d'affaires annuel de 5 millions d'euros.
Un projet à peaufiner
L'IA et les agents IA sont néanmoins des outils capables de commettre des erreurs et une vérification humaine reste nécessaire dans bien des cas. Rappelons que lors d’une expérience menée récemment par Anthropic, un chatbot chargé de gérer une petite boutique a perdu de l’argent et inventé des informations. Anthropic s'est pour l'occasion associé à Andon Labs, une société d'évaluation de la sécurité de l'IA, pour permettre à Claude Sonnet 3.7 d'exploiter le magasin en question, complètement automatisé et situé dans les bureaux d'Anthropic à San Francisco.
L'agent IA chargé de la gestion de magasin, surnommé "Claudius" était donc une instance de Claude Sonnet 3.7 chargé d'accomplir de nombreuses tâches bien plus complexes liées à la gestion d'un commerce rentable : gérer les stocks, fixer les prix, éviter la faillite, etc. Résultat : si l'agent a certes effectué certaines tâches correctement, il a également commis trop d'erreurs pour assurer la réussite de son activité.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
