La start-up d'IA Hugging Face a parcouru du chemin depuis son lancement en 2016. La société franco-américaine basée à New York a su attirer les investisseurs, incluant des géants technologiques tels qu'Amazon, AMD, Google, IBM, Nvidia, Qualcomm ou encore Salesforce, certains d'entre eux étant même devenus des partenaires privilégiés.
En août dernier, elle a même levé 235 millions de dollars pour une valorisation de 4,5 milliards de dollars. Sa plateforme ouverte sur laquelle sont accessibles toutes sortes d'outils d'IA est devenue une référence dans le domaine de l'intelligence artificielle.
Parmi les plus de 300 000 modèles qu'elle héberge se trouvent notamment le grand modèle de langage de Meta Llama 2 et Bloom, le modèle multilingue issu du projet BigScience et entraîné sur le supercalculateur Jean Zay. Aujourd'hui, la start-up va encore plus loin en annonçant un partenariat avec Google Cloud "pour accélérer le développement du machine learning et de l’IA générative".
Donner toutes les clés aux développeurs
Ce partenariat représente une avancée considérable pour les développeurs. Ces derniers pourront désormais utiliser l'infrastructure de Google Cloud Platform (GCP) pour tous les services de Hugging Face. L'infrastructure de GCP comprend les services de calcul, les unités de traitement tensoriel (TPU) et les unités de traitement graphique (GPU) pour entraîner et mettre à disposition des modèles ouverts et ainsi créer de nouvelles applications d'IA générative.
Les développeurs pourront également entraîner et mettre à disposition les modèles de Hugging Face sur GCP à l'aide de Vertex AI, en seulement "quelques clics", promet la start-up. Ils peuvent par ailleurs utiliser les services MLOps intégrés de Google Cloud, conçus pour développer des applications d'IA.
Ce partenariat intègre également la prise en charge des déploiements de Google Kubernetes Engine (GKE), de sorte que les développeurs sur Hugging Face puissent également entraîner, affiner et mettre leurs charges de travail à disposition sur une infrastructure "do it yourself" et mettre à l'échelle des modèles en utilisant des conteneurs de deep learning spécifiques à Hugging Face, sur GKE.
Une puissance de calcul et de meilleures performances à la clé
Dans leur communiqué, les deux entreprises affirment par ailleurs donner l'accès à Cloud TPU v5e à davantage de développeurs. Avec Cloud TPU v5e, elles promettent jusqu'à 2,5 fois plus de performance par dollar et jusqu’à 1,7 fois moins de latence sur l'inférence, par rapport aux versions précédentes. "Depuis le modèle Transformers original, jusqu’au T5 et au Vision Transformer, Google a été à l'avant-poste en matière de science ouverte et de progrès dans l'IA", explique Clément Delangue, CEO de Hugging Face.
Il ajoute qu'"avec ce nouveau partenariat, nous allons permettre aux utilisateurs de Hugging Face et aux clients de Google Cloud d'exploiter facilement les derniers modèles ouverts ainsi que l'infrastructure et les outils d'IA optimisés de Google Cloud, dont notamment ses TPU et Vertex AI. Les développeurs pourront ainsi accroître significativement leur capacité à construire leurs propres modèles d'IA." Vertex AI et GKE seront disponibles durant le premier semestre 2024 en tant qu'options de déploiement sur la plateforme Hugging Face.
En parallèle, les développeurs pourraient prochainement bénéficier d'un support pour les supercalculateurs A3, bénéficiant de la puissance des GPU H100 Tensor Core de Nvidia. A la clé : une multiplication par trois de la vitesse d’entraînement et une bande passante réseau dix fois plus importante par rapport à la génération précédente. Enfin, les utilisateurs pourront capitaliser directement sur la marketplace Google Cloud afin de simplifier la gestion et la facturation de la plateforme gérée par Hugging Face, y compris Inference, Endpoints, Spaces, AutoTrain, etc.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
