Profitant de l'événement Google Cloud Next '24 à Las Vegas, les deux géants technologiques ont annoncé réunir le programme Nvidia Inception pour les start-up et le programme Google for Startups Cloud afin d'élargir l'accès aux crédits cloud, au soutien à la commercialisation et à l'expertise technique pour aider les jeunes pousses à avancer sur le terrain de l'intelligence artificielle générative.
Bien sûr, Google et Nvidia se connaissent depuis longtemps et travaillent ensemble depuis des années sur le sujet de l'IA. Récemment, elles ont fait une série d'annonces visant à réduire les coûts et les obstacles associés au développement d'applications d'IA générative pour les entreprises de toutes tailles. "Les start-up, en particulier, sont limitées par les coûts élevés associés aux investissements dans l'IA", constate Nvidia.
Un échange de bons procédés
Le rapprochement des deux programmes prévoit ainsi que les membres qualifiés de Nvidia Inception – initiative mondiale soutenant environ 18 000 start-up – bénéficieront d'un accès accéléré à l'infrastructure Google Cloud via l'accès aux crédits du géant du cloud. Ceux qui se concentrent sur l'IA pourront toucher jusqu'à 350 000 dollars.
En retour, les membres du programme Google for Startups Cloud peuvent rejoindre Nvidia Inception et accéder à l'expertise technologique, aux crédits de cours du Deep Learning Institute créé par le géant des GPU, ainsi qu'à son matériel et à ses logiciels. Les membres éligibles du programme Google for Startups Cloud peuvent également participer à Inception Capital Connect, une plateforme développée par Nvidia qui met en relation les start-up avec des sociétés de capital-risque intéressées par le secteur.
Enfin, il est prévu que les fabricants de logiciels décrits comme "émergents à forte croissance" des deux programmes peuvent également bénéficier d'un onboarding accéléré sur Google Cloud Marketplace ainsi que d'une aide en matière de marketing, de développement et commercialisation de produits.
Google et Nvidia, partenaires de longue date sur l'IA générative
Gemma, Gemini ou encore TensorRT-LLM. Tous ces noms sont apparus régulièrement dans la presse ces derniers mois, et pour cause. Il s'agit des dernières innovations en matière d'intelligence artificielle générative dévoilés par Google et Nvidia. En février, Google DeepMind a donc dévoilé Gemma, une famille de modèles ouverts basé sur Gemini. Peu de temps après, le géant des GPU a lancé des optimisations sur toutes les plateformes d'IA de NVIDIA pour Gemma, afin de réduire les coûts pour les clients et d'accélérer le travail pour les cas d'utilisation spécifiques à un domaine.
Les équipes des deux sociétés avaient, en amont, ailleurs travaillé à la création du modèle Gemini - avec TensorRT-LLM, une bibliothèque open source pour optimiser l'inférence de grands modèles de langage, lorsqu'il est exécuté sur des GPU Nvidia.
Enfin, le mois dernier, lors de sa grande messe annuelle, Nvidia a dévoilé des microservices d'inférence appelés NIMs qui font partie de la plateforme logicielle AI Enterprise, ainsi que Google Kubernetes Engine (GKE). Ces derniers fournissent un accès simplifié pour le développement d'applications IA et le déploiement de modèles d'IA optimisés en production. En élargissant davantage la disponibilité des solutions d'IA générative de l'un comme de l'autre, les deux acteurs entendent bien régner en maître sur un secteur largement convoité. Et s'attirer les faveurs des start-up n'est qu'une tactique parmi beaucoup d'autres pour y arriver.
Vous souhaitez être en veille sur l’actualité du secteur de l’intelligence artificielle ? Inscrivez-vous gratuitement à la newsletter IA Insider.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
