La montée en puissance du secteur de l'intelligence artificielle se poursuit. Le 18 juin dernier, Nvidia a atteint pour la première fois le rang de première capitalisation boursière mondiale. Les actions du spécialiste des GPU ont augmenté de 3,5% à 135,58 dollars au Nasdaq, portant sa valorisation à 3335 milliards de dollars. Le géant dépasse ainsi Microsoft, à la capitalisation de 3317 milliards de dollars et Apple avec 3286 milliards de dollars. Seulement voilà, dans cette course effrénée, il faut savoir prévoir de quoi sera fait demain. Car les investissements ne se font pas seulement pour aujourd'hui, mais aussi pour les prochaines années, la demande en applications et solutions d'IA générative semblant loin de ternir.
A l'image d'une montagne qui en cache une autre, la croissance observée au niveau de la demande cache donc une autre courbe qui grimpe à toute vitesse : celle du coût des infrastructures. Pour faire tourner les modèles d'IA générative, les entreprises ont besoin d'infrastructures adaptées. Deux types de coûts sont liés à ces centres de données d'IA : les GPU représentent la moitié du coût total de possession, l'autre moitié comprend l'énergie, les bâtiments, les générateurs de secours, etc. Un point que soulève David Cahn, partner au sein de Sequoia Capital, dans son analyse intitulée "La question à 600 milliards de dollars de l'IA".
L'investissement réel nécessaire au développement de l'IA est faramineux
Prenant comme base de son analyse les derniers résultats en matière de chiffre d'affaires des centres de données Nvidia ainsi que les prévisions données pour le quatrième trimestre fiscal 2024, David Cahn démontre que les coûts liés aux infrastructures d'IA devraient largement augmenter. Dans son calcul, il se base donc sur les prévisions de revenus de Nvidia et les multiplie par 2 pour refléter le coût total des centres de données d'IA.
Il multiplie à nouveau par 2 pour refléter une marge brute de 50 % pour l'utilisateur final du GPU (par exemple, la start-up ou l'entreprise qui achète des ressources de calcul d'IA à Azure, AWS ou GCP, et qui doit également gagner de l'argent, précise-t-il). Résultat : un revenu de 600 milliards de dollars est nécessaire pour un retour sur investissement.
Une multiplication par trois en l'espace de douze mois
Un chiffre qui, en l'espace d'une année, a donc vu sa valeur multipliée par trois. Car, en septembre dernier déjà, David Cahn proposait la même analyse avec "La question à 200 milliards de dollars de l'IA". Il estime que, depuis, un certain nombre de choses ont changé, à commencer par la pénurie d'approvisionnement qui s'est atténuée et les stocks de GPU qui augmentent à nouveau.
Toutefois, un autre point mis en avant est l'écart important entre les prévisions de revenus liées au développement de l’infrastructure d’IA et la croissance réelle des revenus de l’écosystème de l’IA, qui est également un indicateur de la valeur pour l’utilisateur final. Dans son analyse, David Cahn décrit cela comme un "trou de 125 milliards de dollars qui doit être comblé pour chaque année de dépenses d’investissement aux niveaux actuels". Aujourd'hui ce trou "va désormais devenir un trou de 500 milliards de dollars", affirme-t-il.
OpenAI et Nvidia, des géants loin d'être égalés
La mainmise d'un nombre restreint d'entreprises technologiques représente également un point de blocage qui amène à cette bulle de l'IA. Ainsi, David Cahn rappelle qu'"OpenAI détient toujours la part du lion des revenus de l'IA". Selon The Information, les revenus de la start-up d'IA s'élèvent désormais à 3,4 milliards de dollars, contre 1,6 milliard de dollars fin 2023. Et l'écart entre le créateur de ChatGPT et tous les autres continue de se creuser. "À long terme, les entreprises d'IA devront offrir une valeur significative aux consommateurs pour continuer à ouvrir leurs portefeuilles", poursuit ce partner de l'un des plus gros VC existants.
Le développement de solutions toujours plus performantes est un autre point mis en exergue. En mars dernier, Nvidia a annoncé sa puce B100, qui offrira des performances 2,5 fois supérieures pour seulement 25 % de coût supplémentaire. David Cahn estime que cela conduira à une dernière poussée de la demande pour les puces de la firme. "La B100 représente une amélioration spectaculaire du rapport coût/performance par rapport à la H100, et il y aura probablement une nouvelle pénurie d'approvisionnement alors que tout le monde essaiera de mettre la main sur des B100 plus tard cette année".
Un rythme de développement qui pourrait entraîner une dépréciation plus rapide des puces de dernière génération. "Comme le marché sous-estime la B100 et le rythme auquel les puces de nouvelle génération s'amélioreront, il surestime la mesure dans laquelle les H100 achetés aujourd'hui conserveront leur valeur dans 3 à 4 ans"
Un optimisme modéré quant à l'avenir
Dans son analyse, David Cahn met également un autre aspect en lumière : même si Nvidia construit le chemin pour de nombreuses autres entreprises, les coûts restent présents pour ces acteurs et le besoin de retour sur investissement reste primordial. L'une des images qu'il retient est celle-ci : "Les dépenses d’investissement liées aux GPU sont comme la construction de voies ferrées". L'idée étant que les trains finiront par arriver, tout comme les destinations – les nouvelles exportations agricoles, les parcs d’attractions, les centres commerciaux, etc. Seulement ici, dans le domaine de l'IA, beaucoup reste à faire.
Il existe un manque de pouvoir de fixation des prix pour les centres de données GPU où le calcul GPU se transforme de plus en plus en une marchandise, facturée à l’heure. En parallèle, les frénésies d'investissements spéculatives observées ces derniers mois pourraient finir par amener à une liste, plutôt longue de perdants, pour un petit nombre de gagnants. "Il y a toujours des gagnants en période de construction excessive d’infrastructures. L’IA est susceptible d’être la prochaine vague technologique transformatrice et […] la baisse des prix du calcul par GPU est en fait bénéfique pour l’innovation à long terme et pour les startups. Si mes prévisions se confirment, elles porteront principalement préjudice aux investisseurs. Les fondateurs et les créateurs d’entreprise continueront à intégrer l’IA et auront plus de chances de réussir, car ils bénéficieront à la fois de coûts réduits et des enseignements tirés de cette période d’expérimentation", prévient David Cahn.
Rester loin du mirage de la Silicon Valley
In fine, l'IA va – sans surprise – créer une importante valeur économique. Mais du point de vue des investisseurs, les entreprises doivent se concentrer sur la création de valeur pour les utilisateurs finaux si elles souhaitent obtenir un retour sur investissement. Il faut cependant rester lucide et ne pas se laisser bercer par "l'illusion qui s'est répandue de la Silicon Valley" et sur l'ensemble du globe selon laquelle "nous allons tous devenir riches rapidement, car l'IA générale arrive demain et nous devons tous stocker la seule ressource précieuse, à savoir les GPU". Le chemin est plus sinueux que cela.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
