DeepSeek : Nvidia dévisse en Bourse mais reste serein

L'argent est le nerf de la guerre pour assurer le développement de l'IA. Du moins, c'est ce que l'on pensait jusqu'à l'arrivée de DeepSeek sur le marché. La start-up chinoise, en surpassant OpenAI et ses modèles, remet en question certaines convictions, notamment le besoin de milliards pour avoir des produits de qualité. Mais, même avec un modèle plus léger, des millions de GPU restent nécessaires pour faire tourner ces modèles à l'échelle. Le décrochage de Nvidia en Bourse montre bien l'incompréhension des investisseurs à ce sujet.

Project DIGITS
A l'occasion de sa conférence d'ouverture du CES 2025, Nvidia a dévoilé Projet DIGITS (pour Deep learning GPU Intelligence Training System).

Nvidia chute mais ne se laisse pas abattre. Le géant des puces, comme bien d'autres entreprises évoluant dans le secteur des semi-conducteurs et de l'IA, vit un drôle de moment depuis quelques jours, les marchés financiers faisant le yoyo. En cause : la start-up chinoise DeepSeek qui a publié un modèle appelé DeepSeek-R1 capable d'atteindre des performances comparables à celles du modèle o1 d'OpenAI pour les tâches de mathématiques, de code et de raisonnement.

Son point fort ? Le coût d'entraînement pour la famille R1 a été de moins de 6 millions de dollars, d'après ses responsables. Restons toutefois les pieds sur Terre : DeepSeek a bien évidemment besoin de GPU pour faire tourner ses modèles quels qu'ils soient, peu importe le nombre de paramètres activés. Les marchés financiers n'ayant visiblement pas compris cela, Nvidia a donc dévissé ce lundi, plongeant de 17% à la Bourse de New York. Sa valorisation a également fondu comme neige au soleil : -589 milliards. Résultat : Nvidia perd son statut de plus grande capitalisation boursière.

Le géant reste serein, le besoin pour les GPU ne va pas disparaître

Le mastodonte reste toutefois confiant : "DeepSeek est une avancée remarquable en intelligence artificielle et un excellent exemple de la technique de Test Time Scaling. Le travail de DeepSeek illustre comment de nouveaux modèles peuvent être créés en utilisant cette technique, en s'appuyant sur des modèles largement disponibles et des infrastructures de calcul conformes aux contrôles à l'exportation.

Et de rappeler un point essentiel que bon nombre d'entreprises et d'investisseurs semblent avoir oublié l'espace de quelques jours : L'inférence nécessite un nombre important de GPU NVIDIA et des réseaux à haute performance. Nous disposons désormais de trois lois d'échelle : l'entraînement préalable (pre-training), l'entraînement ultérieur (post-training), qui se poursuivent, et la nouvelle mise à l'échelle au moment du test (test-time scaling)."

Newsletter L'Usine Digitale
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.