À l'occasion de la conférence annuelle SC25, qui se tient cette semaine à Saint-Louis (États-Unis), Nvidia a dévoilé Apollo, une famille de modèles physiques destinée à la simulation industrielle. “Accélérés par l'infrastructure d'IA de Nvidia, les nouveaux modèles physiques d'IA permettront aux développeurs d'intégrer des fonctionnalités en temps réel dans leurs logiciels de simulation, et ce, dans un large éventail de domaines”, note la firme américaine dans un communiqué.
Semi-conducteurs, aéronautique, météorologie…
Nvidia énumère tout un panel de secteurs d'activité pour lesquels Apollo est optimisé, depuis l'automatisation des dispositifs électroniques et de semi-conducteurs aux simulations pour l'automobile, l'aéronautique et l'énergie en passant par les solutions de météorologie. D'un point de vue technique, l'entreprise indique simplement se baser sur plusieurs architectures de machine learning de pointe. “NVIDIA Apollo fournira des points de contrôle pré-entraînés et des workflows de référence pour l'entraînement, l'inférence et l'évaluation comparative, permettant aux développeurs d'intégrer et de personnaliser les modèles en fonction de leurs besoins spécifiques.”
Plusieurs grandes entreprises utilisant déjà d'autres solutions de simulation de Nvidia prévoient d'entraîner et déployer leurs outils d'IA en intégrant Apollo. C'est par exemple le cas de l'équipementier de production de semi-conducteurs Applied Materials, qui a d'après la firme rendu les modules de son logiciel physique ACE+ 35 fois plus rapide en utilisant les GPU Nvidia et l'architecture CUDA. Cadence, PhysicsX, Synopsys et l'allemand Siemens figurent également parmi les premiers clients Nvidia à adopter les modèles Apollo.
Le lancement de cette famille de modèles intervient seulement un mois après la sortie par Nvidia de Newton, un moteur physique développé avec Google DeepMind et Disney Research, permettant de simuler des actions robotiques complexes. Au cours de l'année, l'entreprise a aussi rendu disponible sa gamme de world foundation models (WMFs) Cosmos, mais aussi GR00T, son modèle de fondation pour robots humanoïdes ainsi que Nemotron, conçue pour l'IA agentique.
Un partenariat avec le japonais Riken
Nvidia a également profité de la conférence SC25 pour annoncer un partenariat avec l'institut public de recherche nippon Riken, portant sur la construction de deux supercalculateurs équipés de systèmes GB200. Le premier, qui devrait comporter 1600 GPU Blackwell basés sur la plateforme GB200 NVL4, est conçu pour faire progresser la recherche scientifique, en particulier dans “les sciences de la vie, les sciences des matériaux, le climat et les prévisions météorologiques, la production et l'automatisation des laboratoires”. Le second, équipé de 540 GPU Blackwell, devrait permettre d'accélérer les travaux publics sur les algorithmes quantiques et la simulation hybride.
Les deux supercalculateurs devraient aussi servir de “plateforme intermédiaire” pour la conception de logiciels et d'application pour FugakuNext, un supercalculateur développé avec Fujitsu conçu pour prendre la suite de Fugaku (415 pétaflops). Plus rapide au monde pendant plus d'un an, Fugaku est désormais classé à la 7e place du Top500.
Au cours de l'année, Nvidia a annoncé plus de 80 nouveaux systèmes dans la recherche scientifiques alimentés par ses plateformes de calcul, représentant au total “4500 exaflops de performances”. Parmi les projets les plus récents figure Horizon, un supercalculateur de 300 pétaflops dédié à la recherche universitaire, développé en partenariat avec l'Université du Texas et Dell.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
