Nvidia tient sa conférence GTC 2017 du 7 au 11 mai. Dédié aux processeurs spécialisés dans le calcul graphique dont l'entreprise à le secret, l'évènement est aussi pour Nvidia l'occasion de faire ses grandes annonces annuelles. Dans sa keynote du 10 mai, son CEO et co-fondateur Jen-Hsun Huang a dévoilé la nouvelle microarchitecture Volta, qui prend la suite de Pascal après seulement un an. Sans surprise, Volta est optimisée pour le deep learning, segment sur lequel Nvidia mise énormément depuis plusieurs années. Preuve en est: l'investissement colossal qu'a nécessité la R&D pour Volta : 3 milliards de dollars.
Le premier produit basé sur Volta est le Tesla V100, un processeur pour data centers. Il est fabriqué en 12 nm FinFet par TSMC et contient 21 milliards de transistors. Il est par ailleurs composé de 5120 coeurs CUDA ainsi que de 640 coeurs tenseurs (Tensor Cores). Ce nouveau type de coeur est conçu tout spécialement pour accélérer les calculs liés à l'intelligence artificielle. Résultat : sa puissance pour le deep learning est de 120 teraflops, soit l'équivalent de 100 CPUs d'après Nvidia. Ses opérations sur tenseurs sont 12 fois plus rapides que celles du processeur Pascal équivalent, et sa capacité d'inférence est 6 fois supérieure. Le Tesla V100 dispose de plus d'une technologie d'interconnexion NVLink décrite comme "10 fois plus rapide que l'interconnexion PCI Express la plus rapide qui soit".

Jen-Hsun Huang dévoila la Tesla V100
La DGX Station, un superordinateur de poche (ou presque)
Si Volta peut faire du calcul graphique, il s'adresse principalement à deux types d'usages : le calcul haute performance et l'automobile. Côté HPC, Nvidia a une nouvelle version du DGX-1, son serveur d'IA, pour la modique somme de 149 000 dollars. Il comprend huit Tesla V100 et dispose de 960 teraflops de puissance. Il sera disponible au troisième trimestre. Une version plus modeste, la DGX Station, accompagnera cette sortie au prix de 69 000 dollars. Elle ne possédera cependant que quatre Tesla V100.
Evidemment, les grands fournisseurs de cloud étaient aussi présents pour vanter les mérites de cette architecture qu'ils ont déjà hâte d'intégrer dans leurs data centers sous la variante HGX-1. Des responsables d'Amazon Web Services et de Microsoft Azure sont montés tour à tour sur scène pour témoigner de leur enthousiasme à l'égard de cette nouvelle puce.
Les voitures autonomes de Toyota auront un cerveau Nvidia
Et l'auto dans tout ça ? Nvidia Drive a déjà 200 développeurs, soit 50 de plus que le trimestre dernier. Et le clou du spectacle est l'annonce d'un partenariat stratégique avec Toyota, qui a décidé d'utiliser les technologies Nvidia pour ses véhicules autonomes. Le constructeur japonais rejoint Tesla, Audi, Mercedes-Benz et les équipementiers Bosch et ZF Technologies. Toyota utilisera la technologie Xavier, qui embarque une puissance de 30 teraflops pour une consommation de 30 watts.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
