A l'occasion de son événement Advancing AI qui s’est tenu aujourd’hui à San Francisco, AMD a dévoilé les dernières solutions d’IA et de calcul haute performance, notamment une nouvelle gamme d'accélérateurs Instinct et de processeurs EPYC. Lisa Su, présidente et CEO d’AMD, a levé le voile sur l'ensemble des produits sur lesquels la firme a planché ces derniers mois, à commencer par les processeurs EPYC Série 9005.
Conçus avec l’architecture AMD "Zen 5", ces CPU offrent des performances et une efficacité énergétique record, assure la firme. La série de processeurs EPYC 9005 est dotée d'un processeur EPYC 9575F à 64 cœurs, spécialement conçu pour les solutions d'IA basées sur GPU qui nécessitent les meilleures capacités du processeur hôte.
Un processeur taillé pour les modèles Llama 3.1 de Meta
Avec une fréquence allant jusqu'à 5 GHz, par rapport au processeur à 3,8 GHz de la concurrence, il fournit un traitement jusqu'à 28% plus rapide, nécessaire pour alimenter les GPU en données pour les charges de travail d'IA exigeantes. Dans les modèles d'IA génératifs de petite et moyenne taille, comme Llama 3.1-8B de Meta, l'EPYC 9965 offre des performances de débit 1,9 fois supérieures à celles de la concurrence, assure AMD.
Des premiers usages ont été observés chez Dell, HPE, Lenovo, Supermicro, pour ne citer qu'eux. "Qu'il s'agisse d'alimenter les supercalculateurs les plus rapides au monde, les plus grandes entreprises ou les plus grands hyperscalers, AMD a gagné la confiance des clients qui apprécient les performances, l'innovation et l'efficacité énergétique démontrées", se félicite Dan McNamara, SVP et directeur général de la division serveurs d'AMD.
Des accélérateurs Instinct prêts à supporter les charges de travail d'IA
L'autre annonce phare porte sur les accélérateurs Instinct MI325X développés pour supporter la prochaine génération d'infrastructures d'IA à grande échelle. Les MI325X offrent une capacité de mémoire et une bande passante de pointe, avec 256 Go de HBM3E prenant en charge 6,0 To/s offrant 1,8 fois plus de capacité et 1,3 fois plus de bande passante que le H200 de Nvidia.
Sur les modèles d'IA, ces accélérateurs pourraient faire la différence : AMD annonce qu'ils peuvent fournir jusqu'à 1,3 fois les performances d'inférence sur Mistral 7B à FP16, 1,2 fois les performances d'inférence sur Llama 3.1 70B à FP8 et 1,4 fois les performances d'inférence sur Mixtral 8x7B à FP16 du H200. Ces accélérateurs devraient "être livrés en production au quatrième trimestre 2024 et devraient bénéficier d'une large disponibilité système auprès d'un large éventail de fournisseurs de plateformes, notamment Dell, Eviden, Gigabyte, HPE, Lenovo, Supermicro et d'autres à partir du premier trimestre 2025", précise AMD.
Suivant la cadence de sa feuille de route annuelle, Lisa Su a également présenté en avant-première la série MI350. Basés sur l'architecture CDNA 4, ces accélérateurs pourraient offrir une amélioration de 35 fois des performances d'inférence par rapport aux accélérateurs basés sur AMD CDNA 3, promet le fabricant. Ces accélérateurs devraient être disponibles au cours du second semestre 2025, et les accélérateurs AMD Instinct série MI400, prévus pour 2026.
L'entreprise étend son portefeuille de solutions réseau
En parallèle, AMD a dévoilé l'unité de traitement de données Pensando Salina et la carte réseau Pensando Pollara 400. Tous deux axés sur la maximisation des performances de l’infrastructure pour l’IA, ils aideront à optimiser les flux de données et la communication GPU pour des systèmes d’IA performants et évolutifs. La firme prévoit de les tester tous les deux auprès des clients au quatrième trimestre de cette année pour une disponibilité au premier semestre 2025.
Un marché estimé à 500 milliards de dollars d'ici 2028
Lisa Su s'est montrée confiante quant à la place d'AMD sur le marché de l'intelligence artificielle : "À l’avenir, nous prévoyons que le marché des accélérateurs d’IA pour centres de données atteindra 500 milliards de dollars d’ici 2028. Nous nous engageons à proposer une innovation ouverte à grande échelle grâce à nos solutions étendues au niveau du silicium, des logiciels, du réseau et des clusters".
Le fabricant a notamment fait une démonstration de force en invitant des responsables techniques de Cohere, Google DeepMind, Meta, Microsoft, OpenAI sur scène afin que ces derniers expliquent comment ils utilisent le logiciel ROCm pour déployer des modèles et des applications sur les accélérateurs Instinct.
Les principaux acteurs de l'IA témoignent
Pour rappel, depuis leur lancement en décembre 2023, les accélérateurs Instinct MI300X ont été déployés à grande échelle par les principaux partenaires cloud, OEM et ODM et servent quotidiennement des millions d'utilisateurs sur des modèles et des solutions d'IA. Lors de la conférence, Google a souligné la manière dont les processeurs EPYC alimentent une large gamme d'instances pour l'IA, y compris leur "Hypercomputer AI", une architecture de supercalcul conçue pour maximiser le retour sur investissement de l'IA. Le géant de Mountain View a également annoncé que les machines virtuelles basées sur la série EPYC 9005 seront disponibles début 2025.
Oracle s'appuie pour sa part sur les produits AMD pour fournir une infrastructure de calcul et de réseau rapide et économe en énergie à des clients comme Uber, Red Bull Powertrains, PayPal et Fireworks AI. Databricks a quant à lui souligné la manière dont ses modèles et ses flux de travail fonctionnent sur AMD Instinct et ROCm : les tests réalisés montrent que les capacités de mémoire et de calcul des GPU Instinct MI300X contribuent à une augmentation de plus de 50% des performances sur les modèles propriétaires Llama et Databricks.
Enfin, Meta a expliqué en détail comment les processeurs EPYC et les accélérateurs Instinct alimentent son infrastructure de calcul dans les déploiements et services d'IA, avec MI300X desservant tout le trafic en direct sur Llama 405B.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
