AMD, Broadcom, Cisco, Google, Hewlett Packard Enterprise, Intel, Meta et Microsoft annoncent la formation d'un groupe baptisé Ultra Accelerator Link (UALink) pour "développer une norme industrielle dédiée à l'avancement du haut débit et communication à faible latence pour les systèmes d'IA à grande échelle reliés aux centres de données".
L'objectif est de créer une interconnexion basée sur des normes ouvertes et permettra aux OEM de systèmes, aux professionnels et aux intégrateurs de systèmes de faciliter l'intégration et l'évolutivité de leurs centres de données connectés à l'IA. La raison de ce rapprochement est simple : à mesure que la demande de calcul d’IA augmente, les entreprises ont besoin de disposer d’un réseau évolutif robuste, à faible latence et efficace, avec la capacité d’ajouter facilement des ressources informatiques à une seule instance.
Une norme ouverte pour tous
"Les interconnexions ultra-hautes performances deviennent de plus en plus importantes à mesure que les charges de travail d’IA continuent de croître en taille et en portée", déclare Martin Lund, vice-président exécutif pour la branche Common Hardware de Cisco. Selon lui, "UALink sera une solution évolutive et ouverte disponible pour aider à surmonter certains des défis liés au développement de supercalculateurs d'IA".
Les accélérateurs d'IA couvrent par ailleurs un spectre large allant des GPU aux solutions sur mesure pour accélérer l'entraînement, le fine-tuning et l'exécution de modèles d'IA. Et sur ce marché, un acteur – grand absent de ce groupe – a su prendre les devants : Nvidia. Sa technologie de connectivité NVLink (couplée aux DPU BlueField-3), obtenue par le rachat de l'entreprise isréalienne Mellanox pour 6,9 milliards de dollars en mars 2019, lui confère un avantage décisif sur la concurrence au-delà même de ses GPU ou de son écosystème applicatif CUDA.
Nvidia sur le banc de touche
Plus généralement, le développement stratégique de Nvidia durant ces 15 dernières années a montré sa capacité à prendre les devants et à s'assurer une place de choix sur le marché de l'intelligence artificielle. Longtemps avant le boom créé par l'arrivée de ChatGPT, la firme américaine s'était imposée comme la référence en matière d'accélérateurs IA. Ses parts de marché sont estimées entre 80% et 95%.
Et cela s'est ressenti lors de la publication des résultats financiers pour l'année fiscale 2024. La société a enregistré un chiffre d'affaires de 22,1 milliards de dollars pour le dernier trimestre, en hausse de 22% par rapport au précédent et de 265% par rapport à la même période l'année dernière. "Le calcul accéléré et l'IA générative ont atteint le point de bascule. La demande explose dans le monde entier à travers les entreprises, les industries et les nations", avait alors déclaré Jensen Huang, fondateur et CEO de Nvidia.
Une emprise sur le marché via des partenariats stratégiques
La firme doit ces résultats en partie à sa multiplication des partenariats avec des entreprises technologiques, à commencer par Google qui, pour optimiser Gemma – sa famille de modèles ouverts – exploite ses GPU, "du centre de données au cloud en passant par les PC RTX".
Le géant a également renforcé son travail avec AWS pour héberger DGX Cloud, son offre de plateforme matérielle et logicielle pour l'IA. La liste est plutôt longue, allant de Cisco à Meta en passant par Amgen et Singtel, preuve de sa force de frappe dans tous les secteurs.
Une première version de la norme dévoilée
Le groupe a d'ores et déjà présenté UALink 1.0, qui assurera la connexion de jusqu'à 1024 accélérateurs au sein d'un seul pod et permettra des chargements et des stockages directs entre la mémoire attachée aux accélérateurs, tels que les GPU, dans le pod. Le président du Consortium Ultra Ethernet, J Metz, s'est d'ailleurs félicité de cette avancée : "Nous pensons que l'approche de mise à l'échelle d'UALink pour résoudre les problèmes de cluster de pods complète notre propre protocole de mise à l'échelle".
Par la suite, un consortium du même nom que le groupe doit être créé au cours du troisième trimestre 2024 pour superviser le développement de cette norme. La spécification 1.0 devrait être disponible à cette même période et mise à disposition des entreprises qui rejoignent le consortium. En fin de compte, les grands – et premiers – bénéficiaires d'UALink ne seront autre que Google, Meta et Microsoft qui ont dépensé des milliards de dollars en GPU Nvidia pour servir leurs objectifs cloud et IA.
Vous souhaitez être en veille sur l’actualité du secteur de l’intelligence artificielle ? Inscrivez-vous gratuitement à la newsletter IA Insider.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
