Microsoft annonce deux puces serveurs dont Maia, un accélérateur pour l'IA

Microsoft lève enfin le voile sur ses processeurs conçus en interne. Cobalt est un CPU sur base Arm, tandis que Maia est un accélérateur pour les calculs liés à l'IA. Ils joueront un rôle important pour rendre Azure plus attirant que la compétition.

Microsoft Azure Maia
Microsoft Azure Maia

Les annonces concernant l'intelligence artificielle pleuvent à l'occasion de la conférence Ignite de Microsoft. Parmi elles, l'entreprise de Redmond dévoile enfin ses processeurs maison, qui sont dédiés au calcul dans le cloud.

Ils sont au nombre de deux. Le premier est un CPU à 128 cœurs baptisé Cobalt et conçu sur une base Arm Neoverse Compute Subsystems. Il sera utilisé pour une variété de services cloud Azure, comme Teams ou SQL Server. L'accent a été mis sur la performance et l'efficacité énergétique par rapport aux serveurs Arm qu'utilise actuellement l'entreprise. Les gains pourront aller jusqu'à 40% de performance en plus pour la même consommation énergétique.

Un accélérateur en complément des GPU

De son côté, Microsoft Azure Maia est un accélérateur pour les calculs liés à l'IA, dont l'objectif est de remplacer ou complémenter les flottes de GPU pour l'entraînement et l'inférence des grands modèles de langage. La demande en GPU dépasse en effet de loin l'offre à l'heure actuelle et disposer de plus d'accélérateurs que les autres acteurs du cloud serait un réel avantage compétitif (à la fois plus entraîner de plus gros modèles, mais aussi en proposer l'utilisation pour moins cher aux clients).

Microsoft a évidemment fait appel à son partenaire OpenAI en amont pour tester et optimiser cette puce. Maia dispose de 105 milliards de transistors et est fabriquée avec le dernier processus de gravure 5 nm de TSMC. C'est près d'un tier de moins que le nouveau MI300X d'AMD, qui en compte 153 milliards, mais avoir conçu la puce en interne présente de nombreux avantages, y compris tarifaires.

Microsoft travaille à la coconception de puces depuis de nombreuses années, d'abord pour la Xbox avec AMD, et plus récemment avec Qualcomm pour sa gamme d'ordinateurs Surface. Ces puces spécialisées pour l'IA sont néanmoins son projet le plus ambitieux à date en la matière. Cobalt et Maia entreront en service en 2024. Ils seront épaulés côté réseau par Azure Boost, une carte destinée à gérer les machines virtuelles à la place de l'OS et de l'hypervisor.

Les modèles de Mistral arrivent sur Azure

En parallèle, Microsoft a lancé Model-as-a-Service, une fonctionnalité d'Azure qui avait été annoncée à sa conférence Build avant l'été. Llama 2 sera mis à disposition des développeurs par ce biais, de même que les modèles ouverts de la start-up française Mistral AI. Le service simplifie l'intégration de modèles dans des applications par le biais d'API, de même que leur personnalisation avec des sets de données dédiés, le tout sans avoir à gérer la partie infrastructure. Autre lancement : la preview d'Azure AI Studio, une interface unifiée qui servira à créer ses propres agents, notamment de la variété "Copilot".

Enfin, Microsoft étend son "Copilot Copyright Commitment", c'est-à-dire sa garantie qu'il remboursera ses clients en cas de litige lié à l'utilisation de ses agents intelligents. Il lance le "Customer Copyright Commitment", une nouvelle version qui intègre des mesures techniques pour réduire la probabilité de créer du contenu illicite.

Newsletter L'Usine Digitale
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.
Cherche talents numériques
Les webinars