Les annonces concernant l'intelligence artificielle pleuvent à l'occasion de la conférence Ignite de Microsoft. Parmi elles, l'entreprise de Redmond dévoile enfin ses processeurs maison, qui sont dédiés au calcul dans le cloud.
Ils sont au nombre de deux. Le premier est un CPU à 128 cœurs baptisé Cobalt et conçu sur une base Arm Neoverse Compute Subsystems. Il sera utilisé pour une variété de services cloud Azure, comme Teams ou SQL Server. L'accent a été mis sur la performance et l'efficacité énergétique par rapport aux serveurs Arm qu'utilise actuellement l'entreprise. Les gains pourront aller jusqu'à 40% de performance en plus pour la même consommation énergétique.
Un accélérateur en complément des GPU
De son côté, Microsoft Azure Maia est un accélérateur pour les calculs liés à l'IA, dont l'objectif est de remplacer ou complémenter les flottes de GPU pour l'entraînement et l'inférence des grands modèles de langage. La demande en GPU dépasse en effet de loin l'offre à l'heure actuelle et disposer de plus d'accélérateurs que les autres acteurs du cloud serait un réel avantage compétitif (à la fois plus entraîner de plus gros modèles, mais aussi en proposer l'utilisation pour moins cher aux clients).
Microsoft a évidemment fait appel à son partenaire OpenAI en amont pour tester et optimiser cette puce. Maia dispose de 105 milliards de transistors et est fabriquée avec le dernier processus de gravure 5 nm de TSMC. C'est près d'un tier de moins que le nouveau MI300X d'AMD, qui en compte 153 milliards, mais avoir conçu la puce en interne présente de nombreux avantages, y compris tarifaires.
Microsoft travaille à la coconception de puces depuis de nombreuses années, d'abord pour la Xbox avec AMD, et plus récemment avec Qualcomm pour sa gamme d'ordinateurs Surface. Ces puces spécialisées pour l'IA sont néanmoins son projet le plus ambitieux à date en la matière. Cobalt et Maia entreront en service en 2024. Ils seront épaulés côté réseau par Azure Boost, une carte destinée à gérer les machines virtuelles à la place de l'OS et de l'hypervisor.
Les modèles de Mistral arrivent sur Azure
En parallèle, Microsoft a lancé Model-as-a-Service, une fonctionnalité d'Azure qui avait été annoncée à sa conférence Build avant l'été. Llama 2 sera mis à disposition des développeurs par ce biais, de même que les modèles ouverts de la start-up française Mistral AI. Le service simplifie l'intégration de modèles dans des applications par le biais d'API, de même que leur personnalisation avec des sets de données dédiés, le tout sans avoir à gérer la partie infrastructure. Autre lancement : la preview d'Azure AI Studio, une interface unifiée qui servira à créer ses propres agents, notamment de la variété "Copilot".
Enfin, Microsoft étend son "Copilot Copyright Commitment", c'est-à-dire sa garantie qu'il remboursera ses clients en cas de litige lié à l'utilisation de ses agents intelligents. Il lance le "Customer Copyright Commitment", une nouvelle version qui intègre des mesures techniques pour réduire la probabilité de créer du contenu illicite.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
