Cette semaine était chargée, il faut bien l'avouer. Elle fut notamment rythmée par Microsoft Ignite, l'un des grands évènements annuels de la firme de Redmond, qui semble s'enraciner durablement à San Francisco, signe du renouveau de cette ville emblématique de la côte ouest.
Nous avions déjà évoqué les investissements et partenariats de Microsoft, sa nouvelle console dédiée au contrôle d'agents ou encore son tout dernier CPU pour Azure, mais il manquait un mot concernant Microsoft Foundry et Windows, deux produits sur lesquels la firme s'est concentrée et a injecté une bonne dose d'IA, s'appuyant notamment sur Model Context Protocol (MCP) comme socle pour connecter agents, applications et workflows métiers.
Un accès à 1400 systèmes tiers
Plus concrètement, les dernières mises à jour de Microsoft Foundry, actuellement en preview, doivent aider les développeurs à enrichir les agents avec un contexte métier en temps réel, des capacités multimodales et une logique métier personnalisée grâce à un catalogue unifié d’outils MCP qui peuvent aussi bien être publics ou privés.
Microsoft met en avant le nombre d'accès offerts : "Les connecteurs Logic Apps offriront un accès à plus de 1 400 systèmes tels que SAP, Salesforce et HubSpot, exposés comme des outils MCP. Cela permettra aux agents d’être rapidement intégrés aux services métier essentiels et d’agir sur des données et événements en temps réel", promet le géant. A la clé, ce sont un certain nombre d'outils prêts à l’emploi pour la transcription, la traduction, la voix et le traitement intelligent de documents, qui sont disponibles.
Le routeur de modèles enfin là pour tous
Présenté pour la première fois en preview lors de la conférence Build 2025, en mai 2025, le routeur de modèles signé Microsoft est enfin accessible à tous. Pour rappel, l'outil a pour fonction de sélectionner automatiquement le meilleur modèle pour la tâche. Disponible dans Foundry, il aide les développeurs à équilibrer coût, performance et complexité en simplifiant la sélection et le déploiement des modèles, tout en leur permettant d’utiliser un point de terminaison unique pour des workflows IA optimisés.
Microsoft promet jusqu’à 40% de réponses plus rapides et 50% de réduction des coûts dans les premiers déploiements clients — le tout sans modification de code ni perte de qualité. Le routeur de modèles inclut désormais l’accès à 12 modèles, dont les familles GPT-4.1, GPT-5, GPT-oss-120b, DeepSeek-v3.1, Llama-4-Maverick-17B-128E-Instruct-FP8, Llama-33-70B-Instruct, Grok-4 et Grok-4-fast. Cette fonctionnalité est également disponible en preview dans Foundry Agent Service.
Windows évolue pour embarquer MCP à son tour
Ce fameux protocole est définitivement partout. Au point que la firme de Redmond a décidé que Windows devait également l'adopter. Une prise en charge native a donc été annoncée sur Windows (pour l'heure en preview), incluant de nouveaux connecteurs d’agents intégrés et un espace de travail dédié aux agents.
Les nouveaux connecteurs intégrés, (également en preview), incluent un Explorateur de fichiers (offrant un accès sécurisé aux fichiers locaux afin que les agents puissent agir efficacement et effectuer des opérations sur les fichiers, avec le consentement de l’utilisateur) ainsi que Paramètres Windows (pour aider les agents à gérer des opérations complexes en modifiant les paramètres de l’appareil (Bluetooth, réseau, etc.).
Agent Workspace fonctionne comme une sandbox
Microsoft a présenté Agent Workspace pour la première fois en private preview destinée aux Windows Insiders en octobre dernier, via la publication d’un article sur les "Experimental Agentic Features". L'annonce a ensuite été confirmée et détaillée publiquement lors de sa conférence Microsoft Ignite ce 18 novembre. L'idée est qu'Agent workspace offre un environnement isolé, contrôlé par des politiques et auditable, où les agents interagissent avec les logiciels comme le feraient des humains — exécutant des tâches en parallèle pour les utilisateurs sans perturber la session principale.
Toutes les interactions impliquant MCP et les agents utilisant l’ordinateur s’exécuteront dans cet espace. De cette manière, Windows assure que chaque agent fonctionne de manière contenue, conforme et auditable. Les administrateurs IT pourront gérer les politiques de base pour les connecteurs et espaces de travail via Microsoft Intune, Microsoft Entra et Group Policy.
Ask Copilot débarque dans la barre des tâches
Toujours dans l'objectif d'injecter de l'intelligence artificielle partout, Microsoft diffuse ses fonctionnalités agentiques partout. A commencer par une apparition de "Ask Copilot" dans la barre des tâches Windows. L'idée étant d'unifier l’interaction avec Copilot et d’autres agents IA à travers les applications, workflows et appareils. L'utilisateur peut invoquer facilement Copilot et Microsoft 365 Copilot depuis n’importe où dans l’OS — via la barre des tâches et le menu Démarrer. Les utilisateurs pourront également lancer des agents IA directement depuis le compositeur via le menu "outils" ou en tapant "@".
Ask Microsoft 365 Copilot apparaît également dans Click to Do et dans l’accueil de l’Explorateur de fichiers. Enfin, "Hey Copilot" et la touche Copilot (ou raccourci Win+C) permettent d’interagir vocalement avec Microsoft 365 Copilot sans interrompre le flux de travail.
Finalement, Microsoft a également procédé à une mise à jour de Windows 365 Link, le premier appareil Cloud PC conçu pour Windows 365, qui sera disponible à partir de février 2026 en Belgique, Finlande, Irlande, Italie, Pologne, Singapour et Espagne. Les mises à jour prévues pour le premier trimestre de l'année prochaine incluent une prise en charge du couplage des périphériques Bluetooth lors de la configuration initiale, un support du branding locataire (fond d’écran, logo, nom sur l’écran de connexion) et une capacité pour l’IT de restaurer un appareil via une image de récupération bare metal.
Microsoft avance sur ses modèles internes
Sur le sujet de la génération d’images, Microsoft a mis à jour l'API Stable Diffusion XL (SDXL) qui permet de générer des images à partir de texte directement sur l’appareil. Elle est désormais en preview dans WinAppSDK 2.0 Experimental 3. Son modèle linguistique Phi Silica est quant à lui disponible en version stable : optimisé pour les NPU, il peut être exécuté localement pour la génération et la synthèse de texte. L’API nécessitera un jeton LAF pour la production. Les performances sont améliorées de l'ordre de 40% dans cette version.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
