C'est le retour de la grande messe annuelle d'Amazon Web Services, re:Invent. Comme à son habitude, le géant du cloud multiplie les annonces, quitte à déboussoler quelque peu ses utilisateurs et aficionados. Attendu au tournant, il a fait part de nombreuses innovations en matière d'intelligence artificielle. A commencer par la partie hardware avec l'introduction de nouveaux composants de centre de données, censés fournir 12% de puissance de calcul supplémentaire, tout en améliorant l'efficacité énergétique et la flexibilité pour les charges de travail liées à l'IA.
Pour mémoire, AWS construit des centres de données à grande échelle depuis 18 ans et des serveurs basés sur GPU pour les charges de travail d'IA depuis 13 ans. Aujourd'hui occupés par des milliers de clients, ces centres de données (répartis entre 34 régions pour 108 zones de disponibilité) se retrouvent au cœur d'une bataille d'un nouveau genre : en effet, alors que l'utilisation de l'IA générative continue de croître et que les demandes de capacité GPU augmentent, les centres de données d'AWS doivent s'adaptent pour soutenir des densités de puissance de plus en plus élevées.
Refroidissement liquide adapté aux serveurs d'IA et conception des racks revue
Dans le détail, ces améliorations clés incluent une conception électrique et mécanique simplifiée pour une haute disponibilité. Par exemple, AWS a simplifié la distribution électrique et, ce faisant, a réduit de 20% le nombre de points de défaillance potentiels. D'autres changements sont à noter du côté du refroidissement liquide mis en place pour les derniers serveurs d'IA : "Les systèmes de refroidissement mis à jour intégreront de manière transparente les capacités de refroidissement par air et par liquide pour les jeux de puces d'IA les plus puissants, comme AWS Trainium2 et les solutions de supercalcul d'IA à l'échelle du rack comme les GB200 NVL72, ainsi que les commutateurs réseau et les serveurs de stockage d'AWS".
Le géant a également planché sur d'autres changements au niveau de la conception de racks et des systèmes de contrôle, permettant à AWS de prendre en charge une augmentation de 6x de la densité de puissance des racks au cours des deux prochaines années, et une autre augmentation de 3x à l'avenir. Cela est en partie réalisé par une nouvelle étagère d'alimentation, qui distribue efficacement l'énergie du centre de données dans tout le rack, réduisant les pertes de conversion électrique.
Après le hardware, Amazon met le paquet sur le software
Au-delà des annonces matériel, la firme a mis l'accent sur les innovations logicielles, et notamment celles qui s'adressent à un domaine particulier : le service client. Amazon Connect, son outil omnicanal pour centre de contact disponible dans le cloud, profite d'une salve de mises à jour, intégrant en premier lieu l'IA générative.
Cela va de la segmentation des clients alimentée par l'IA générative pour des campagnes ciblées à la messagerie native WhatsApp Business pour un support omnicanal en passant par la collecte sécurisée de données client sensibles dans les interactions de chat ou encore la gestion simplifiée des bots d'IA conversationnelle dans l'interface Connect, et de nouvelles améliorations de Q, l'assistant IA de la firme, dans Connect.
Amazon Q, chouchou de la firme et rival de Copilot de Microsoft
La firme cherche à simplifier au maximum la création de bots d'IA conversationnelle pour ses utilisateurs. Désormais, avec Amazon Q dans Connect, il est possible de créer, modifier et gérer des bots d'IA conversationnelle alimentés par Amazon Lex (son générateur de chatbot) directement dans l'interface web de Connect. Sont notamment pris en charge les interactions en libre-service des clients sur les canaux de réponse vocale interactive (IVR) et numériques, en plus d'aider les agents des centres de contact avec des réponses et des actions recommandées.
Le système est capable de rechercher intelligemment les bases de connaissances configurées, les informations client, le contenu web et les données d'applications tierces pour répondre aux questions des clients lorsqu'elles ne correspondent pas aux intentions prédéfinies. Preuve de sa volonté de s'intégrer aux autres systèmes, Amazon a même annoncé qu'il intégrait nativement les canaux numériques et l'acheminement unifié de son outil Connect dans le CRM de Salesforce.
Pour les entreprises clientes, cela permet d'utiliser un système unique d'acheminement et de workflow pour les canaux des deux entreprises, en dirigeant facilement les appels, chats et cas vers l'interaction en libre-service ou l'agent approprié. Pour l'heure, seule une préversion est disponible.
La sécurité n'est pas en reste, les administrateurs pouvant définir des garde-fous personnalisés pour leur instance, en définissant des restrictions sur la génération de réponses et en surveillant les performances d'Amazon Q dans Connect. Avec cette mise à jour, Amazon entre de plein fouet dans le sujet de fonctions conversationnelles avancées alimentées par des LLM. C'est désormais clair : la firme de Seattle est prête à se mesurer à Microsoft et à son fameux Copilot. Le géant de Redmond a en effet dévoilé une suite supplémentaire d'agents d'IA pour Copilot dans Microsoft 365 à l'occasion de sa conférence Ignite fin novembre.
Des utilisateurs de tous secteurs s'appuient sur le portefeuille d'AWS
Quoi de mieux pour prouver à ses clients de l'efficacité d'une solution que le témoignage d'un autre client ? Appliquant ce principe, AWS fait témoigner Midea, entreprise chinoise spécialisée dans la production d'appareils électroménagers et de climatiseurs, qui utilise Amazon Connect et les services d'IA générative pour construire des centres de contact plus performants et améliorer les expériences client.
La firme a déployé la solution dans 14 pays et régions du monde où elle opère avec un temps de mise en œuvre réduit de plusieurs mois à quelques semaines. La firme rend par ailleurs compte aujourd'hui de réductions de l'ordre de 30% pour les coûts opérationnels. Elle utilise en complément les dernières fonctionnalités de GenAI intégrées d'Amazon Connect, y compris Lex, Q et Connect Contact Lens au sein de ses centres d'appel.
De son côté, Wiwynn, principal fabricant de dispositifs de calcul et de stockage pour centres de données, utilise AWS Outposts pour réduire de 90% le temps de déploiement et réduire les coûts d'investissement. Auparavant, le déploiement du système d'automatisation de la fabrication et de gestion d'entrepôt d'une nouvelle usine prenait généralement 10 semaines au total, y compris l'installation matérielle, la fourniture de ressources et le déploiement de points d'accès.
Avec Outposts, Wiwynn affirme être passée à une seule semaine pour tout cela. Une efficacité qui, sur le long terme, se traduit par un autre chiffre clé : Wiwynn a pu livrer des environnements de production 10 mois plus tôt que prévu, un indicateur clé pour le futur de l'industrie 4.0.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
