38 milliards de dollars. C'est la valeur de l'engagement signé par OpenAI auprès d'Amazon Web Services afin que ce dernier lui fournisse ses services d'infrastructure - cloud en premier lieu - pour faire tourner ses charges de travail liées à l'intelligence artificielle.
Avec effet immédiat et engagé pour sept années, ce contrat donne à OpenAI un accès à la puissance de calcul d’AWS, comprenant des centaines de milliers de GPU Nvidia de dernière génération, avec la possibilité d’étendre à des dizaines de millions de CPU pour faire évoluer rapidement ses charges de travail agentiques.
Plus de liberté grâce au contrat révisé entre Microsoft et OpenAI
Cette annonce n'aurait pas été possible il y a encore quelques semaines. Le point de bascule ? La semaine dernière, Microsoft et OpenAI ont révisé le contrat qui les lie. Selon cet arrangement, la start-up peut créer une nouvelle structure à but lucratif d’intérêt public baptisée OpenAI Group PBC, évaluée à environ 135 milliards de dollars, dont 27% sont désormais détenus par Microsoft. L'entreprise de Satya Nadella garde aussi des droits exclusifs sur les modèles et les API, tandis que le créateur de ChatGPT s'est engagé à acheter 250 milliards de dollars supplémentaires d'hébergement sur Azure.
Et un point révisé donne davantage de liberté à OpenAI : l'entreprise peut désormais co-développer certains produits avec des tiers. Si les produits API développés avec des tiers resteront exclusifs à Azure, les produits non-API pourront être hébergés sur n’importe quel fournisseur cloud. Quand on sait qu'AWS dispose de clusters dépassant les 500 000 puces, un tel contrat est une aubaine pour OpenAI.
Un déploiement complet prévu d'ici fin 2026
Côté calendrier, OpenAI commencera immédiatement à utiliser la puissance de calcul d’AWS, avec un déploiement complet prévu d’ici fin 2026, et la possibilité d’une extension jusqu’en 2027 et au-delà. L'hyperscaler fournira à la start-up des Amazon EC2 UltraServers, dotés de centaines de milliers de puces GB200 et GB300, avec la capacité de monter en charge jusqu’à des dizaines de millions de processeurs (CPU) pour ses charges de travail en IA générative avancée.
Pour le créateur de ChatGPT, c'est l'assurance de faire tourner ses services avec un minimum de latence grâce aux systèmes interconnectés et de bénéficier d'avantages en termes de prix, de performance, d’échelle et de sécurité mis à disposition par AWS. Jusqu'à présent, la start-up avait rendu ses modèles open weight disponibles sur Amazon Bedrock, offrant ainsi ces options supplémentaires aux clients du géant du cloud pour des flux de travail agentiques, du codage, des analyses scientifiques, la résolution de problèmes mathématiques, etc.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
