Tribune

L'avenir de l'infrastructure IA doit être ouvert

L'explosion des déploiements de l'IA générative en entreprise s'accompagne de la construction d'infrastructures dédiées pour répondre à ces nouveaux besoins. Il est essentiel qu'elle se fasse de manière ouverte et standardisée, argumente Jeff Wittich, Chief Product Officer chez Ampere Computing, dans cette tribune exclusive.

 Jeff Wittich, Chief Product Officer chez Ampere Computing
Jeff Wittich, Chief Product Officer chez Ampere Computing

L’intelligence artificielle a dépassé le stade de l’expérimentation. Les projets d'IA ne sont plus des projets de second plan. C'est une technologie réelle qui façonne les produits, les décisions et l'expérience utilisateur dans tous les secteurs.

L'inférence est désormais au cœur du déploiement et de l'impact de l'IA. C'est au travers de l’inférence que les modèles prouvent leur valeur - en répondant à des questions, en faisant des prédictions, en générant du contenu et en interprétant les informations. 

L’augmentation de la demande en inférence s'accompagne d'un défi majeur : l'inférence n'est pas une charge de travail unique et uniforme. Elle couvre un large éventail d'applications qui ne cesse de s’étendre, fonctionnant dans des data centers hyperscale, dans des usines, dans des caméras intelligentes, des appareils mobiles et des systèmes embarqués. Chaque cas d’usage introduit des exigences différentes en matière de latence, de consommation d'énergie, de coût, de débit et d’espace. Aucun système unique ne peut optimiser tous ces paramètres, ce qui souligne la nécessité de se tourner vers une infrastructure polyvalente et universelle.

Malgré cette complexité croissante, une grande partie de l'industrie s'appuie encore sur des systèmes fermés et intégrés verticalement, difficiles à adapter ou à personnaliser. Cette approche pouvait suffire lorsque l'IA se concentrait principalement sur l’entrainement de modèles dans des environnements contrôlés, mais elle ne répond plus aux besoins des déploiements actuels, rapides et concrets. Continuer à traiter des charges de travail diverses dans une infrastructure rigide risque de ralentir les progrès, alors même que l'IA s'accélère dans presque tous les domaines.

Ce qu'il faut maintenant, c'est une infrastructure et des écosystèmes IA ouverts.

Une infrastructure ouverte, modulaire et basée sur des standards est essentielle pour suivre le rythme de diversification rapide des charges de travail de l'IA. Elle permet aux concepteurs de systèmes de répondre à des besoins spécifiques de déploiement spécifiques, plutôt que de se contenter de ce qui est facilement disponible. Elle réduit également les obstacles à l'intégration, encourage l'itération au niveau des composants et permet des cycles d'innovation plus rapides. Enfin, et c'est tout aussi important, elle favorise un marché plus sain et plus compétitif où les concepteurs et développeurs de systèmes disposent d'options significatives et pas seulement de configurations par défaut.

Les fondations de ce changement sont déjà visibles dans des initiatives telles que le Datacenter Modular Hardware System (DC-MHS), qui promeut l'interopérabilité entre fournisseurs et composants. C’est un bon point de départ pour une conception plus modulable et centrée sur les charges de travail. Mais aucune spécification ne peut à elle seule opérer cette transformation. Ce qu'il faut, c'est un écosystème collaboratif plus large, rassemblant les pionniers en matière de hardware, de software et de plateforme pour permettre la personnalisation à chaque niveau de la pile IA. Un écosystème véritablement ouvert va au-delà de la compatibilité. Un tel écosystème donne à toute la chaine de valeur les moyens d'innover plus librement et de fournir des solutions qui répondent aux demandes variées et évolutives de l'IA en production.

Ce changement nécessite un nouvel état d'esprit afin de concevoir des infrastructures non seulement à grande échelle, mais aussi durables et adaptables. L'IA progresse rapidement et les environnements dans lesquels elle fonctionne évoluent tout aussi vite. Pour accompagner cette évolution, il faut repenser l'infrastructure en profondeur et aller au-delà des seules performances pour intégrer l'ouverture, la modularité et la flexibilité comme principes fondamentaux. Les systèmes que nous construisons aujourd'hui doivent être prêts pour les charges de travail que nous n'avons pas encore imaginées.

Il est temps d'agir. Les fournisseurs de matériels et de logiciels, les constructeurs de systèmes et les leaders technologiques doivent s'unir pour accélérer la transition vers une infrastructure ouverte. Cela signifie s'aligner sur des standards, permettre une véritable interopérabilité et investir dans les écosystèmes conçus et choisis spécifiquement pour les charges de travail. L’IA remodélise déjà les infrastructures existantes, veillons à ce que ces dernières soient adaptées à l'avenir.

Jeff Wittich, Chief Product Officer chez Ampere Computing

Les avis d'experts sont publiés sous l'entière responsabilité de leurs auteurs et n'engagent en rien la rédaction

Newsletter L'Usine Digitale
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.