Le fournisseur de services cloud Scaleway, filiale du Groupe Iliad, change de braquet : se calquant sur la stratégie des hyperscalers américains, il se tourne vers l'intelligence artificielle pour répondre à la demande croissante en infrastructure et en services d'IA dédiés. Lors de la seconde édition de l'événement ai-Pulse, Damien Lucas, dirigeant de Scaleway, a voulu marquer le coup, invoquant trois concepts : "l’IA de demain sera big, efficient & open".
Big d'abord car l'entreprise a augmenté sa capacité de calcul dédiée à l’IA grâce à l’acquisition de GPU H100. Damien Lucas a aussi annoncé que d’ici quelques semaines, le fournisseur cloud opérera au total un peu plus de 5 000 GPU dernière génération, soit une capacité de calcul multipliée par 5 en un an. Il se présente par ailleurs comme "le premier fournisseur de cloud du continent" à proposer la puce Blackwell ainsi que les accélérateurs AMD MI300. A noter que la firme a d'ailleurs récemment lancé ses accélérateurs Instinct MI325X et présenté en avant-première la série MI350X.
L'open source a la cote
Le deuxième point à retenir de cette conférence est l'accent mis sur l'"open". L'entreprise le sait, proposer des services d'IA clé en main aux entreprises est devenue monnaie courante, et gare à ceux qui ne tiennent pas la cadence. Ainsi, via sa plateforme Managed Inference, Scaleway propose à ses clients de choisir parmi des modèles optimisés prêts à l'emploi et d'obtenir immédiatement un point d’accès dédié. La facturation se fait en fonction de l'utilisation du type de GPU choisi.
En optant pour ce service, Scaleway promet à ses utilisateurs un "cloud européen complètement sécurisé" avec "un contrôle complet sur les données". Jusqu'alors la plateforme proposait une dizaine de modèles, majoritairement ceux développés par Mistral AI et Meta. On retrouve ainsi Pixtral-12b, Mixtral-8x7b-instruct-v0.1, Mistral-nemo-instruct, Mistral-7b-instruct-v0.3 du côté de la start-up française et Llama3.1-8b-instruct, Llama3-8b-instruct, Llama3.1-70b-instruct, Llama3-70b-instruct du côté du géant des réseaux sociaux.
Moshi débarque "as a service"
Un nouveau modèle vient d'être ajouté à cette liste : Moshi, un modèle de fondation de type parole-texte équipé d'un framework de dialogue parlé en duplex intégral et à l'origine d'une IA conversationnelle éponyme. Développée par le laboratoire français de recherche en intelligence artificielle Kyutai (lancé l’an dernier, lors de la première édition d’ai-PULSE), cette IA vocale devrait donc être bientôt disponible en tant que service sur le produit Managed Inference de Scaleway. Objectif : multiplier les usages de cette IA conversationnelle en développant des cas d'usages à partir d'elle.
En parallèle de cette annonce, Scaleway a lancé ce matin ce qu'il nomme les "Generative API". Avec, les développeurs peuvent se servir des modèles de façon transparente. Pour le fournisseur cloud, l'ambition est tout autre : apporter une alternative aux API OpenAI avec "des modèles véritablement open source en modifiant une seule ligne de code".
Développer l'IA de manière "éco-responsable"
Et pour ceux qui se demanderaient ce que vient faire le qualificatif "efficient" dans cette présentation, la réponse est simple : Scaleway propose désormais à ses utilisateurs un outil de calcul de l'empreinte environnementale. "Il s’agit à date du calculateur le plus complet et le plus approfondi pour le cloud, dans la mesure où il couvre les trois scopes d'émissions, ainsi que l’impact des équipements et la consommation d’eau", assure Damien Lucas. Pour l'heure, l'outil est éligible uniquement pour les produits Elastic Metal en version bêta privée, comme indiqué sur la page web dédiée.
En proposant une telle solution, Scaleway cherche à surfer sur la vague "éco-responsable" qui s'est construite autour du développement de l'IA générative. Comme rappelé par International Banker, la consommation totale d'énergie par les centres de données devrait atteindre plus de 1 000 TWh d'ici 2026, soit à peu près l'équivalent de la consommation d'électricité du Japon. Apporter aux entreprises un moyen de rendre compte de leur consommation doit – en théorie – aider chacune d'entre elles à mieux gérer ses coûts d'infrastructure et à réduire leur empreinte environnementale à terme.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
