Lors de sa conférence Google I/O, le géant de la tech a dévoilé un certain nombre de grands modèles de langage tels que Gemini 1.5 Flash, Imagen 3 et Gemma 2. Leur point commun : tous ces modèles ont été entraînés sur des TPU (Tensor Processing Unit). Estimant que le rythme d'innovation s'accélère, Google prend les devants et a annoncé cette semaine Trillium, des TPU de sixième génération, décrit comme les plus performantes et les plus économes en énergie à ce jour.
Quelques chiffres annoncés par Google offrent un aperçu des capacités de ces puces spécialisées pour accélérer les calculs liés à l'intelligence artificielle. Les TPU Trillium affichent une multiplication par 4,7 des performances de calcul maximales par puce par rapport à celles de cinquième génération. La firme indique avoir doublé la capacité et la bande passante de la mémoire à large bande (HBM), ainsi que la bande passante de l'interconnexion entre puces (ICI) par rapport à ses prédécesseurs.
Des économies d'énergie mises en avant
Google indique par ailleurs que les processeurs SparseCore accélèrent les charges de travail lourdes à intégrer en déchargeant stratégiquement les accès aléatoires des TensorCore, explique la firme. Et le résultat attendu au tournant est le suivant : "Les TPU Trillium permettent d'entraîner plus rapidement la prochaine vague de modèles de base et de servir ces modèles avec une latence réduite et à moindre coût", ajoute Google.
Autre avantage : les Trillium sont 67 % plus économes en énergie que les TPU de cinquième génération. Bien évidemment, il faudra attendre le lancement officiel pour affirmer ou non de la véracité des chiffres avancés par Google.
Plusieurs bêta testeurs confirmés
En attendant, le géant en est certain : "les TPU Trillium alimenteront la prochaine vague de modèles et d'agents d'IA". Plusieurs entreprises ont d'ores et déjà indiqué être prêtes à exploiter le potentiel des Trillium, notamment la société Essential AI, spécialisée dans les véhicules autonomes, mais aussi Nuro spécialiste de la robotique qui prévoit d'entraîner ses modèles avec des TPU Cloud, ou encore Deep Genomics qui planche sur la découverte de médicaments grâce à l'IA.
Les TPU seront également exploités en interne puisque Google DeepMind s'en servira pour entraîner et déployer les prochaines générations de LLM Gemini "plus rapidement, plus efficacement et avec une latence plus faible", promet Google.
Hugging Face, partenaire dans la mise à disposition de ces TPU
"Notre partenariat avec Google Cloud permet aux utilisateurs de Hugging Face d'affiner et d'exécuter plus facilement des modèles ouverts sur l'infrastructure d'IA de Google Cloud, y compris les TPU. Nous mettrons les performances de Trillium à la disposition de tous les développeurs d'IA grâce à notre nouvelle bibliothèque Optimum-TPU", précise Jeff Boudier, chef de produit chez Hugging Face.
Vous souhaitez être en veille sur l’actualité du secteur de l’intelligence artificielle ? Inscrivez-vous gratuitement à la newsletter IA Insider.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
