Google a présenté le 11 novembre 2025 "Private AI Compute", une plateforme de calcul conçue pour permettre à sa famille de modèles d'intelligence artificielle générative Gemini de fonctionner dans le cloud, tout en garantissant aux utilisateurs un niveau de confidentialité présenté comme équivalent à celui du traitement local sur appareil.
Traditionnellement, les traitements de données sensibles sont exécutés directement sur les appareils afin d'éviter qu'ils transitent vers des serveurs. Mais les modèles d'IA les plus puissants exigent une capacité de calcul et un raisonnement complexe impossibles à atteindre sur un simple smartphone.
Concilier performance et protection des données
D'où l'idée de Private AI Compute visant à concilier les deux mondes : tirer parti de la puissance du cloud tout en maintenant le niveau de confidentialité du traitement local. Comme l'explique Jay Yagnik, vice-président de la recherche et de l'innovation en IA chez Google, il s'agit d'un espace sécurisé, isolé du reste des infrastructures. Ainsi, les données qui y transitent restent inaccessibles à toute personne extérieure, y compris Google.
Dans le détail, l'architecture repose sur plusieurs couches de sécurité. La plateforme fonctionne sur les TPU (processeurs taillés pour l'IA) de Google, intégrés dans un environnement baptisé "Titanium Intelligence Enclaves". C'est ce système qui permet d'isoler totalement les opérations réalisées sur les données de l'utilisateur.
A cette couche s'ajoute un chiffrement complet des échanges : la communication entre le terminal et l'environnement cloud est protégé grâce au "remote attestation", un mécanisme de sécurité utilisé pour prouver qu'un environnement informatique est sûr (sorte de certificat de confiance). Enfin, Private AI Compute s'appuie sur la pile logicielle unifiée de Google, sans l'intervention d'intermédiaires extérieurs.
Une mise sous scellés
La société américaine parle d'un traitement "sous scellés" où seules les machines autorisées peuvent exécuter les calculs sans qu'aucune information ne soit accessible à un opérateur humain.
Cette annonce fait écho à la présentation en juin dernier du "Private Cloud Compute". L'objectif était de permettre à ses modèles d'IA générative de s'exécuter dans le cloud, tout en maintenant un niveau de confidentialité comparable au traitement local.
La législation américaine reste applicable
Ces nouvelles architectures sont intéressantes en matière de protection des données. Elles ne doivent cependant pas faire oublier que les données, même chiffrées, transitent sur des serveurs appartenant à des entreprises américaines et donc soumises à la législation américaine.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
