Google dévoile Private AI Compute, un environnement cloud sécurisé conçu pour exécuter les modèles Gemini sans exposer les données personnelles

Google franchit une nouvelle étape dans sa stratégie IA avec "Private AI Compute", un système cloud qui exploite la puissance de ses modèles Gemini tout en garantissant aux utilisateurs un contrôle sur leurs données. 

Private AI Compute
Private AI Compute

Google a présenté le 11 novembre 2025 "Private AI Compute", une plateforme de calcul conçue pour permettre à sa famille de modèles d'intelligence artificielle générative Gemini de fonctionner dans le cloud, tout en garantissant aux utilisateurs un niveau de confidentialité présenté comme équivalent à celui du traitement local sur appareil. 

Traditionnellement, les traitements de données sensibles sont exécutés directement sur les appareils afin d'éviter qu'ils transitent vers des serveurs. Mais les modèles d'IA les plus puissants exigent une capacité de calcul et un raisonnement complexe impossibles à atteindre sur un simple smartphone. 

Concilier performance et protection des données

D'où l'idée de Private AI Compute visant à concilier les deux mondes : tirer parti de la puissance du cloud tout en maintenant le niveau de confidentialité du traitement local. Comme l'explique Jay Yagnik, vice-président de la recherche et de l'innovation en IA chez Google, il s'agit d'un espace sécurisé, isolé du reste des infrastructures. Ainsi, les données qui y transitent restent inaccessibles à toute personne extérieure, y compris Google. 

Dans le détail, l'architecture repose sur plusieurs couches de sécurité. La plateforme fonctionne sur les TPU (processeurs taillés pour l'IA) de Google, intégrés dans un environnement baptisé "Titanium Intelligence Enclaves". C'est ce système qui permet d'isoler totalement les opérations réalisées sur les données de l'utilisateur.

A cette couche s'ajoute un chiffrement complet des échanges : la communication entre le terminal et l'environnement cloud est protégé grâce au "remote attestation", un mécanisme de sécurité utilisé pour prouver qu'un environnement informatique est sûr (sorte de certificat de confiance). Enfin, Private AI Compute s'appuie sur la pile logicielle unifiée de Google, sans l'intervention d'intermédiaires extérieurs. 

Une mise sous scellés

La société américaine parle d'un traitement "sous scellés" où seules les machines autorisées peuvent exécuter les calculs sans qu'aucune information ne soit accessible à un opérateur humain. 

Cette annonce fait écho à la présentation en juin dernier du "Private Cloud Compute". L'objectif était de permettre à ses modèles d'IA générative de s'exécuter dans le cloud, tout en maintenant un niveau de confidentialité comparable au traitement local.

La législation américaine reste applicable

Ces nouvelles architectures sont intéressantes en matière de protection des données. Elles ne doivent cependant pas faire oublier que les données, même chiffrées, transitent sur des serveurs appartenant à des entreprises américaines et donc soumises à la législation américaine. 

Newsletter L'Usine Digitale
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.