On a enfin vu les lunettes de réalité augmentée que Google développe avec Samsung à la fin de la keynote d’ouverture de Google I/O 2025. Le prototype présenté sur scène disposait de micros, haut-parleurs, une caméra et un petit écran capable d’afficher non seulement du texte, mais aussi des visuels (images, carte...).
Des versions avec ou sans écran
Les lunettes fonctionnent en tandem avec un smartphone (via une connexion sans fil), même si elles disposeront d’un mode "standalone" limité, par exemple pour prendre des photos, a expliqué Juston Payne, Director of Product Management pour la XR chez Google, à L’Usine Digitale après la présentation. Des prototypes sans écran (comme les Ray-Ban Meta), avec un petit écran monoculaire et avec un affichage plus complet ont tous été testés en interne, souligne également Juston Payne.
Plusieurs produits aux capacités différentes seront donc mis sur le marché. Google s’est plié à l’exercice toujours risqué de la démonstration en conditions réelles pour clôturer sa conférence I/O 2025. Les lunettes utilisées étaient des prototypes avec un petit écran.
Une démonstration live très convaincante
Nishtha Bhatia (Product Manager) a partagé un live stream avec ses lunettes depuis sa loge. On voit qu’elles indiquent de base l’heure et la météo de façon basique (température et une icône indiquant soleil ou pluie). Elle montre le café qu’on lui a apporté, puis elle reçoit un message du présentateur sur scène (Shahram Izadi, GM & VP de la XR chez Google) lui disant qu’il est l’heure.
Elle lui répond en dictant le message et en l’envoyant par commande vocale. Elle met aussi ses notifications en sourdine pour ne pas être dérangée. Elle demande ensuite à Gemini d’identifier un groupe de musique (Counting Crows) basé sur une série de photos accrochées sur un mur, et de lui expliquer quel est leur lien avec l’amphithéatre où se déroule la conférence. L’assistant lui propose de lui-même de jouer un extrait d’un concert qui s’y est déroulé. Nishtha acquiesce et la musique est streamée depuis YouTube Music.
Navigation guidée et traduction en temps réel
Arrivée sur scène, Nishtha Bhatia demande à l’assistant de lui indiquer d’où provient le café qu’elle a montré à la caméra plus tôt. L’assistant nomme la boutique (Bloomsgiving) et la rue où elle se situe, puis Nishtha demande à voir des photos pour juger de son atmosphère. Lesdites photos apparaissent depuis Google Maps, et Nishtha demande à avoir des indications pour s’y rendre.

Celles-ci sont disponibles soit sous simple forme textuelle ("Tournez à droite dans 500 m sur le Shoreline Blvd"), soit avec une carte comme sur un smartphone. Evidemment, le champ de vision est très réduit et la résolution est probablement limitée, mais étant donné le format relativement fin et léger des lunettes, cela reste très impressionnant.
Satisfaite par ce choix, Nishtha Bhatia crée ensuite une entrée dans son calendrier pour prendre un café avec son collègue (Dieter Bohn) et lui envoie l’invitation, adresse comprise. Pour terminer, elle immortalise le moment en prenant une photo de l’assistance. Ah non, "one more thing" : une conversation traduite en temps réelle entre Nishtha et Dieter, elle parlant en Hindi, lui en Farsi, et leurs lunettes traduisant chaque langage en anglais pour qu’ils puissent se comprendre.
Meta n'a qu'à bien se tenir
Cela reste une démonstration utilisant des prototypes, mais Google réussit l’exploit de rattraper (voire dépasser) Meta, dont les Ray-Ban Meta n’ont pas d’écran à l’heure actuelle et sont plus limitées car ne bénéficiant pas de l’écosystème Google (Gmail, Calendar, Maps, YouTube...). C’est la force d’Android XR. Car oui, le casque Moohan et les lunettes utiliseront la même plateforme logicielle, malgré des capacités et formats très différents. "Ce sera complètement transparent pour les développeurs, il n’y aura qu’un seul APK et leurs outils et API seront les mêmes", précise Juston Payne.
Evidemment, tout cela est sous-tendu par Gemini. De la compréhension du langage naturel à la reconnaissance d'image, l'assistant de Google est la pierre angulaire de ces lunettes car toute l'interface utilisateur passe par elle. Il bénéficie des avancées du projet Astra en matière de compréhension visuelle du monde (l'objectif étant de transformer Gemini en un "World Model"), et le résultat combiné de cet assistant très personnel et des lunettes comme appareil électronique toujours disponible nous rapproche de la vision d'un "assistant IA universel" telle qu'imaginée par Demis Hassabis, CEO de Google DeepMind. Une vision similaire à celle Meta.
Samsung en partenaire, mais aussi Kering Eyewear et Warby Parker
Comme pour le projet Moohan (casque de réalité mixte), les lunettes sont conçues en partenariat avec Samsung. Mais Google a appris du succès des Ray-Ban Meta (et de l’échec de Google Glass en son temps). Il s’est allié avec Kering Eyewear, qui dispose de 14 marques comme Gucci, Cartier, Saint Laurent, Balenciaga, Alexander McQueen ou Montblanc. Warby Parker (opticien permettant d’acheter des lunettes en ligne) & Gentle Monster sont aussi au rang des partenaires.
Google et Samsung travaillent sur un “reference design” combinant à la fois logiciel et matériel, et indiquent que les développeurs pourront s’approprier la plateforme "plus tard cette année". Pas de commentaire néanmoins sur une éventuelle date de lancement commercial, ni sur une fourchette de prix.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
