Snap lance de nouvelles Spectacles plus performantes mais inadaptées au grand public

Snap dégaine avant Meta en présentant la 5e génération de ses lunettes connectées. Une avance qui n'est cependant pas forcément très avantageuse. Si les Spectacles 2024 représentent un pas en avant par rapport au modèle précédent, elles sont encore loin d'être prêtes pour une mise sur le marché.

Snapchat Spectacles 2024
Snapchat Spectacles 2024

Snap a tenu sa grande conférence annuelle à Miami le 17 septembre. Elle y a présenté une version simplifiée de Snapchat, qui regroupe désormais les Stories et les vidéos Spotlight (avec un système de recommandation unifié), plaçant les Stories en haut des conversations et les vidéos Spotlight sur la droite.

Elle renforce aussi son intégration de l'IA avec de nouvelles Lenses, des collages réalisés automatiquement et des fonctionnalités de reconnaissance d'image (signalétique, plantes...) et de traduction automatique dans My AI, à la façon de Google Lens. Par ailleurs, Snapchat gère désormais les vidéos 3D créées par Gaussian Splatting, qui permettent d'intégrer des modèles 3D d'objets réels dans leurs Lenses.

Des lunettes plus performantes...

Néanmoins, l'annonce la plus marquante était sans conteste la présentation de ses nouvelles lunettes de réalité augmentées, simplement nommées "Spectacles 2024". Elles sont améliorées en tout point par rapport aux Spectacles 4, le précédent modèle sorti en 2021. Elles ont une meilleure résolution (37 pixels par degré contre 480 x 564 pixels, soit 25% de plus), un champ de vision étendu (46° diagonal contre 26,3°), plus d'autonomie (45 minutes contre à peine 30), un suivi des mains plus précis et un système d'exploitation (Snap OS) entièrement repensé.

Snapchat Spectacles 2024

L'interface de Snap OS a été conçue autour du suivi des mains et des commandes vocales (le menu est situé dans la paume de sa main), et il est doté de fonctionnalités "sociales", comme la capacité de détecter d'autres Spectacles 2024 pour vivre des expériences partagées, ou la possibilité pour un smartphone de participer à une session de réalité augmentée en utilisant un mode spectateur. Un smartphone peut également être utilisé comme contrôleur pour les applications qui le nécessitent.

Elles sont aussi dotées de verres qui peuvent s'assombrir de façon dynamique (pour être utilisable en extérieur), et leurs guides d'ondes (avec projecteurs LCoS) ont une vitesse de rafraîchissement de 120 Hz. Il est possible d'ajuster l'écart interpupillaire de 57 à 71 mm. Deux caméras infrarouges et une centrale inertielle gèrent le tracking (avec 13 ms de latence "motion-to-photon"), tandis que deux caméras couleurs permettent de capturer des images. Deux haut-parleurs intégrés dans les branches fournissent un son spatialisé, tandis que six micros capturent la voix.

...Mais aussi plus massives

La puissance de calcul est fournie par deux processeurs Snapdragon non spécifiés, mais qui appartiennent quasi-certainement à la ligne produit AR2 de Qualcomm. Snap a choisi d'intégrer toute l'électronique dans les lunettes, sans boîtier externe.

Snapchat Spectacles 2024

Tout cela n'est pas sans contrepartie : les Spectacles 2024 pèsent 226 grammes, contre 134 g pour les Spectacles 4, et sont plus grosses. Impossible de les confondre avec de simples lunettes de soleil. De plus le champ de vision reste encore trop limité, et le rapport entre taille, poids et fonctionnalités n'a pas encore atteint le point de bascule nécessaire pour faire des Spectacles un produit qui puisse intéresser le grand public.

Elles sont de toute façon réservées aux développeurs de l'écosystème AR Lenses de Snap, sans version grand public de prévu. Elles sont disponibles dès aujourd'hui à la location pour 99 dollars par mois, et l'abonnement se prend obligatoirement à l'année, ce qui revient à près de 1200 dollars. La demande doit être faite depuis Lens Studio.

Tout reste à faire

Les premiers retours font aussi état d'un environnement logiciel encore basique et manquant de cas d'usage concrets. On peut ouvrir un navigateur web dans une fenêtre, utiliser My AI (assistant basé sur ChatGPT), et il y avait quelques petites applications de démonstration immersives (Peridot de Niantic, Lego Bricktacular...), mais rien qui puisse motiver quelqu'un à s'en servir plus de 30 minutes. Snap, comme d'autres entreprises tech, semble se reposer sur les développeurs tiers pour trouver une utilité à son produit.

Pour inciter lesdits développeurs à s'investir dans sa plateforme, Snap souligne qu'elle ne prélève pas de frais sur les ventes d'applications, contrairement au modèle économique traditionnel qui consiste à confisquer 30% des revenus. Pas sûr que cela ne soit très convaincant puisque les lunettes sont réservées aux développeurs et qu'elles n'ont même pas encore de boutique d'applications.

Concernant les outils de développement, entre autres améliorations, Snap promet que Lens Studio 5 permettra bientôt aux développeurs d'utiliser différents modèles d'IA multimodaux (dans le cloud, pas en local), en partenariat avec OpenAI, pour fournir de l'intelligence contextuelle sur ce que l'utilisateur regarde ou entend. La fonctionnalité SnapML permettra quant à elle de faire de la reconnaissance et du suivi d'objet en temps réel. Les développeurs répondront-ils présents ? Cela reste à voir. Pour sa part, Snap estime qu'une version grand public de ses lunettes ne verra pas le jour avant 2030 au plus tôt.

Newsletter L'Usine Digitale
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.
Cherche talents numériques
Les webinars