Meta présente deux nouveaux prototypes de casques de réalité virtuelle ce 10 août à l'occasion du Siggraph, séminaine de référence sur les technologies visuelles qui se tient chaque année aux Etats-Unis.
Ils sont le fruit du travail de deux équipes distinctes de la division Reality Labs Research de Meta, qui les décrivent comme des jalons majeurs vers l'aboutissement d'un casque capable de produire une image indissociable de ce que voit l'œil humain de façon naturelle. Les chercheurs appellent ça un "test de Turing visuel", en référence au célèbre test pour l'intelligence artificielle (qui n'est plus jugé crédible).
Une fidélité visuelle à la hauteur de la rétine
Le premier prototype se nomme Tiramisu et propose une qualité visuelle hors du commun, avec une résolution de 90 pixels par degrés (3,6 fois plus que le Quest 3, qui n'affiche que 25 ppd) et une luminosité de 1400 nits (14 fois plus qu'un Quest 3). Quant au contraste, il est aussi trois fois supérieur à celui du Quest 3. Ce prototype a été développé par l'équipe Optics, Photonics, and Light Systems (OPALS). Pour référence, la capacité visuelle nécessaire pour obtenir 10/10 à un test de vision est généralement estimée à 60 ppd.

Pour atteindre cette qualité, le casque utilise des écrans Micro-Oled et un module optique conçu spécialement pour l'occasion. Mais il y a un prix à payer : un champ de vision minuscule de 33° x 33°. En comparaison, le champ de vision du Quest 3 est de 110° (horizontal) x 96° (vertical). Les lentilles (qui sont en verre plutôt qu'en plastique) sont aussi plus lourdes, et le casque est généralement beaucoup plus grand. La démonstration qui en est faite au Siggraph nécessite par ailleurs un PC. Elle tourne sous Unreal Engine 5 et s'appuie sur la technologie DLSS 3 de Nvidia pour obtenir avec un framerate correct.
90% du champ de vision naturel de l'être humain
Le second prototype se nommé Boba 3, et provient de l'équipe Display Systems Research (DSR). Il prend le parti opposé avec un champ de vision ultra-large de 180° à l'horizontale et 120° à la verticale. C'est environ 90% du champ de vision naturel de l'être humain. Il le fait grâce à des polariseurs réfléchissants à haute courbure couplés à des lentilles pancakes. Et il y parvient sans faire de sacrifice sur la taille ou le poids, pesant 660 grammes dans sa version VR et 840 g pour la version MR, avec des caméras sur la façade. Il se paie même le luxe d'avoir une résolution de 30 ppd, soit meilleure que celle du Quest 3.

Plus impressionnant encore : Boba 3 ne s'appuie pas sur des technologies rares ou impossibles à fabriquer. Ses lentilles pancakes sont basées sur la même technologie de fabrication que celles du Quest 3, et il utilise des écrans du commerce. Cela ne signifie pas qu'on en verra une version commercialisée l'année prochaine, notamment car le coût en sera très élevé, mais c'est au moins du domaine du possible. Et puis la démonstration nécessite là aussi un PC avec un GPU dernier cri, la résolution d'affichage étant de 4K x 4K par œil.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
