fermer
Réalité virtuelle et augmentée

Google I/O 2025 : Xreal et Google, le futur de la réalité étendue s’appelle Project Aura

Google I/O 2025 : Xreal et Google, le futur de la réalité étendue s'appelle Project Aura
Google I/O 2025 : Xreal et Google, le futur de la réalité étendue s'appelle Project Aura

Lors de la conférence Google I/O 2025, la firme de Mountain View a officialisé son retour dans l’univers des lunettes intelligentes. Et cette fois, elle ne le fait pas seule. En partenariat avec Xreal (anciennement Nreal), Google a présenté Project Aura, une nouvelle paire de lunettes XR immersives tournant sous Android XR et intégrant Gemini — son assistant IA maison.

Project Aura devient ainsi le deuxième appareil Android XR officiel après le casque Project Moohan développé avec Samsung. Mais contrairement à ce dernier, qui vise la réalité mixte haut de gamme à la façon d’un Apple Vision Pro, Project Aura adopte une approche plus légère, mobile et accessible.

Ces lunettes s’inscrivent dans la lignée des produits existants de Xreal, comme les Xreal One ou Xreal Air, qui permettent déjà de projeter l’écran d’un smartphone ou d’un ordinateur directement dans votre champ de vision, tout en contrôlant l’opacité pour s’isoler (ou non) de son environnement réel. Project Aura s’en inspire clairement… tout en marquant une nette évolution matérielle.

Un design affiné, pensé pour l’usage quotidien

Les rendus dévoilés laissent entrevoir un produit plus ambitieux que les générations précédentes :

  • Caméras intégrées dans les branches et le pont nasal, permettant une meilleure interaction avec l’environnement
  • Microphones intégrés, probablement pour les commandes vocales via Gemini
  • Boutons physiques sur les branches, signe d’un certain degré de contrôle direct
  • Grand champ de vision, annoncé comme un des points forts de l’appareil

Si le design reste assez proche de lunettes de soleil « tech », on sent une volonté de rendre l’appareil plus ergonomique, plus discret et plus immersif.

Gemini embarqué : l’IA de Google au cœur de l’expérience

Comme pour Project Astra (le modèle multimodal temps réel dévoilé récemment), Google fait de Gemini le cœur stratégique de ses futurs appareils personnels. Project Aura permettra ainsi :

  • Des interactions naturelles via la voix
  • Une compréhension contextuelle via les caméras
  • Une expérience mains libres assistée par l’intelligence artificielle

L’idée ? Un assistant proactif qui perçoit ce que vous voyez, comprend ce que vous dites, et vous répond dans le contexte de votre environnement. Une évolution logique de ce que Google propose déjà sur smartphone… en bien plus immersif.

Un OS Android XR, pensé pour la modularité

Comme avec Wear OS pour les montres, Google fournit ici la plateforme logicielle — Android XR — tandis que les partenaires s’occupent du matériel. Le modèle est clair : laisser des constructeurs comme Xreal proposer plusieurs formes et déclinaisons, tout en assurant une cohérence logicielle autour de Gemini et Android XR.

Google précise d’ailleurs que les applications conçues pour les casques XR (comme le Project Moohan) pourront être portées facilement vers Project Aura, avec des adaptations minimales pour le nouveau facteur de forme.

Une disponibilité encore floue, mais un AWE 2025 à surveiller

Les détails techniques restent pour l’instant limités :

  • Puce Qualcomm optimisée XR (pas encore précisée)
  • Fonctionnalités IA embarquées grâce au cloud Google
  • Expérience « optical see-through », donc avec vision directe de l’environnement, contrairement à la VR

Xreal promet de révéler plus d’informations lors du salon Augmented World Expo (AWE) en juin. On devrait notamment en apprendre davantage sur les spécificités matérielles, l’autonomie, la compatibilité applicative, et peut-être même une fenêtre de sortie pour les développeurs ou early adopters.

Avec Project Aura, Google revient dans la course aux lunettes intelligentes, mais avec une stratégie plus humble et plus mature qu’à l’époque des Google Glass. En confiant le matériel à des partenaires expérimentés comme Xreal, et en se concentrant sur l’IA embarquée et l’OS, la firme évite les écueils du passé tout en surfant sur la vague actuelle des agents intelligents, incarnée par Project Astra.

L’objectif semble clair : faire des lunettes XR le prochain terminal naturel pour l’IA de Google, et une porte d’entrée vers une informatique plus contextuelle, plus humaine, et plus assistée.

À suivre de près lors de l’AWE 2025, puis d’ici fin 2025 pour les premiers modèles grand public.

Tags : GoogleGoogle I/O 2025I/O 2025Project AuraXREAL
Yohann Poiron

The author Yohann Poiron

J’ai fondé le BlogNT en 2010. Autodidacte en matière de développement de sites en PHP, j’ai toujours poussé ma curiosité sur les sujets et les actualités du Web. Je suis actuellement engagé en tant qu’architecte interopérabilité.