Google vient de rendre officiel ce que beaucoup anticipaient : Google lancera ses premières lunettes d’intelligence artificielle en 2026. L’annonce arrive via un article de blog qui détaille la stratégie XR du groupe… et confirme que Google revient sérieusement dans la guerre du « wearable AI ».
Lors de Google I/O en mai, l’entreprise avait déjà dévoilé des partenariats avec Gentle Monster et Warby Parker pour concevoir une nouvelle génération de lunettes basées sur Android XR, l’OS qui alimente déjà le Galaxy XR de Samsung.
Mais jusqu’ici, Google restait vague sur un calendrier. Plus maintenant.
Deux types de lunettes AI : assistance « invisible » ou HUD privé intégré
Google développe au moins deux modèles distincts, chacun avec des usages bien définis.
1. Des lunettes « screen-free » pour assistance vocale et visuelle
Ces lunettes n’auront pas d’écran dans les verres, disposeront de microphones, de haut-parleurs et des caméras intégrés, et offriront une unteraction directe avec Gemini.
Elles sont pensées pour la capture photo, l’aide contextuelle, les réponses rapides. Le positionnement semble clair : une IA toujours accessible, mais complètement invisible aux yeux des autres.
C’est l’héritage direct de Google Assistant… mais sans téléphone.
2. Des lunettes avec affichage intégré dans les verres (in-lens display)
La seconde paire de lunettes offrira un écran visible uniquement par l’utilisateur, une navigation turn-by-turn, des sous-titres en temps réel et des informations contextuelles flottantes façon HUD.
Google vise ici l’usage quotidien : marcher dans la rue, lire des infos en silence, traduire une conversation en live.
XR léger : Google mise aussi sur le « milieu de gamme » grâce à XREAL Aura
Google a également dévoilé un nouveau prototype en collaboration avec XREAL : le projet Aura, qui se situe entre le casque immersif et les lunettes minimalistes.
Le Project Aura offre un affichage AR à large champ de vision, un « puck » externe qui fait tourner Android XR (donc lunettes légères), et offre une expérience adaptée au travail (grand écran virtuel), aux apps Google, au streaming. C’est la version « lunettes pro/creator/travail nomade » du futur catalogue Google XR.
Pourquoi Google se relance maintenant ? Parce que Meta a pris trop d’avance
Depuis un an, les Ray-Ban Meta sont devenues la référence du marché. Des millions d’unités vendues. De vrais usages (caméra, assistant vocal, livestream). Et surtout : un partenariat fort avec une marque lifestyle.
Google a compris la leçon. Si tu veux que les lunettes IA deviennent grand public, tu dois passer par une marque… qui connaît la mode. Et, tu dois les vendre en magasin, pas juste en ligne.
C’est exactement ce que Google prépare avec Warby Parker. Elle vient d’investir 75 millions de dollars, et jusqu’à 150 millions au total si les objectifs sont atteints, avec une prise de participation possible dans Warby Parker. C’est un copier-coller assumé du modèle Ray-Ban/Meta… mais avec le poids de l’écosystème Google.
Apple et Snap arrivent aussi — 2026 sera l’année du « wearable AI »
Google n’est pas seul dans la course : Apple travaille sur des lunettes IA « légère » basées sur visionOS, Snap continue d’avancer avec ses Spectacles (toujours pas grand public, mais très matures côté AR) et Meta prépare déjà la 3ᵉ génération des Ray-Ban pour 2026.
Ce que cela signifie : 2026 pourrait devenir la première année où l’IA sort réellement du téléphone pour entrer dans… les lunettes.
Google peut réellement rivaliser — mais seulement si Gemini devient indispensable
Ces lunettes peuvent réussir si Google remplit trois conditions :
- Faire de Gemini un assistant qui dépasse Assistant. Si Gemini devient ultra contextuel (traduire, décrire une scène, anticiper un besoin), Google fera mouche.
- Éviter l’erreur Google Glass : aucun « facteur étrange ». Les lunettes doivent être jolies, discrètes et socialement acceptées. D’où Gentle Monster + Warby Parker.
- Offrir un usage quotidien réel : Le piège des lunettes connectées est connu : si elles ne servent qu’à recevoir des notifications ou filmer, les gens arrêtent de les porter.
Google vise des cas concrets avec la navigation, les sous-titres en direct, une assistance contextuelle, une capture instantanée ou encore un affichage d’écran virtuel avec Aura.
C’est malin. Et surtout : ça s’aligne parfaitement avec l’évolution de Gemini.
Le marché des wearables est en train de se réinventer — et cette fois, Google arrive avec un plan qui tient la route.



