Dans la course aux lunettes connectées, Huawei pourrait bientôt remettre une pièce dans la machine — avec un produit qui vise un usage très concret : traduire et interagir en mobilité, sans dépendre en permanence d’une appli ouverte sur le téléphone.
Selon une fuite attribuée au leaker Digital Chat Station, le constructeur travaillerait sur de nouvelles « Huawei AI Glasses » attendues au premier semestre 2026, avec une fonction de traduction embarquée et une panoplie plus large de capacités « IA ».

Huawei AI Glasses : traduction, capture, audio… et trois batteries
Les informations qui circulent décrivent une paire de lunettes qui irait plus loin que de simples « lunettes audio » :
- Traduction intégrée (présentée comme utilisable directement depuis l’appareil, pour des tâches basiques).
- Photos/vidéos, enregistrement audio, lecture musicale via haut-parleurs et micros intégrés — une logique qui rappelle la proposition « caméra + IA + audio » popularisée par d’autres acteurs du segment.
- Un choix technique intéressant : trois batteries lithium pour équilibrer autonomie et répartition du poids.
- Des coloris évoqués : Streamer Silver, Titanium Silver Gray et Modern Black.
À noter : certains résumés en ligne parlent d’une intégration « HyperOS », mais l’écosystème Huawei s’articule plutôt autour de HarmonyOS. Plusieurs reprises de la fuite mentionnent d’ailleurs explicitement l’ancrage logiciel Huawei et la logique multi-appareils.
Huawei n’arrive pas de nulle part : l’« Eyewear » comme base, l’IA comme accélérateur
Huawei commercialise déjà des lunettes orientées audio (écoute open-ear, appels mains libres, etc.), comme HUAWEI Eyewear 2, qui posent les fondamentaux (confort, acoustique, usage quotidien).

Ce que suggère la nouvelle fuite, c’est un basculement vers une catégorie plus ambitieuse : des lunettes IA « assistantes », capables de comprendre une intention (traduire, capter, résumer) et d’agir vite.
Et, la traduction, justement, est un marqueur clé : ce n’est plus un gadget de démo, c’est un cas d’usage immédiat (voyage, réunions, service client, études). Bref, l’IA qui se rend utile… sans spectacle.
Pourquoi la traduction « embarquée » change la perception ?
Si Huawei réussit une traduction réellement fluide et exploitable au quotidien, ça repositionne les lunettes comme outil de friction-killer. Vous n’alternez plus entre écran, écouteurs et applis, vous gardez les mains libres et vous créez une interaction « invisible » : l’IA devient un réflexe, pas une tâche.
C’est exactement la direction que prend le marché : on voit de plus en plus de concepts et de produits qui mettent la traduction en temps réel et l’IA multimodale au centre des lunettes.
Le vrai défi : batterie, chaleur, et acceptabilité sociale
Le nerf de la guerre, ce n’est pas de promettre la traduction. C’est de la livrer sans sacrifier l’autonomie (d’où l’idée de trois batteries), la chaleur et la stabilité (micro + haut-parleurs + IA = contraintes), la discrétion (caméra et confiance sociale : le sujet est sensible), et la qualité (une traduction moyenne, c’est de la friction — l’inverse de la promesse).
Et comme toujours avec les fuites : tant que Huawei n’a pas communiqué, il faut garder une réserve. Mais l’ensemble est cohérent avec la trajectoire du marché et les signaux actuels autour des lunettes IA.



