fermer
Couverture MWC  2026

Réalité virtuelle et augmentée

La réalité virtuelle (RV) et la réalité augmentée (RA) sont en train de transformer les industries, de l’éducation au commerce en passant par le divertissement.

Découvrez comment ces technologies immersives sont utilisées pour créer des expériences uniques et des interactions enrichies. Nos guides vous fourniront des informations sur les meilleurs dispositifs, applications et stratégies pour intégrer efficacement la RV et la RA dans vos projets ou votre entreprise.

Réalité virtuelle et augmentée

MWC 2026 : RayNeo dévoile les Air 4 Pro, les premières lunettes AR en HDR10

MWC 2026 : RayNeo dévoile les Air 4 Pro, les premières lunettes AR en HDR10

Au MWC 2026, RayNeo (TCL) pousse encore plus loin l’idée de lunettes-écran : un accessoire léger, branché en USB-C, qui transforme n’importe quel smartphone ou PC en salle obscure personnelle. Avec les Air 4 Pro, la marque mise sur un triptyque simple — image HDR, audio « sans casque » et 3D à la volée — et ajoute une édition Batman qui ne se contente pas d’un habillage.

Une promesse « display first » : HDR10, 1 200 nits et 10,7 milliards de couleurs

Le point central, c’est l’affichage. RayNeo présente les Air 4 Pro comme les premières lunettes AR grand public avec HDR10, pilotées par une puce maison Vision 4000. La marque revendique 10,7 milliards de couleurs et une luminosité jusqu’à 1 200 nits, avec un gain de dynamique par rapport aux générations précédentes.

Dans la pratique, RayNeo vend surtout une expérience : un écran virtuel géant — jusqu’à 201 pouces « perçus » — qui suit votre mobilité (train, avion, bureau, canapé).

La puce Vision 4000 : de la 2D qui devient 3D, et du SDR boosté en HDR

RayNeo Air 4 Pro mid

Au-delà du HDR natif, RayNeo met en avant des traitements temps réel : upscaling SDR vers HDR et conversion 2D vers 3D via algorithmes propriétaires. L’idée est de rendre plus immersif du contenu standard, sans fichiers 3D spécifiques. C’est typiquement le genre de fonction qui fera la différence au quotidien si l’exécution est propre : une 3D « facile », sans friction, qui transforme Netflix/YouTube/jeux en expérience plus enveloppante.

RayNeo insiste aussi sur l’audio : quatre haut-parleurs et une architecture de « sound tubes » pour diriger le son vers l’oreille en limitant les fuites. Le tout est co-réglé par Bang & Olufsen, avec des modes visant à réduire le leakage en environnement partagé.

RayNeo Air 4 Pro mid 1

Compatibilité : l’approche pragmatique de la « lunette-écran »

Les Air 4 Pro se branchent à tout appareil USB-C avec sortie DisplayPort (téléphones, PC, consoles compatibles), ce qui en fait un produit moins « lunettes intelligentes » que moniteur portable à porter.

HCLQYrQbsAARbG1

La version « Batman Edition » (déclinée en Justice et Chaos/Joker) ajoute un élément très concret : des nuances interchangeables, conçus pour bloquer davantage la lumière ambiante et renforcer l’effet « salle noire ». RayNeo la présente comme un set collector, mais avec un bénéfice d’usage évident si vous regardez beaucoup de contenu en extérieur.

Prix et disponibilité : une stratégie « early bird » assumée

RayNeo annonce un positionnement agressif pour la catégorie :

  • Air 4 Pro Standard : 249 dollars en early bird (prix de vente 299 dollars)
  • Batman Limited Edition : 269 dollars en early bird (prix de vente 319 dollars)

Le marché des lunettes-écrans avance par itérations : plus léger, plus lumineux, plus confortable. Le HDR10 est un signal fort parce qu’il parle immédiatement aux usages « cinéma » — contrastes, hautes lumières, profondeur — là où beaucoup de produits restent cantonnés à une image flatteuse mais limitée.

La recette RayNeo est cohérente : éviter la complexité des « vraies » smart glasses (caméras, IA sociale, contraintes légales), et se concentrer sur ce que l’utilisateur ressent en 10 secondes : « je viens d’installer un écran géant devant mes yeux. » Si l’optique, le confort (76 g annoncés) et la gestion des reflets tiennent leurs promesses, l’Air 4 Pro peut devenir l’un de ces gadgets qui quittent le tiroir pour le sac.

Lire plus
Réalité virtuelle et augmentée

Les lunettes connectées Apple : Pourquoi Siri a besoin de deux caméras ?

Les lunettes connectées Apple : Pourquoi Siri a besoin de deux caméras ?

Apple semble enfin sortir ses lunettes connectées du tiroir des « projets éternels ». D’après les informations de Bloomberg (Mark Gurman), la firme a accéléré le développement de trois wearables IA — des lunettes connectées, des AirPods avec caméras, et un pendentif/pin — tous pensés comme des extensions de Siri, capables d’utiliser le contexte visuel pour agir.

Deux caméras : le détail matériel qui change l’ambition

Le point le plus marquant dans le reporting, c’est l’idée d’une paire de lunettes avec deux caméras. Plusieurs reprises expliquent que l’une servirait à la capture photo/vidéo, tandis que l’autre serait dédiée aux tâches de computer vision (perception de profondeur, compréhension de scène, assistance « en temps réel »).

C’est cohérent avec la direction « Visual intelligence » évoquée depuis des mois : l’IA ne doit plus seulement répondre, elle doit voir ce que l’utilisateur voit — et transformer cette perception en actions utiles.

Bloomberg décrit des lunettes conçues comme un wearable léger et quotidien, plutôt qu’un casque. L’esthétique serait premium, avec des matériaux/finishes « haut de gamme » et plusieurs styles de montures testés. L’idée est stratégique : Apple ne cherche pas à remplacer Vision Pro, mais à installer un second produit, plus socialement acceptable, plus « invisible », et potentiellement plus mass market.

Un écosystème de capteurs : lunettes + AirPods caméra + pendentif

Le point clé du papier Bloomberg, c’est la logique d’ensemble : Apple assemblerait une constellation d’objets (lunettes, AirPods avec caméras, pendant) qui enrichissent Siri via des capteurs permanents — une sorte de réseau « yeux et oreilles » pour l’iPhone. Cette approche est plus intéressante qu’un gadget isolé : au lieu de parier sur un appareil magique, Apple parie sur une IA ambiante distribuée, où chaque objet apporte une partie du contexte.

Sur le calendrier, les sources qui reprennent Bloomberg évoquent une trajectoire vers 2027 (production/industrialisation avant, lancement après), ce qui cadre avec l’idée d’un produit avancé mais encore en maturation (poids, autonomie, confort, placement batterie).

Pourquoi ces lunettes pourraient compter plus que les « fonctionnalités IA » sur iPhone

Le smartphone a déjà une IA. Le problème, c’est qu’elle reste souvent enfermée dans des apps et des écrans. Les lunettes, elles, promettent une rupture d’interface : le contexte devient l’UI.

Si Apple réussit, les bénéfices sont évidents :

  • navigation plus naturelle (repères réels plutôt que mètres)
  • traduction et lecture de panneaux « dans le flux »
  • accessibilité (reconnaissance d’objets/lieux)
  • mémo/notes et actions rapides sans sortir le téléphone

Le risque est tout aussi clair : la caméra « toujours là » impose une exigence de confiance (contrôles physiques, indicateurs, traitement local, permissions). Apple sait jouer cette carte, mais sur des lunettes, la tolérance sociale est bien plus faible que sur un smartphone.

Lire plus
Réalité virtuelle et augmentée

Apple viserait 2028 pour ses lunettes AR : Meta pourrait dégainer Orion dès 2027

Apple viserait 2028 pour ses lunettes AR : Meta pourrait dégainer Orion dès 2027

Apple rêve d’un futur où l’écran quitte la poche pour venir se poser… sur le nez. Mais selon un nouveau rapport sectoriel, le calendrier de Cupertino serait moins agressif qu’espéré : Meta arriverait avant, avec une version « grand public » de Orion attendue dès 2027, quand Apple viserait plutôt 2028.

D’après une analyse attribuée à Omdia et reprise par plusieurs médias, Meta avancerait vers une paire de lunettes AR grand public dans la continuité d’e Orion, son prototype présenté en 2024.

Le point clé, c’est la promesse d’une « vraie » AR : un affichage dans les deux verres, et pas seulement des notifications minimalistes. Cette trajectoire colle aussi aux signaux marché observés autour de la gamme « Ray-Ban Meta », et à la stratégie affichée par Meta pour faire des lunettes la prochaine interface d’IA.

Pourquoi Apple ne serait « prête » qu’en 2028 ?

Toujours selon ces mêmes éléments, Apple viserait 2028 pour des lunettes AR réellement abouties. Le rapport met notamment en avant un frein structurel : l’IA embarquée. Pour qu’une lunette AR soit crédible au quotidien, elle doit comprendre l’environnement, prioriser l’information, répondre vite — sans transformer la monture en radiateur, ni dépendre en permanence d’un appareil externe.

En clair : ce n’est pas seulement un problème d’écran, c’est un problème de compute + autonomie + dissipation thermique… et d’IA « always-on ».

Vision Pro : un produit, mais surtout un marchepied

Dans cette lecture, le Vision Pro ressemble moins à la destination qu’à un pivot : Apple a posé un drapeau sur le territoire XR, mais l’objectif final reste la lunette — plus légère, plus sociale, plus « portable » qu’un casque. Cette idée circule depuis des mois chez les observateurs d’Apple.

Meta a un avantage : l’expérience terrain (itérations rapides, volumes, partenaires, apprentissage produit). Et surtout, Meta semble accepter une stratégie en paliers : d’abord des lunettes « IA » utiles, ensuite de l’AR plus ambitieuse.

Apple, elle, n’a pas le droit à un demi-succès : sa marque vend du « ça marche, tout de suite ». Si ses lunettes AR sortent en 2028, elles devront incarner une bascule d’usage claire — pas une démo technologique.

Le paradoxe est là : arriver plus tard peut être une force… si Apple transforme la lunette en objet désirable et indispensable. Mais dans un marché naissant, laisser Meta installer les codes (gestes, UI, usages sociaux) pourrait coûter cher.

Lire plus
Réalité virtuelle et augmentée

YouTube arrive enfin sur Apple Vision Pro… mais l’option 8K serait réservée au modèle M5

YouTube arrive enfin sur Apple Vision Pro… mais l’option 8K serait réservée au modèle M5

Deux ans après le lancement du Vision Pro, l’absence d’une app YouTube « native » ressemblait à un trou béant dans la promesse du spatial computing. Google vient enfin de le combler : YouTube est désormais disponible sur visionOS.

Mais, la bonne nouvelle arrive avec une petite pique bien réelle pour les premiers acheteurs : l’option 8K serait réservée au Vision Pro équipé de la puce M5, tandis que le modèle d’origine resterait limité à un plafond inférieur.

YouTube : Une app officielle, enfin, après deux ans de « Safari seulement »

Jusqu’ici, regarder YouTube sur Vision Pro signifiait passer par le navigateur — fonctionnel, mais loin d’une expérience pensée pour l’interface spatiale. Entre-temps, un contournement avait existé : Juno, client tiers apprécié, avant d’être retiré de l’App Store (YouTube invoquant des problèmes de conformité aux règles de la plateforme).

1040x586bb 60 1

L’app officielle change la donne : elle apporte une UI conçue pour visionOS, avec les fondamentaux YouTube (abonnements, historiques, playlists, Shorts) et la prise en charge de formats immersifs comme 360° et VR180.

8K pour les uns, 4K pour les autres

C’est le point qui risque de faire grincer des dents : d’après les premiers détails, la lecture 8K sur YouTube n’est proposée que sur le Vision Pro M5 — le modèle « refresh » annoncé par Apple à l’automne 2025 — tandis que le Vision Pro M2 resterait cantonné à une définition plus basse (souvent présentée comme 4K côté app).

1040x586bb 60 2

YouTube arrive enfin sur Apple Vision Pro… mais l’option 8K serait réservée au modèle M5
YouTube arrive enfin sur Apple Vision Pro… mais l’option 8K serait réservée au modèle M5

Et c’est là que la polémique devient presque philosophique : le Vision Pro première génération est techniquement capable de lire des contenus très exigeants (Apple pousse d’ailleurs son format Apple Immersive Video), mais YouTube choisit manifestement de segmenter l’expérience — pour des raisons qui peuvent être aussi bien techniques (décodage, pipeline, performances soutenues) que produit (simplifier le support, limiter les coûts, éviter les edge cases).

Une victoire symbolique… et un rappel brutal de la réalité Vision Pro

L’arrivée de YouTube sur visionOS a une valeur symbolique énorme : elle enlève un argument facile aux sceptiques (« même YouTube n’y est pas »). Mais, l’asymétrie 8K entre M2 et M5 raconte autre chose : le Vision Pro vit déjà comme une plateforme à deux vitesses.

Pour Apple, le refresh M5 sert à relancer l’histoire (performances, confort, continuité logicielle). Pour Google, cette app est surtout un « rattrapage » stratégique : être présent là où se fabrique l’avenir des interfaces… sans promettre le même niveau d’investissement pour chaque génération.

Au final, YouTube arrive sur Vision Pro au moment où l’écosystème en avait le plus besoin — mais il arrive aussi avec une vérité pas très agréable : dans la XR premium, l’expérience n’est plus seulement une question de logiciel, c’est une question de révision matérielle.

Lire plus
Réalité virtuelle et augmentée

Ray-Ban Meta : Le projet secret « Name Tag » pour identifier les gens dans la rue ?

Ray-Ban Meta : Le projet secret « Name Tag » pour identifier les gens dans la rue ?

Meta veut remettre la reconnaissance faciale au cœur de ses lunettes connectées — et cette fois, ce ne serait pas un « hack de chercheurs », mais une fonctionnalité maison, intégrée à l’assistant IA.

D’après une enquête du New York Times, le projet — en interne, « Name Tag » — pourrait arriver dès cette année sur les Ray-Ban Meta (et autres modèles) pour identifier des personnes dans le champ de vision et remonter des infos via l’IA.

« Name Tag » : ce que Meta testerait réellement

Selon les reprises du dossier, l’idée serait de permettre à l’utilisateur de reconnaître quelqu’un (par exemple à partir de profils ou d’informations disponibles) et de recevoir une réponse contextualisée via l’assistant IA. On est donc sur une bascule : la lunette ne se contente plus de filmer ou d’écouter, elle attribue une identité.

Le même reporting évoque aussi une hésitation interne de Meta autour des risques sécurité/vie privée, et un plan initial qui aurait envisagé un lancement d’abord dans un cadre lié à l’accessibilité (conférence pour personnes malvoyantes) avant une diffusion plus large — plan finalement non réalisé.

Le passage le plus explosif : le « bon moment » politique

La phrase attribuée à un mémo interne est révélatrice : Meta aurait envisagé un lancement pendant un contexte politique « dynamique », au moment où les ONG et groupes civils susceptibles de s’y opposer seraient mobilisés ailleurs. Même si les plans peuvent changer, cette logique de « fenêtre de tir » donne au projet une dimension moins produit, plus rapport de force.

Les lunettes connectées posaient déjà une question simple : qui filme qui, et est-ce visible ? Or la reconnaissance faciale transforme la question en : qui peut être identifié, en temps réel, par un inconnu ?

Reuters rappelait déjà fin 2025 que les Ray-Ban Meta gagnaient du terrain, tout en attirant une scrutation réglementaire (notamment en Europe) sur la transparence pour les personnes autour (voyant de capture) et sur l’usage des données, avec en toile de fond le RGPD et l’AI Act.

Le vrai nœud : l’opt-in ne protège pas les « bystanders »

Même si Meta encadre « Name Tag » (considerations sur consentement, opt-in, restrictions), le problème central reste : la personne identifiée n’a rien demandé. Or la reconnaissance faciale, c’est précisément la technologie qui abolit l’anonymat « pratique » des espaces publics.

C’est aussi pour ça que l’accessibilité (aider à reconnaître des proches, se repérer socialement) est un argument puissant — et dangereux : c’est la meilleure justification… pour la capacité la plus intrusive.

À quoi s’attendre si Meta avance vraiment

Trois points seront décisifs pour juger si « Name Tag » devient un scandale mondial ou une fonctionnalité « acceptable » :

  1. Périmètre d’identification : Reconnaître uniquement des personnes « opt-in » (contacts/proches) n’a pas la même portée que reconnaître des inconnus via bases élargies/profils publics.
  2. Signalement aux tiers : Voyant, notification, mode visible : la transparence ne résout pas tout, mais l’absence de transparence rend la fonctionnalité socialement toxique.
  3. Cadre légal par pays : L’Europe (RGPD/AI Act) n’est pas les États-Unis. Un déploiement « global » serait presque forcément fragmenté.

Au fond, Meta teste une idée très simple : si l’IA devient « vos yeux », elle finit par devenir les yeux des autres — et la société n’a pas encore décidé si elle veut vivre avec ça.

Lire plus
Réalité virtuelle et augmentée

Samsung officialise ses lunettes connectées Android XR pour fin 2026

Samsung officialise ses lunettes connectées Android XR pour fin 2026

La XR n’est plus un « projet de labo » chez Google. Et, Samsung ne veut plus rester spectateur de la prochaine interface majeure. Les deux groupes approfondissent leur collaboration autour de Android XR, avec un objectif assumé : faire de Android XR la base logicielle (et matérielle) de la prochaine génération de lunettes connectées et de lunettes AR, plus simples à concevoir pour les marques, plus faciles à cibler pour les développeurs.

Et, fait nouveau côté calendrier : Samsung confirme qu’elle lancera ses propres lunettes connectées en 2026, évoquées publiquement lors de son earnings call, comme partie intégrante d’une stratégie « AI hardware » multimodale.

Ce que Google et Samsung mettent sur la table : du « référentiel » pour créer une industrie

À la Google I/O 2025, Shahram Izadi (Android XR) expliquait que Google allait pousser son partenariat avec Samsung « au prochain niveau », en travaillant sur du matériel de référence et du logiciel de référence pour des lunettes Android XR. L’idée : fournir une base éprouvée (design, capteurs, intégration, APIs) que d’autres marques pourront reprendre plutôt que de réinventer la roue.

Ce type de « reference platform » n’est pas glamour, mais c’est le nerf de la guerre : quand un écosystème part de zéro, la standardisation fait gagner des années (et évite des produits incompatibles, des SDK fragmentés, des expériences incohérentes).

Google a déjà une page « Android XR » qui décrit l’OS comme une plateforme pensée pour headsets et lunettes, avec Gemini au centre. 

Deux familles de lunettes : sans écran d’abord, avec affichage ensuite

Google a clarifié que Android XR vise deux catégories de lunettes :

  • Des « lunettes IA » sans écran, centrées sur l’assistance mains libres (micro, haut-parleurs, caméras) — plus légères et plus accessibles.
  • Des lunettes avec affichage intégré, capables de superposer des informations (navigation, traduction, indications contextuelles) — forcément plus chères et plus complexes à industrialiser.

C’est une approche pragmatique : démarrer par le « screen-free » permet d’atteindre un vrai volume plus vite (et d’entraîner les usages), avant de basculer vers l’AR visuelle lorsque l’autonomie, les optiques et les coûts deviennent acceptables.

Galaxy XR Blog Header.width 1300

Les partenaires « style » : Warby Parker et Gentle Monster pour sortir du look prototype

Pour Google, la leçon Meta est évidente : les lunettes doivent d’abord être portables. D’où des partenariats avec des marques de lunettes comme Warby Parker et Gentle Monster, annoncées comme partenaires Android XR. Warby Parker a même publié une page dédiée à son « intelligent eyewear » avec Google, et Reuters a rapporté un objectif de lancement en 2026 pour les premiers produits issus de cette collaboration.

En filigrane, Android XR cherche à devenir ce qu’Android a été pour le smartphone : un socle commun, sur lequel des marques viennent différencier le design, les matériaux, le pricing et l’écosystème.

Samsung confirme ses lunettes 2026 : une stratégie en deux temps (et un message à Apple)

Samsung a confirmé lors de son appel financier pour ce trimestre que des « lunettes AR de nouvelle génératio » étaient prévues en 2026, intégrées à une vision d’expériences IA multimodales sur plusieurs formats.

Les fuites et lectures de marché (à prendre comme telles) décrivent une première génération sans affichage AR en 2026, plus proche de la philosophie « assistant + audio + caméra », puis un modèle plus avancé avec affichage en 2027. Ce phasage collerait parfaitement aux deux catégories d’Android XR.

Dans l’écosystème Samsung, l’enjeu est énorme : si la prochaine interface se porte sur le visage, Samsung veut que Galaxy + Android XR soit l’équivalent futur de « Galaxy + Android » sur mobile — avec une IA plus contextuelle, plus persistante, et moins dépendante du smartphone à l’écran.

La bataille ne se jouera pas sur « la meilleure démo », mais sur les standards

Apple a choisi un angle premium avec son Vision Pro. Meta avance vite sur des lunettes grand public et prépare des paliers AR plus ambitieux. Google et Samsung, eux, semblent jouer la carte la plus « Android » possible : accélérer le marché avec des références, des partenaires design, et une plateforme qui réduit les coûts d’entrée pour les fabricants.

C’est potentiellement la meilleure stratégie pour gagner à moyen terme : dans les lunettes, le gagnant n’est pas forcément celui qui lance le premier, mais celui qui fait converger développeurs, marques et usages autour d’un cadre stable.

La question devient alors très concrète : Android XR peut-il éviter la fragmentation (trop de modèles, trop d’interfaces, trop d’implémentations bancales) tout en restant suffisamment ouvert pour attirer tout le monde ? Si Google et Samsung réussissent ce verrou, 2026 pourrait ressembler aux débuts d’Android… mais sur un nouveau visage.

Lire plus
Réalité virtuelle et augmentée

Huawei AI Glasses : Traduction en temps réel et triple batterie pour les lunettes de 2026

Huawei AI Glasses : Traduction en temps réel et triple batterie pour les lunettes de 2026

Dans la course aux lunettes connectées, Huawei pourrait bientôt remettre une pièce dans la machine — avec un produit qui vise un usage très concret : traduire et interagir en mobilité, sans dépendre en permanence d’une appli ouverte sur le téléphone.

Selon une fuite attribuée au leaker Digital Chat Station, le constructeur travaillerait sur de nouvelles « Huawei AI Glasses » attendues au premier semestre 2026, avec une fonction de traduction embarquée et une panoplie plus large de capacités « IA ».

Screen 2026 01 21 at 11.18.33

Huawei AI Glasses : traduction, capture, audio… et trois batteries

Les informations qui circulent décrivent une paire de lunettes qui irait plus loin que de simples « lunettes audio » :

  • Traduction intégrée (présentée comme utilisable directement depuis l’appareil, pour des tâches basiques).
  • Photos/vidéos, enregistrement audio, lecture musicale via haut-parleurs et micros intégrés — une logique qui rappelle la proposition « caméra + IA + audio » popularisée par d’autres acteurs du segment.
  • Un choix technique intéressant : trois batteries lithium pour équilibrer autonomie et répartition du poids.
  • Des coloris évoqués : Streamer Silver, Titanium Silver Gray et Modern Black.

À noter : certains résumés en ligne parlent d’une intégration « HyperOS », mais l’écosystème Huawei s’articule plutôt autour de HarmonyOS. Plusieurs reprises de la fuite mentionnent d’ailleurs explicitement l’ancrage logiciel Huawei et la logique multi-appareils.

Huawei n’arrive pas de nulle part : l’« Eyewear » comme base, l’IA comme accélérateur

Huawei commercialise déjà des lunettes orientées audio (écoute open-ear, appels mains libres, etc.), comme HUAWEI Eyewear 2, qui posent les fondamentaux (confort, acoustique, usage quotidien).

huawei eyewear 2 round eyewear

Ce que suggère la nouvelle fuite, c’est un basculement vers une catégorie plus ambitieuse : des lunettes IA « assistantes », capables de comprendre une intention (traduire, capter, résumer) et d’agir vite.

Et, la traduction, justement, est un marqueur clé : ce n’est plus un gadget de démo, c’est un cas d’usage immédiat (voyage, réunions, service client, études). Bref, l’IA qui se rend utile… sans spectacle.

Pourquoi la traduction « embarquée » change la perception ?

Si Huawei réussit une traduction réellement fluide et exploitable au quotidien, ça repositionne les lunettes comme outil de friction-killer. Vous n’alternez plus entre écran, écouteurs et applis, vous gardez les mains libres et vous créez une interaction « invisible » : l’IA devient un réflexe, pas une tâche.

C’est exactement la direction que prend le marché : on voit de plus en plus de concepts et de produits qui mettent la traduction en temps réel et l’IA multimodale au centre des lunettes.

Le vrai défi : batterie, chaleur, et acceptabilité sociale

Le nerf de la guerre, ce n’est pas de promettre la traduction. C’est de la livrer sans sacrifier l’autonomie (d’où l’idée de trois batteries), la chaleur et la stabilité (micro + haut-parleurs + IA = contraintes), la discrétion (caméra et confiance sociale : le sujet est sensible), et la qualité (une traduction moyenne, c’est de la friction — l’inverse de la promesse).

Et comme toujours avec les fuites : tant que Huawei n’a pas communiqué, il faut garder une réserve. Mais l’ensemble est cohérent avec la trajectoire du marché et les signaux actuels autour des lunettes IA.

Lire plus
Réalité virtuelle et augmentée

Xiaomi lance ses lunettes audio en Europe : Le son sans écouteurs dès 179 € !

Xiaomi lance ses lunettes audio en Europe : Le son sans écouteurs dès 179 € !

À force de vouloir tout mettre dans nos poches, la tech finit par remonter… sur notre nez. Avec les Mijia Smart Audio Glasses, Xiaomi débarque (enfin) en Europe avec une promesse simple : écouter, appeler et rester conscient de son environnement, sans écouteurs et sans caméra intrusive.

Une nouvelle catégorie, entre discrétion et utilité

Ne vous attendez pas à des « lunettes connectées » façon Meta Ray-Ban : ici, pas de capteur photo/vidéo mis en avant, pas d’écran non plus. Xiaomi vise plutôt une alternative aux écouteurs entièrement sans-fil : des haut-parleurs intégrés aux branches, pour de la musique et des appels, tout en gardant les oreilles libres — pratique en ville, au bureau, ou quand on ne veut pas s’isoler.

4fedf4ba9be986b141b6b40ec8f2db88

Côté tarifs, la stratégie est agressive : 179 € pour les versions Browline et Pilot, et 199 € pour la version Titanium.

Ce que Xiaomi met dans la monture

gfywuegft23t6fsghfwghf28tr87 copy

Sur le papier, la fiche technique coche les cases de l’usage « tous les jours » :

  • Quatre microphones + algorithmes pour améliorer la captation de la voix et limiter le vent (annoncé jusqu’à 4,5 m/s).
  • Mode confidentialité pour réduire les fuites sonores (structure acoustique + options dans l’app Xiaomi Glasses).
  • Autonomie annoncée : 13 h en lecture audio continue, 9 h en appels, 12 jours en veille.
  • Charge rapide : Xiaomi promet plusieurs heures d’écoute avec quelques minutes de charge (la marque et plusieurs relais mentionnent ~4 h en 10 minutes).
  • Résistance IP54.

Screen 2026 01 18 at 21.18.14

Petit détail révélateur : Xiaomi insiste sur l’expérience « portable » et sur l’app (gestes, options de confidentialité, etc.), signe que ces lunettes sont pensées comme un accessoire du quotidien plutôt qu’un gadget.

Le bon pari, au bon moment

Le marché des « lunettes audio » est en train de devenir une seconde voie face aux écouteurs : moins immersif, mais plus social. Et,.Xiaomi arrive avec une idée claire : faire simple, faire accessible, et faire moins intrusif que les lunettes bardées de capteurs.

Face aux écouteurs traditionnels, l’open-ear offre un confort psychologique (on reste joignable, on entend son environnement), mais la contrepartie est connue : basses moins profondes, volume limité dans le bruit, et risque de fuite sonore — d’où l’importance du mode confidentialité.

a8d1707c8b166e2b669c616a64aekko0

Face aux Ray-Ban Meta & consorts, Xiaomi joue la carte « audio seulement », donc moins polémique, moins cher, et plus facile à adopter… mais forcément moins « WAOUH » en magasin. Et face aux Bose Frames (et autres), Xiaomi tente le coup du prix et de la diffusion large, à la manière de la marque : si le confort et les appels tiennent la route, ça peut devenir un accessoire quasi banal — exactement ce que Xiaomi recherche.

En bref, ces Mijia Smart Audio Glasses ne cherchent pas à « remplacer le smartphone ». Elles veulent remplacer le petit geste : sortir un écouteur, le ranger, le recharger, le perdre. Et c’est souvent là que les produits trouvent leur place : dans la friction du quotidien.

Lire plus
Réalité virtuelle et augmentée

Samsung Galaxy Glasses : La fuite qui révèle deux modèles et une caméra 12 mégapixels

Samsung Galaxy Glasses : La fuite qui révèle deux modèles et une caméra 12 mégapixels

Samsung n’a pas encore officialisé ses lunettes connectées, mais les fuites commencent à dessiner un produit — et surtout une stratégie. D’après un nouveau rapport de Galaxy Club, la marque travaillerait sur deux versions distinctes de « Galaxy Glasses », avec des indices concrets sur l’appareil photo, la connectivité… et même des verres photochromiques.

Galaxy Glasses : Deux références, une ambition

Le point de départ est simple : deux numéros de modèle ont été repérés, SM-O200P et SM-O200J. Et contrairement à ce qu’on voit souvent dans les bases de données, il ne s’agirait pas seulement de variantes régionales : les deux seraient destinées aux mêmes marchés, ce qui renforce l’idée d’une gamme plutôt qu’un produit unique.

Ce genre de split est rarement anodin. Il peut répondre à des usages (grand public vs « créateur »), à une contrainte (prix, disponibilité de composants), ou à une réalité plus terre-à-terre : Samsung cherche peut-être la bonne formule pour que ces lunettes soient portées, pas seulement montrées.

Ce qu’on sait déjà : caméra de 12 mégapixels, Wi-Fi/Bluetooth, pas de 4G/5G

La fuite laisse échapper quelques éléments techniques suffisamment parlants pour situer le produit :

  • Caméra de 12 mégapixels avec autofocus, ce qui suggère un usage photo/vidéo sérieux, pas juste une caméra « contextuelle » pour l’IA.
  • Wi-Fi + Bluetooth, mais pas de connexion cellulaire intégrée : les lunettes devraient donc s’appuyer sur le smartphone (pour les données, une partie de l’IA, la synchro).
  • La version SM-O200P serait associée à des verres photochromiques (type « Transition », qui foncent à la lumière).

Ce dernier point est plus révélateur qu’il n’y paraît : Samsung ne penserait pas ces lunettes comme un gadget d’intérieur, mais comme un objet du quotidien, donc confronté à la vraie vie — lumière, marche, transports, rue.

Le vrai sujet, c’est la « portabilité » (et la confiance)

Sur le papier, Samsung coche des cases qui rapprochent davantage ces lunettes d’un produit analogue aux « Ray-Ban Meta » que d’un mini-casque XR : caméra, usage mobile, dépendance au téléphone, simplicité. Et, c’est logique : le marché a déjà montré qu’une promesse d’AR totale ne suffit pas — il faut d’abord un objet acceptable socialement, léger, autonome « juste comme il faut ».

Le point qui manque (et qui décidera tout) : la gestion de la vie privée. Une caméra de 12 mégapixels avec autofocus pose immédiatement la question des signaux visibles, des contrôles d’enregistrement, des indicateurs impossibles à masquer. Sans ce garde-fou, l’objet devient vite difficile à porter partout — et c’est souvent là que les lunettes connectées échouent.

Dans le décor : Samsung accélère son écosystème XR

Cette fuite s’inscrit dans une séquence où Samsung tente d’installer une continuité entre ses appareils. La marque a déjà formalisé son virage XR avec le Galaxy XR, un casque vendu 1 799 dollars aux États-Unis (et en Corée), avec une intégration forte de Gemini côté IA.

Des lunettes connectées seraient donc la pièce « portable » et plus grand public du puzzle : moins immersives, mais potentiellement plus mass-market — à condition que Samsung sache clarifier pourquoi on les met, quand, et pour faire quoi.

À surveiller maintenant

Deux choses vont déterminer si ces « Galaxy Glasses » ont une chance de dépasser le statut de rumeur :

  1. La différence réelle entre SM-O200P et SM-O200J (poids, autonomie, capteurs, écran ou non, positionnement prix).
  2. La philosophie caméra : contrôle utilisateur, indicateurs, limites — bref, la « licence sociale » de porter ça au quotidien.

Si Samsung réussit ce double équilibre, 2026 pourrait bien être l’année où les lunettes connectées cessent d’être une curiosité… et deviennent une catégorie.

Lire plus
Réalité virtuelle et augmentée

Google Glasses 2026 : L’application compagnon fuite et révèle des fonctions inédites

Google Glasses 2026 : L'application compagnon fuite et révèle des fonctions inédites

Avant même d’avoir une date de sortie claire, les futures lunettes connectées de Google viennent de laisser échapper un morceau de leur ADN : l’application compagnon.

Repérée via une preview d’Android Studio (et relayée par Android Authority), elle ne permet pas encore de finaliser la configuration sans les lunettes… mais ses chaînes de texte et réglages esquissent déjà la philosophie de produit : discrète, contextuelle, et (au moins en intention) moins intrusive.

Une fuite « soft », mais révélatrice : Google prépare l’écosystème, pas juste le hardware

Le détail le plus parlant est presque administratif : le nom du paquet APK, com.google.android.glasses.companion, laisse peu de place au doute sur la direction. L’application s’ouvre sur un message très « Google 2026 » — « Welcome to a new way of seeing the world » — et propose soit de configurer les lunettes, soit de « découvrir votre prochaine paire sur le Google Store ».

Ce n’est pas spectaculaire, mais c’est exactement ce qu’on attend d’un produit grand public : un parcours de mise en route simple, orienté boutique, et pensé comme une extension naturelle d’Android.

Appairage : des lunettes « réelles », pas un concept

Google Glasses companion app settings section

Les écrans de configuration décrivent une séquence classique : garder les lunettes proches du téléphone, actionner un interrupteur sur la branche droite, attendre une LED bleue pulsante (mode appairage), puis porter l’appareil.

Ce vocabulaire « hardware » (switch, LED, proximité) est important : on est bien sûr un produit conçu pour sortir des labos, pas un prototype de salon.

Les fonctions qui se dessinent : calmer le bruit, pas ajouter une couche de notifications

L’application révèle plusieurs réglages qui trahissent une obsession : éviter la saturation :

  • Pause/réduction des notifications quand une conversation est détectée
  • Option pour mettre en sourdine les alertes pendant une durée définie
  • Possibilité d’un mode audio seulement (et donc potentiellement sans affichage)

Ce choix est cohérent avec la direction actuelle du marché : les lunettes « réussies » sont souvent celles qui savent s’effacer. Et Google semble vouloir prendre le contrepied de la tentation « AR en permanence ».

Trois modèles, et tous ne seront pas « prêt pour Gemini »

Autre élément clé : l’application inclut un message indiquant que certaines lunettes ne seraient pas éligibles à Gemini (« Your glasses are not eligible to use Gemini »). Traduction : Google travaillerait sur une gamme à plusieurs niveaux — certains modèles très simples (audio, capteurs), d’autres plus ambitieux (affichage, IA multimodale).

Cette segmentation colle aux informations plus larges sur Android XR : Google construit une plateforme pour l’ère « Gemini », mais elle n’implique pas forcément la même expérience sur chaque produit.

Vidéo « 3K » et sécurité : le détail qui vise Meta frontalement

La fuite évoque aussi des indices sur un modèle capable d’enregistrer en 3K, et un mécanisme qui empêcherait de bloquer l’indicateur d’enregistrement, une logique qu’on a déjà vue dans l’univers des lunettes caméra grand public (et devenue un sujet sensible).

C’est un marqueur stratégique : Google sait que la bataille ne se jouera pas seulement sur l’IA, mais aussi sur l’acceptabilité sociale des lunettes (ce que les gens tolèrent dans un café, un métro, une réunion).

Android XR se met en ordre de marche pour 2026

Cette fuite arrive alors que Google accélère publiquement sur les lunettes. Reuters a notamment rapporté un partenariat avec Warby Parker pour des lunettes IA en 2026, reposant sur Android XR et Gemini, avec deux approches : un modèle « sans écran » et un modèle avec affichage discret. Et, Google pousse aussi l’écosystème via des alliances hardware, comme la collaboration annoncée avec Xreal autour d’Android XR.

Cette fuite ne révèle pas une fonction magique. Et c’est justement ce qui le rend intéressant.

Au lieu de vendre une promesse futuriste, Google semble construire une expérience centrée sur l’usage (appairage simple, modes clairs), centrée sur le contexte (détection de la conversation), centrée sur la retenue (audio seulement, silence temporaire), et centrée sur la confiance (indicateur de caméra non masquable).

La vraie question n’est pas « est-ce que ça va impressionner ? », mais « est-ce que ça va tenir au quotidien ? ». Si Google réussit cette sobriété — et si Gemini reste un bonus plutôt qu’un parasite — alors Android XR peut enfin sortir du cycle des démos et devenir un produit porté… au sens littéral.

Lire plus
Réalité virtuelle et augmentée

Apple Vision Pro : production en retrait, marketing coupé… le casque d’Apple déjà en fin de route ?

Apple Vision Pro : production en retrait, marketing coupé… le casque d’Apple déjà en fin de route ?

Moins de 2 ans après son arrivée en boutiques, l’Apple Vision Pro donne l’impression d’être déjà passé du statut de vitrine technologique à celui de produit « en suspension ».

Dernier indice en date : plusieurs sources côté chaîne d’approvisionnement évoquent une production ralentie, voire stoppée chez certains partenaires — symptôme classique d’un appareil dont la demande n’a jamais décollé au niveau attendu.

Vision Pro : moins une « annulation » qu’un désengagement progressif

Le scénario qui se dessine ressemble moins à un clap de fin brutal qu’à un atterrissage contrôlé. Le Financial Times rapporte que Apple a fortement réduit la production et le marketing du Vision Pro, avec un arrêt de production par l’assembleur Luxshare dès le début 2025, sur fond de ventes faibles.

Même écho côté presse britannique, qui insiste sur le triptyque qui a plombé l’adoption : prix, poids/confort, bibliothèque d’apps encore limitée.

Les chiffres cités donnent une idée de l’écart entre ambition et réalité : environ 390 000 unités expédiées en 2024 puis seulement 45 000 unités sur le trimestre des fêtes 2025 (estimation IDC reprise par plusieurs publications).

Et surtout, Apple aurait réduit ses dépenses publicitaires numériques de plus de 95 % sur des marchés clés.

Le problème du Vision Pro n’a jamais été la technologie — mais la proposition d’usage

À 3 699 euros, le Vision Pro n’a jamais cherché à être « grand public » au sens iPhone du terme. Mais même en assumant l’étiquette « premium », Apple s’est heurtée à un mur : l’absence de besoin évident. Le casque est spectaculaire en démo, moins évident en quotidien. Et sans masse critique d’utilisateurs, l’écosystème applicatif peine à s’emballer — cercle vicieux connu de toutes les plateformes.

Un détail symbolique circule aussi : Apple aurait retiré de sa chaîne YouTube une vidéo promo « Hello Apple Vision Pro » — un geste qui nourrit l’idée d’un repositionnement (ou d’une gêne) marketing, même si Apple n’a pas commenté ce point.

Apple tente encore d’alimenter la machine : l’immersif comme preuve… tardive

Le paradoxe, c’est que le Vision Pro commence enfin à recevoir des contenus qui « font sens » pour un appareil de ce type. Apple pousse Apple Immersive Video, et surtout, l’arrivée de matchs NBA en direct en format immersif (avec Spectrum SportsNet/Lakers) a été présentée comme un jalon important.

Mais, cette stratégie arrive dans un contexte où la production semble déjà contrainte : c’est le genre de mouvement qui ressemble à un rattrapage, pas à un décollage.

Le Vision Pro comme « produit-bêta » grandeur nature — et la route vers les lunettes AR

Si l’on lit entre les lignes, le Vision Pro ressemble de plus en plus à un kit de transition : une plateforme pour roder l’interface (regard + gestes), tester l’appétence, et apprendre — avant de viser un format réellement scalable. Dès 2024, Bloomberg expliquait que Apple envisageait une famille de produits : un modèle plus abordable, des itérations de Vision Pro, et à plus long terme une trajectoire vers des lunettes AR plus légères.

C’est là que la « fin » du Vision Pro, si elle se confirme, ne serait pas un renoncement à la « spatial computing », mais la reconnaissance d’une réalité : le casque très haut de gamme a rempli son rôle… sans trouver son marché.

En clair : Apple a peut-être cessé de vouloir vendre le Vision Pro comme un futur iPhone, pour l’assumer comme ce qu’il était dès le départ — un prototype commercial au service de l’étape suivante.

Lire plus
Réalité virtuelle et augmentée

Apple Glasses : Le brevet secret pour une image AR qui ne bouge jamais

Apple Glasses : Le brevet secret pour une image AR qui ne bouge jamais

Apple semble avancer sur l’un des problèmes les plus concrets — et les moins visibles — des lunettes AR : comment conserver une image stable quand on ajuste simplement la monture sur son visage.

D’après un nouveau brevet repéré par Patently Apple, Apple travaille sur une architecture de lunettes intelligentes pensée pour maintenir un alignement optique précis, même lorsque les branches bougent comme sur des lunettes classiques.

Le problème fondamental des lunettes AR du quotidien

Sur beaucoup de concepts de lunettes connectées actuelles, une partie de l’électronique (batteries, projecteurs, processeurs) est intégrée directement dans les branches. C’est pratique pour répartir le poids, mais cela pose un problème majeur : chaque ajustement de la monture peut déplacer légèrement les composants optiques.

En réalité augmentée, même un décalage minime entre le projecteur et le guide d’ondes peut rendre l’image floue, modifier la géométrie de projection, et nécessiter une recalibration logicielle.

C’est l’une des raisons pour lesquelles des lunettes AR vraiment « grand public » restent si difficiles à concevoir.

La solution brevetée par Apple : séparer le confort de l’optique

Le brevet décrit une approche très claire : les optiques ne doivent jamais bouger. Apple propose un boîtier électronique rigide, placé près de la monture et du verre transparent. Cette structure fixe maintient le projecteur, le waveguide (guide d’ondes), les haut-parleurs, les processeurs, et même certaines batteries, dans une géométrie constante, avec un angle et une distance inchangés entre le projecteur et la zone d’affichage.

Résultat : l’image reste stable, peu importe comment l’utilisateur ajuste les lunettes.

G9bbzVpaMAAsRWZ

Le rôle clé de la charnière avant

L’élément le plus intéressant est la position de la charnière. Contrairement à de nombreux designs actuels, Apple place l’articulation très près de la monture avant, et non loin derrière dans les branches.

Les branches peuvent ainsi pivoter, s’adapter à différentes formes de tête, et exercer une pression contrôlée grâce à des ressorts ou éléments élastiques, sans jamais tirer ou tordre le module optique.

C’est une séparation nette entre l’ajustement mécanique (confort), et l’alignement optique (qualité d’image).

Une critique indirecte des lunettes AR actuelles

Sans les citer explicitement, ce brevet met en lumière une faiblesse de certaines lunettes existantes, notamment celles de Meta, où les composants logés dans les branches peuvent être affectés par les mouvements et les ajustements.

Apple semble considérer que la stabilité visuelle prime sur la simplicité de construction, quitte à repenser entièrement la structure interne des lunettes.

Apple Glasses : Ce que cela révèle des priorités d’Apple

Ce brevet ne confirme ni produit final, ni calendrier. Mais, il montre clairement ce qui obsède Apple :

  • une expérience visuelle prévisible,
  • un confort proche de lunettes classiques,
  • une esthétique propre, sans recalibrations visibles pour l’utilisateur.

C’est une continuité logique avec Apple Vision Pro, lancé en 2024, qui a déjà montré qu’Apple préfère résoudre les problèmes fondamentaux (optique, latence, alignement) avant de miniaturiser.

Vers de vraies lunettes AR « portables » ?

Si Apple tire les leçons du Vision Pro — encombrement, poids, complexité — ce type d’architecture suggère que ses futures lunettes AR pourraient enfin se comporter comme de vraies lunettes : on les met, on les ajuste, et l’image ne bouge pas.

Ce genre de détail d’ingénierie ne fait pas rêver sur une fiche technique, mais c’est exactement ce qui distingue un gadget expérimental d’un produit réellement utilisable au quotidien.

Lire plus
Réalité virtuelle et augmentée

TCL RayNeo Air 4 Pro : Les premières lunettes HDR10 co-signées Bang & Olufsen au CES 2026

TCL RayNeo Air 4 Pro : Les premières lunettes HDR10 co-signées Bang & Olufsen au CES 2026

Au CES 2026, TCL pousse un message simple : l’AR n’a pas toujours besoin d’être un casque à 3 500 €. Avec les RayNeo Air 4 Pro, la marque tente de démocratiser l’idée d’un cinéma personnel — léger, branché en USB-C, et désormais dopé au HDR10.

Un produit pensé pour regarder, jouer, voyager… sans s’enfermer dans un écosystème.

Un lancement mondial qui vise le grand public, pas les early adopters fortunés

Les RayNeo Air 4 Pro, déjà passées par la Chine, arrivent sur les marchés internationaux avec un positionnement offensif : 299 dollars et une disponibilité annoncée pour le 25 janvier.

Le discours de TCL est clair : plutôt qu’un « vrai » casque de réalité mixte, on parle ici de lunettes-écran, un format « head-mounted TV » qui cherche à devenir l’accessoire naturel du smartphone, du PC portable et de la console.

Ce qui change avec l’Air 4 Pro : HDR10, traitement vidéo et audio premium

Sur la fiche technique, la promesse est spectaculaire : un écran virtuel de 201 pouces à une distance de visionnage simulée de 6 mètres. Le cœur de l’expérience, c’est la puce Vision 4000, qui sert de processeur d’amélioration en temps réel : conversion SDR → HDR et même 2D → 3D selon TCL/RayNeo.

Côté design, TCL insiste sur l’usage prolongé : 76 g, avec des ajustements (notamment au niveau du nez).

Et pour l’audio, la marque joue une carte « haut de gamme accessible » : quatre haut-parleurs, conduits directionnels pour limiter les fuites, avec un tuning co-signé Bang & Olufsen.

L’enjeu : rendre l’AR utile sans la rendre envahissante

C’est peut-être là que les TCL RayNeo Air 4 Pro deviennent intéressantes : elle ne cherche pas à remplacer le smartphone, mais à déporter l’écran. Connexion USB-C à un téléphone, un laptop, une tablette ou une console (TCL cite même la Switch 2) : la simplicité est une stratégie.

Reste la question que le marché pose à toutes ces « lunettes cinéma » : est-ce que le HDR10 et l’upscaling suffisent à créer un effet waouh durable, au-delà des démos ? Le produit gagne en ambition visuelle, mais son adoption se jouera sur des détails très concrets : confort sur 2 heures, gestion de la luminosité en mobilité, ergonomie logicielle, et surtout… l’envie de porter des lunettes même quand on n’en a pas besoin.

RayNeo montre aussi ses ambitions AR « actives » avec les X3 Pro

En parallèle, RayNeo continue d’exposer une vision plus « AR au quotidien » avec les X3 Pro : affichage microLED, fonctions IA, traduction en temps réel, apps Android, etc.

La cohabitation des deux approches (lunettes-écran d’un côté, lunettes AR + IA de l’autre) dit quelque chose d’important : en 2026, le secteur n’a pas encore tranché entre l’AR comme écran et l’AR comme ordinateur discret. RayNeo parie sur les deux — et les TCL RayNeo Air 4 Pro ressemblent à la porte d’entrée la plus « simple » pour élargir le public.

Lire plus
Réalité virtuelle et augmentée

Meta Ray-Ban Display : Le futur du wearable arrive, mais pas encore en Europe

Meta Ray-Ban Display : Le futur du wearable arrive, mais pas encore en Europe

Au CES 2026, Meta voulait raconter l’histoire d’une nouvelle ère : celle des lunettes connectées qui deviennent un écran discret, piloté par l’IA et vos gestes. Sauf qu’au milieu des démos, une autre réalité s’impose : la marque n’arrive tout simplement pas à produire assez vite. Résultat, l’international attendra.

Une expansion mondiale mise sur pause, sans détour

Meta a officiellement mis en pause le déploiement international de ses Ray-Ban Display (Royaume-Uni, France, Italie, Canada), initialement prévu début 2026, invoquant une « demande sans précédent » et une offre limitée — avec des listes d’attente qui s’étirent « bien dans 2026 ».

Le mouvement est d’autant plus révélateur que ces lunettes ne sont pas vendues comme un gadget : Meta les traite comme une plateforme, au point d’avoir organisé une distribution très contrôlée aux États-Unis, via des circuits physiques et des démonstrations dans certains points de vente.

Ce que Meta vend vraiment : un écran privé + un « contrôleur » au poignet

Sur le produit, le message est clair : ce n’est pas « de l’AR », mais un mini-affichage dans le champ de vision, pensé pour les notifications, la navigation, de petites cartes d’info — et surtout l’IA. L’élément différenciant reste le Meta Neural Band, un bracelet EMG qui transforme micro-gestes et intentions en commandes. Prix annoncé : à partir de 799 dollars, bracelet inclus.

Au CES, Meta a aussi ajouté du concret côté usages :

  • Téléprompteur : des « cartes » de notes visibles dans les lunettes, défilables via le bracelet.

meta ray ban display teleprompte

  • « Écriture » EMG : écrire avec la main sur n’importe quelle surface pour composer un message, sans clavier.
  • Navigation piétonne : extension à de nouvelles villes (Denver, Las Vegas, Portland, Salt Lake City).

On voit la stratégie : multiplier les micro-moments où le smartphone peut rester dans la poche.

La contrainte industrielle, nouvelle loi des wearables IA

Cette pause n’a rien d’un simple contretemps logistique. Elle dit quelque chose de plus profond : les lunettes connectées ne scalent pas comme des téléphones. Meta dépend d’une chaîne de valeur « lunetterie » (montures, verres, ajustement, distribution retail), beaucoup plus lente à industrialiser. Or, côté partenaire, EssilorLuxottica expliquait déjà accélérer ses capacités « wearables » face à une demande forte.

Et, la traction semble réelle : EssilorLuxottica indiquait que les Ray-Ban Meta avaient progressé de plus de 200 % en ventes sur le premier semestre 2025. De son côté, IDC (cité par plusieurs médias) évoque un démarrage encore modeste en volume, mais suffisant pour peser dans une catégorie naissante.

Enfin, l’Europe reste un terrain plus complexe pour Meta : entre sensibilité réglementaire et débats culturels sur la captation « always-on », une expansion graduelle pouvait aussi servir de soupape.

Le sous-texte stratégique : Meta veut gagner « le droit d’être sur votre visage »

Ce qui se joue ici dépasse l’objet. Meta tente d’installer une idée : la prochaine interface personnelle ne sera pas seulement un écran de poche, mais un écran situé — attaché à votre regard, à vos déplacements, à votre attention.

Et, ce n’est pas un terrain vierge : la concurrence s’organise (Alphabet, Apple sont régulièrement cités parmi les candidats sérieux). Dans ce contexte, le « America first » de la disponibilité ressemble moins à un caprice qu’à une priorité : saturer un marché test, apprendre vite, sécuriser la production — puis exporter une expérience stabilisée.

Car à ce niveau de prix et d’ambition, l’IA n’a pas droit à l’approximation : soit ces lunettes deviennent invisibles dans l’usage, soit elles redeviennent un gadget.

Lire plus
Réalité virtuelle et augmentée

Lenovo AI Glasses Concept : L’IA de poche qui s’affiche dans votre regard au CES 2026

Lenovo AI Glasses Concept : L’IA de poche qui s’affiche dans votre regard au CES 2026

Les lunettes connectées redeviennent le petit théâtre préféré des constructeurs : assez visibles pour faire parler, assez immatures pour justifier le mot « concept ». Au CES 2026, Lenovo entre dans la danse avec une paire de lunettes IA encore non finalisée, mais déjà révélatrice d’une ambition : faire des lunettes un terminal d’IA ambiante — au même titre qu’un PC ou un smartphone.

Ce que Lenovo a réellement montré : une fiche technique « HUD » très CES

D’après The Verge, il ne s’agissait pas d’un prototype pleinement fonctionnel, mais Lenovo laisse filtrer des spécifications suffisamment précises pour comprendre la direction : 45 g, une caméra de 2 mégapixels au-dessus du pont nasal, et un affichage « binoculaire » vert monochrome dans les deux verres.

La fiche évoque aussi un champ de vision de 28°, 1 500 nits de luminosité, 2 micros + 2 haut-parleurs et une batterie de 214 mAh.

On est donc clairement sur une logique heads-up display (infos courtes, notifications, indications), plus que sur des « lunettes caméra » pensées pour capturer votre vie en continu.

Des fonctions « classiques »… avec une idée rare : le tethering PC

Lenovo annonce un mix de contrôles tactiles + vocaux, appels mains libres, musique, et la possibilité de se connecter à un smartphone… mais aussi à un PC, ce qui reste inhabituel pour ce type de lunettes à affichage léger.

Au menu des potentielles fonctionnalités : traduction en direct, reconnaissance d’images, et notifications résumées provenant de plusieurs appareils. Et, c’est là que le puzzle Lenovo prend sens : ces lunettes sont présentées dans le même souffle que Qira, la couche IA « cross-device » destinée à unifier l’expérience entre Lenovo et Motorola.

Le point qui interroge : pourquoi une caméra… si c’est pour la brider à 2 MP ?

C’est l’élément le plus commenté, et à juste titre : 2 mégapixels en 2026, c’est trop peu pour espérer une captation photo/vidéo convaincante, et même limité pour de la « vision » IA robuste (surtout en faible lumière). The Verge souligne le caractère « baffling » de ce choix.

La comparaison fait mal : les Ray-Ban Meta mettent en avant une caméra ultra-large de 12 mégapixels.

Donc soit Lenovo assume une caméra « fonctionnelle » (scans rapides, contexte, preuve, identification basique) plutôt qu’une caméra « créative », soit la caméra n’est qu’un marqueur de roadmap.

Lenovo hésite entre deux familles de lunettes… et ce flou raconte le marché

Aujourd’hui, le secteur se structure autour de deux approches :

  1. Les lunettes « caméra + audio » (style Ray-Ban Meta) : priorité à la capture et à l’assistant vocal, parfois avec une surcouche visuelle.
  2. Les lunettes « écran » (type XREAL) : priorité à l’affichage, avec un champ de vision souvent plus large (XREAL annonce par exemple 46° sur Air 2/Air 2 Pro).

Le concept Lenovo emprunte à la seconde famille (affichage, HUD, info rapide), mais garde un pied dans la première (caméra, reconnaissance, « voir ce que vous voyez »). Résultat : une proposition encore incomplète… mais cohérente avec la stratégie Qira : faire des lunettes un satellite du PC et du téléphone, pas un objet autonome.

Reste la vraie question : à quoi sert un tethering PC, concrètement ? Téléprompteur discret, notifications professionnelles, traduction pendant une réunion, aide contextuelle pendant une présentation… Ce sont des cas d’usage plausibles, mais ils demandent une exécution irréprochable sur le confort, la latence, et la confidentialité.

Si Lenovo veut vraiment exister dans ce segment, il lui faudra trancher : être « lunettes caméra », ou être « lunettes écran ». Pour l’instant, c’est un concept — mais un concept qui dit déjà beaucoup sur la prochaine bataille : l’IA ne veut plus vivre dans une app, elle veut vivre autour de vous.

Lire plus