fermer

Réalité virtuelle et augmentée

La réalité virtuelle (RV) et la réalité augmentée (RA) sont en train de transformer les industries, de l’éducation au commerce en passant par le divertissement.

Découvrez comment ces technologies immersives sont utilisées pour créer des expériences uniques et des interactions enrichies. Nos guides vous fourniront des informations sur les meilleurs dispositifs, applications et stratégies pour intégrer efficacement la RV et la RA dans vos projets ou votre entreprise.

Réalité virtuelle et augmentée

Meta ajoute un mode d’amplification des conversations à ses lunettes connectées

Meta ajoute un mode d’amplification des conversations à ses lunettes connectées

Meta continue d’affiner l’utilité concrète de ses lunettes connectées. Le groupe a annoncé une nouvelle mise à jour logicielle qui apporte deux fonctionnalités inédites à ses Ray-Ban Meta et Oakley Meta HSTN avec un mode de mise en avant des conversations pour mieux entendre son interlocuteur dans les environnements bruyants, et une intégration enrichie de Spotify, capable de lancer de la musique en fonction de ce que l’utilisateur regarde.

Dans un premier temps, la fonction d’amplification vocale sera disponible aux États-Unis et au Canada, tandis que la nouveauté Spotify sera déployée dans de nombreux pays.

Un mode « conversation » pour mieux entendre… sans écouteurs

La nouveauté la plus prometteuse est sans doute le Conversation Focus, un mode annoncé pour la première fois lors de la conférence Meta Connect plus tôt cette année.

Concrètement, les lunettes utilisent leurs haut-parleurs open-ear et des traitements audio pilotés par l’IA pour amplifier la voix de la personne en face, tout en atténuant les bruits environnants. L’objectif : faciliter les échanges dans des contextes difficiles comme un restaurant bondé, un bar ou un club, les transports en commun, ou tout autre lieu à forte pollution sonore.

Conversation Focus Thumbnail

Meta précise que l’utilisateur pourra ajuster le niveau d’amplification en faisant glisser le doigt sur la branche droite des lunettes, ou via les paramètres de l’app associée.

Cette granularité permet d’adapter finement le rendu sonore selon l’environnement réel.

Une approche qui rappelle celle d’Apple… sans être médicale

Reste à voir l’efficacité réelle de cette technologie dans des conditions du quotidien. Mais, l’idée n’est pas nouvelle dans l’univers des accessoires intelligents.

Apple, par exemple, propose déjà sur les AirPods une fonction Conversation Boost, destinée à mieux capter la voix d’un interlocuteur. Les AirPods Pro sont même allés plus loin récemment, avec l’ajout d’un mode aide auditive de niveau clinique, soumis à validation réglementaire.

Chez Meta, la promesse est différente : il ne s’agit pas d’un dispositif médical, mais d’un outil d’assistance contextuelle, intégré à des lunettes connectées grand public.

Spotify s’invite dans le champ de vision

Autre nouveauté, plus légère mais révélatrice de la stratégie de Meta : une interaction plus directe entre ce que l’utilisateur voit et ce qu’il peut faire.

Grâce à une mise à jour de l’intégration Spotify, les lunettes peuvent désormais lancer automatiquement de la musique en fonction de la scène observée :

  • regarder une pochette d’album → jouer un titre de l’artiste,
  • fixer un sapin de Noël et des cadeaux → lancer une playlist de fêtes,
  • observer un lieu ou une ambiance → suggérer une musique cohérente.

Cette fonctionnalité tient davantage du gadget expérimental, mais elle illustre la vision de Meta : connecter la perception visuelle à des actions instantanées dans les applications.

Disponibilité et déploiement progressif

Les deux nouveautés arrivent via la mise à jour logicielle v21 des lunettes Meta.

  • Le mode Conversation Focus est limité aux États-Unis et au Canada.
  • La fonctionnalité Spotify est proposée en anglais dans de nombreux pays, dont : Australie, Autriche, Belgique, Brésil, Canada, Danemark, Finlande, France, Allemagne, Inde, Irlande, Italie, Mexique, Norvège, Espagne, Suède, Émirats arabes unis, Royaume-Uni et États-Unis.

Dans un premier temps, la mise à jour sera accessible uniquement aux membres du Meta Early Access Program, sur inscription et validation. Un déploiement plus large est prévu ultérieurement.

Des lunettes de plus en plus « assistantes »

Avec ces ajouts, Meta poursuit une stratégie claire : faire de ses lunettes connectées autre chose qu’un simple gadget photo ou vidéo. En améliorant l’audition contextuelle et en reliant la vision à des actions intelligentes, le groupe cherche à transformer ces accessoires en compagnons discrets du quotidien, capables d’assister sans isoler.

Si la promesse est tenue sur le terrain, ces fonctionnalités pourraient marquer une étape importante dans l’adoption des lunettes connectées… à condition que l’expérience soit réellement convaincante, et non simplement spectaculaire.

Lire plus
Réalité virtuelle et augmentée

Google lancera ses premières lunettes IA en 2026 sous Android XR

Google lancera ses premières lunettes IA en 2026 sous Android XR

Google vient de rendre officiel ce que beaucoup anticipaient : Google lancera ses premières lunettes d’intelligence artificielle en 2026. L’annonce arrive via un article de blog qui détaille la stratégie XR du groupe… et confirme que Google revient sérieusement dans la guerre du « wearable AI ».

Lors de Google I/O en mai, l’entreprise avait déjà dévoilé des partenariats avec Gentle Monster et Warby Parker pour concevoir une nouvelle génération de lunettes basées sur Android XR, l’OS qui alimente déjà le Galaxy XR de Samsung.

Mais jusqu’ici, Google restait vague sur un calendrier. Plus maintenant.

Deux types de lunettes AI : assistance « invisible » ou HUD privé intégré

Google développe au moins deux modèles distincts, chacun avec des usages bien définis.

1. Des lunettes « screen-free » pour assistance vocale et visuelle

Ces lunettes n’auront pas d’écran dans les verres, disposeront de microphones, de haut-parleurs et des caméras intégrés, et offriront une unteraction directe avec Gemini.

Elles sont pensées pour la capture photo, l’aide contextuelle, les réponses rapides. Le positionnement semble clair : une IA toujours accessible, mais complètement invisible aux yeux des autres.

C’est l’héritage direct de Google Assistant… mais sans téléphone.

2. Des lunettes avec affichage intégré dans les verres (in-lens display)

La seconde paire de lunettes offrira un écran visible uniquement par l’utilisateur, une navigation turn-by-turn, des sous-titres en temps réel et des informations contextuelles flottantes façon HUD.

Google vise ici l’usage quotidien : marcher dans la rue, lire des infos en silence, traduire une conversation en live.

XR léger : Google mise aussi sur le « milieu de gamme » grâce à XREAL Aura

Google a également dévoilé un nouveau prototype en collaboration avec XREAL : le projet Aura, qui se situe entre le casque immersif et les lunettes minimalistes.

Le Project Aura offre un affichage AR à large champ de vision, un « puck » externe qui fait tourner Android XR (donc lunettes légères), et offre une expérience adaptée au travail (grand écran virtuel), aux apps Google, au streaming. C’est la version « lunettes pro/creator/travail nomade » du futur catalogue Google XR.

Pourquoi Google se relance maintenant ? Parce que Meta a pris trop d’avance

Depuis un an, les Ray-Ban Meta sont devenues la référence du marché. Des millions d’unités vendues. De vrais usages (caméra, assistant vocal, livestream). Et surtout : un partenariat fort avec une marque lifestyle.

Google a compris la leçon. Si tu veux que les lunettes IA deviennent grand public, tu dois passer par une marque… qui connaît la mode. Et, tu dois les vendre en magasin, pas juste en ligne.

C’est exactement ce que Google prépare avec Warby Parker. Elle vient d’investir 75 millions de dollars, et jusqu’à 150 millions au total si les objectifs sont atteints, avec une prise de participation possible dans Warby Parker. C’est un copier-coller assumé du modèle Ray-Ban/Meta… mais avec le poids de l’écosystème Google.

Apple et Snap arrivent aussi — 2026 sera l’année du « wearable AI »

Google n’est pas seul dans la course : Apple travaille sur des lunettes IA « légère » basées sur visionOS, Snap continue d’avancer avec ses Spectacles (toujours pas grand public, mais très matures côté AR) et Meta prépare déjà la 3ᵉ génération des Ray-Ban pour 2026.

Ce que cela signifie : 2026 pourrait devenir la première année où l’IA sort réellement du téléphone pour entrer dans… les lunettes.

Google peut réellement rivaliser — mais seulement si Gemini devient indispensable

Ces lunettes peuvent réussir si Google remplit trois conditions :

  1. Faire de Gemini un assistant qui dépasse Assistant. Si Gemini devient ultra contextuel (traduire, décrire une scène, anticiper un besoin), Google fera mouche.
  2. Éviter l’erreur Google Glass : aucun « facteur étrange ». Les lunettes doivent être jolies, discrètes et socialement acceptées. D’où Gentle Monster + Warby Parker.
  3. Offrir un usage quotidien réel : Le piège des lunettes connectées est connu : si elles ne servent qu’à recevoir des notifications ou filmer, les gens arrêtent de les porter.

Google vise des cas concrets avec la navigation, les sous-titres en direct, une assistance contextuelle, une capture instantanée ou encore un affichage d’écran virtuel avec Aura.

C’est malin. Et surtout : ça s’aligne parfaitement avec l’évolution de Gemini.

Le marché des wearables est en train de se réinventer — et cette fois, Google arrive avec un plan qui tient la route.

Lire plus
Réalité virtuelle et augmentée

Project Aura : Google dévoile enfin sa vision des lunettes XR… et XREAL ouvre la voie

Project Aura : Google dévoile enfin sa vision des lunettes XR… et XREAL ouvre la voie

L’an dernier, Google lançait Android XR, son nouveau système d’exploitation spatial. Cette année, Samsung ouvre le bal avec le Galaxy XR. Mais une question restait ouverte : quel type d’appareils va réellement porter cette plateforme ?

La réponse est désormais claire : des lunettes XR légères, pensées pour une utilisation quotidienne — et XREAL est le premier à se positionner.

Google vient d’offrir un second aperçu du mystérieux Project Aura, les toutes premières lunettes XR filaires sous Android XR. Et pour une fois, ce n’est pas un concept fumeux ou un prototype inaccessible : c’est un produit en route vers le marché, prévu pour 2026, et pensé pour démocratiser la réalité augmentée grand public.

Pas un casque VR : des lunettes pour remplacer… l’écran

Project Aura n’est pas un casque volumineux façon Meta Quest. Il s’agit de lunettes à réalité optique transparente (OST), avec un champ de vision de 70°, laissant le monde visible tout en affichant fenêtres, apps, vidéos, ou outils professionnels devant vos yeux. Pas d’immersion totale donc — mais un écran géant privé, où que vous soyez.

Google imagine clairement un usage mobile ou travailler dans un avion, regarder un film sans déranger personne, lancer un tableau Excel en surimpression, afficher un assistant IA contextuel, le tout sans s’isoler du monde.

C’est le premier vrai choix industriel d’Android XR : les lunettes filaires comme catégorie à part entière, plus légères qu’un casque, plus confortables sur le long terme.

Le secret d’Aura : un « compute puck » dans la poche

Pour être aussi fines, les lunettes délèguent toute la puissance de calcul à un petit boîtier externe — le fameux puck — que l’on glisse à la ceinture ou dans une poche. Ce puck embarque le Snapdragon XR2 Plus Gen 2, la batterie principale, la gestion des gestes, et la connectivité. C’est exactement le même combo que le Galaxy XR : Project Aura est, selon les journalistes qui ont pu l’approcher, une réplique matérielle du casque de Samsung, mais en version lunettes.

Même OS. Même app store XR. Même suivi des mains et même compatibilité logicielle. Autrement dit : le premier produit Android XR non Samsung est déjà totalement intégré à l’écosystème.

XREAL : le choix logique pour Google

Si Google associe son retour dans la XR à XREAL, ce n’est pas un hasard. L’entreprise chinoise est pionnière des lunettes AR « grand public », experte en micro-OLED + optiques birdbath, habituée à créer des launchers AR basés sur Android (Nebula), et l’une des seules à avoir vendu des lunettes XR à grande échelle.

Le choix technique est aussi révélateur. Contrairement aux onéreuses optiques de Meta ou HoloLens, XREAL utilise une architecture plus lumineuse, un champ de vision plus large, au coût réduit et au design plus épais.

Mais pour un produit filaire pensé pour remplacer un écran, c’est une combinaison très logique.

Gemini intégré en natif : l’IA au centre de l’expérience XR

XREAL Project Aura Android XR device.jpg

Project Aura embarquera Gemini directement dans les lunettes. On pourra faire des traductions en temps réel, analyser des objets dans la scène, lancer des recherches contextuelles, afficher des réponses au-dessus du monde réel, discuter avec l’assistant IA sans ouvrir d’app.

C’est la vision de Google : l’IA comme interface principale de la XR, pas les contrôleurs VR ni les menus complexes.

Un lancement prévu pour 2026

Google reste encore discret sur plusieurs points : le prix, le nom final, l’autonomie, et la fiche technique complète.

Mais, l’entreprise confirme que le produit sortira après le casque Galaxy XR, les développeurs y auront accès peu après, et il représente une nouvelle catégorie officielle Android XR.

C’est la première fois qu’Android définit aussi clairement un écosystème XR multi-appareils :

  • Casques XR immersifs (Galaxy XR)
  • Lunettes XR filaires (Project Aura)
  • Lunettes XR lifestyle (Warby Parker, Gentle Monster)

L’ambition est nette : faire de la XR un marché horizontal, comme Android l’a fait pour le smartphone.

Un mouvement stratégique majeur pour Google

Avec Project Aura, Google rectifie dix ans d’hésitations XR.

Ce que cela signifie est que la XR ne sera pas limitée à des casques lourds : les lunettes filaires sont la passerelle vers le grand public. De plus, l’expérience s’appuie sur l’existant : apps Android, IA Gemini, suivi des mains. Enfin, Google apprend de l’échec de Google Glass : plus de gadgets isolés, mais une plateforme unifiée.

Aura est la version pragmatique de la XR :
pas un rêve futuriste, mais un outil réel pour travailler, voyager, regarder du contenu, gérer des tâches.

Et surtout, le premier appareil Android XR qui ressemble à un produit du quotidien.

Lire plus
Réalité virtuelle et augmentée

Meta reporte ses lunettes de réalité mixte Phoenix à 2027 : voici ce que l’on sait

Meta reporte ses lunettes de réalité mixte Phoenix à 2027 : voici ce que l’on sait

Meta revoit son calendrier. Selon Business Insider, les nouvelles lunettes de réalité mixte de Meta développées sous le nom de code Phoenix glissent discrètement du second semestre 2026 au premier semestre 2027.

Un délai qui, loin de traduire un recul, s’inscrit dans une volonté assumée de livrer un produit plus ambitieux, plus durable… et plus digne des promesses du métaverse.

Phoenix : des lunettes qui s’inspireraient plus du Vision Pro que des Ray-Ban Meta

Le groupe de Mark Zuckerberg ne part pas de zéro : Meta vend déjà ses casques Quest et ses lunettes Ray-Ban Meta, fusant entre lifestyle et assistance vocale.

Mais, Phoenix semble appartenir à une autre catégorie, plus proche de l’univers du Vision Pro d’Apple que du wearable « discret » avec un form factor plus immersif, un boîtier d’alimentation externe façon « puck » pour alléger la monture, une ambition clairement orientée réalité mixte premium plutôt que simple diffusion AR.

Autrement dit : un appareil qui veut rivaliser avec les grands, et pas seulement suivre la tendance.

Zuck met la pression : « prenez le temps de bien faire »

Business Insider affirme avoir consulté des mémos internes dans lesquels plusieurs dirigeants de Meta annoncent officiellement le report.

Ces échanges feraient suite à des réunions directes avec Mark Zuckerberg, qui aurait demandé aux équipes de prendre davantage de temps pour renforcer la viabilité du produit et améliorer l’expérience utilisateur.

Dans une note conjointe, Gabriel Aul et Ryan Cairns — les patrons de la division métavers — résument la philosophie du retard : « Ce délai nous offre plus de marge pour peaufiner les détails ».

Un signal clair : Meta préfère ralentir la cadence plutôt que sortir un produit inachevé dans un segment où les attentes (et les critiques) sont élevées.

Un report… sur fond de réduction budgétaire

Cette décision intervient dans un contexte stratégique délicat. Bloomberg rapportait cette semaine que Meta prévoit de réduire jusqu’à 30 % le budget alloué au métaverse. L’entreprise, qui a brûlé des montagnes de cash pour développer sa vision immersive, semble désormais vouloir rationaliser son portefeuille d’investissements.

De là à voir un lien direct entre la coupe budgétaire et le report de Phoenix ? Difficile à affirmer.

Mais, l’alignement temporel pose question : Meta chercherait-elle à étaler ses dépenses sur un cycle plus long, ou à recentrer ses priorités technologiques ?

Meta veut un produit qui résiste au temps, pas au hype

Le choix de repousser Phoenix à 2027 illustre une évolution dans la stratégie de Meta : moins de précipitation, plus de maîtrise. Dans un marché où Apple impose déjà un niveau d’exigence démesuré avec le Vision Pro, et où les casques Meta Quest dominent l’entrée de gamme, Phoenix devra trouver sa place : entre réalité augmentée, réalité mixte, et usages professionnels ou quotidiens encore difficiles à définir.

Prendre un an de plus pour solidifier l’expérience pourrait éviter à Meta de reproduire les erreurs de produits trop en avance… ou trop peu aboutis.

Une année de plus pour (peut-être) repenser la stratégie XR de Meta

Avec Phoenix désormais attendu en 2027, Meta traverse une période charnière avec des ambitions XR énormes, un budget métaverse en baisse, une nécessité absolue de convaincre investisseurs et utilisateurs que la vision immersive a un futur durable.

Le lancement de Phoenix n’est plus une simple extension du catalogue Meta : c’est un test grandeur nature de la capacité de groupe à transformer ses rêves de métavers en produits concrets, désirables et viables.

Lire plus
Réalité virtuelle et augmentée

Google prépare un grand show Android XR : lunettes, casques et l’avenir de la réalité mixte ?

Google prépare un grand show Android XR : lunettes, casques et l’avenir de la réalité mixte ?

Google s’apprête à lever le voile sur une nouvelle étape de sa stratégie XR. La firme a discrètement mis à jour la bannière de son site Android pour teaser un événement spécial, The Android Show | XR Edition, prévu pour le 8 décembre.

Un rendez-vous qui devrait enfin éclairer l’avenir de ses lunettes connectées, de son casque en développement… et plus globalement, du nouvel écosystème Android XR sur lequel Google travaille en coulisses depuis plus d’un an.

Un teasing minimaliste, mais qui annonce de grandes ambitions : « Mark your calendars… From glasses to headsets and everything in between », annonce Google. Le ton est donné.

Android XR : Après des années d’expérimentations, Google revient dans la course XR

La dernière incursion de Google dans les wearables « futuristes » remonte à des projets comme Google Glass ou Daydream — tous deux abandonnés avant l’explosion de la réalité mixte moderne.

Mais ; le contexte de 2025 est bien différent :

  • Apple a lancé Vision Pro (puis VisionOS 26).
    • Meta domine le marché XR grand public.
    • Samsung prépare un casque premium — et Google développe Android XR pour l’alimenter.
    • Qualcomm fournit la plateforme XR2+ Gen 2 aux nouveaux casques.

Résultat : Google n’a plus le luxe de rester en retrait. Et cet événement arrive comme une mise en orbite officielle de sa nouvelle stratégie.

Le teaser vidéo : des bots Android déjà équipés de lunettes et casques

Pour accompagner l’annonce, Google a publié un petit teaser : deux mascottes Android déambulent dans un pseudo-studio télé… chacune équipée d’un objet XR. L’une porte des lunettes connectées, l’autre un casque complet.

Ce clin d’œil visuel est tout sauf anodin : Google confirme qu’elle présentera au moins une partie de ses avancées matérielles.

Pas forcément un produit grand public final, mais sûrement les premiers prototypes visibles, leurs principes d’interface… et la plateforme logicielle qui les alimentera.

Ce que Google pourrait révéler : lunettes XR, casque et Gemini intégré

Les pièces du puzzle sont là :

Lunettes XR : le projet le plus avancé

Cette année déjà, Google a évoqué des lunettes dotées de :

  • IA Gemini embarqué
  • Traduction en direct
  • Assistance contextuelle
  • Reconnaissance visuelle
  • Commandes vocales et gestuelles

L’événement XR pourrait marquer la première apparition publique de ces glasses nouvelle génération.

Le casque Android XR co-développé avec Samsung et Qualcomm

Ce projet est déjà officiel, mais très mystérieux. On sait seulement que :

  • Google gère Android XR,
  • Qualcomm gère la puce,
  • Samsung gère le hardware.

Le 8 décembre pourrait être le moment choisi pour dévoiler des rendus, montrer l’interface immersive, expliquer la stratégie face à Apple Vision Pro et Meta Quest.

Une vision unifiée des wearables « intelligents »

Google insiste : « From glasses to headsets and everything in between. ».

On peut donc s’attendre à l’annonce d’un framework logiciel commun, de nouvelles APIs pour les développeurs, d’outils pour créer des apps XR/AR natives sur Android.

Google doit rassurer un écosystème encore sceptique après l’abandon de Glass et Daydream.

Cet événement est l’occasion d’afficher une vision cohérente, ambitieuse, long terme.

Un indicateur clair : Google investit lourdement dans Android XR

Autre fait important : Google a racheté une partie de l’équipe HTC Vive.

Un mouvement stratégique majeur, passé presque inaperçu, mais révélateur :

  • expertise hardware XR,
  • travail sur optiques et ergonomie,
  • ingénieurs spécialisés en tracking et spatial computing..

C’est la première fois depuis la période Pixel/HTC que Google absorbe autant de savoir-faire technique d’un seul coup.

Vers un retour de Google dans la réalité mixte ?

Cet événement Android XR pourrait être le début d’un virage important. Google veut éviter le scénario du smartphone pliable : arriver trop tard, laisser Samsung et Apple imposer les standards.

Avec cet « XR Edition », Google montre qu’il veut redevenir un acteur majeur, imposer Android XR comme le standard grand public, se replacer sur le marché des wearables intelligents de nouvelle génération.

Le 8 décembre, c’est peut-être une nouvelle ère pour Android, où les lunettes, les casques et l’IA deviennent un trio central.

Lire plus
Réalité virtuelle et augmentée

Apple Glasses : première présentation attendue en 2026, sortie prévue en 2027

Apple Glasses : première présentation attendue en 2026, sortie prévue en 2027

L’année 2026 s’annonçait déjà démesurée pour Apple… mais un nouveau rapport de Bloomberg vient de faire monter la tension d’un cran. Selon les informations de Mark Gurman, les Apple Glasses, les fameuses lunettes connectées d’Apple, seraient prêtes pour une première apparition publique dès l’an prochain.

Pas de sortie immédiate, mais une démo en avant-première destinée à montrer la direction que prendra l’après-Vision Pro.

Un peu comme Apple l’avait fait en 2023 en présentant Vision Pro… un an avant sa mise en vente.

Apple Glasses : Une apparition en 2026… pour un lancement en 2027

D’après Bloomberg, la feuille de route est claire :

Une stratégie familière chez Apple : créer l’événement, installer le concept dans les esprits, puis perfectionner le produit avant sa commercialisation.

Le but ? Que les Apple Glasses s’inscrivent comme la prochaine grande plateforme d’Apple, succédant au Vision Pro et visant un usage beaucoup plus quotidien.

On parle ici d’un produit pensé pour être porté toute la journée, sans le caractère imposant d’un casque XR.

Apple veut imposer les lunettes connectées dans la vie quotidienne

Selon les sources internes citées, Apple est désormais « totalement aligné » sur la vision d’un futur dominé par les lunettes connectées. Une vision déjà amorcée par Meta et Ray-Ban, avec leurs lunettes à assistance vocale + IA intégrée.

Les Apple Glasses seraient pensées pour afficher des informations minimalistes en surimpression, interagir via Siri et l’IA locale, et fonctionner en parfaite synergie avec l’iPhone, l’Apple Watch et le Vision Pro.

Pas un casque. Pas un gadget. Mais, un objet du quotidien, comme l’Apple Watch en 2015.

Des débuts qui pourraient voler la vedette au reste de la gamme 2026

Si Apple dévoile bien ses lunettes en 2026, elles pourraient faire de l’ombre à tout le reste du programme, même si celui-ci est déjà massif :

Car oui : plusieurs rumeurs soutiennent que l’iPhone pliable serait lui aussi prêt pour un premier aperçu l’an prochain.

Et la raison de cette accélération ?

Apple aurait enfin résolu le plus grand défi du smartphone pliable : un écran sans aucune marque de pliure visible, même après des milliers d’ouvertures.

Un double lancement Apple Glasses + iPhone Fold ferait du keynote 2026 l’une des plus importantes de l’histoire de la marque.

En présentant ses Apple Glasses un an avant leur sortie, Apple prépare doucement le terrain pour une nouvelle catégorie qui pourrait réinventer la manière dont on interagit avec le numérique.

Le Vision Pro posait les fondations. Les Apple Glasses pourraient en être la démocratisation.

Une chose est sûre : si les fuites de Bloomberg se confirment, 2026 sera l’année où Apple montrera sa vision du futur… et 2027 celle où ce futur commencera réellement.

Lire plus
Réalité virtuelle et augmentée

Samsung brevète une charnière à double axe pour ses lunettes de réalité augmentée

Samsung brevète une charnière à double axe pour ses lunettes de réalité augmentée

Samsung accélère dans la course aux lunettes de réalité augmentée. La société vient de déposer un nouveau brevet — US 2025/0347929 A1 — décrivant un dispositif portable doté d’un mécanisme de charnière totalement repensé, destiné à offrir un meilleur confort, une meilleure stabilité et une utilisation prolongée sans gêne.

Une charnière à double axe et un système de poulies pour un ajustement optimal

Le brevet montre un mécanisme de charnière à double axe reliant la monture principale aux branches.

Samsung y utilise :

  • Deux axes de rotation distincts, l’un côté monture, l’autre côté branche
  • Des angles d’ajustement étendus, pour s’adapter facilement à différentes morphologies
  • Une pression réduite sur les tempes, pour un port plus confortable sur la durée

Mais, la grande nouveauté se trouve à l’intérieur : Samsung a intégré un système de câbles et de poulies dans chaque charnière.

Comment ça marche ?

Deux poulies — une à gauche, une à droite — sont reliées par un câble flexible. Lorsque l’utilisateur déplace une branche, l’autre bouge simultanément, de manière synchronisée.

Cette synchronisation mécanique permet :

  • une ouverture uniforme des deux branches
  • une meilleure stabilité sur la tête
  • moins de glissement lors des mouvements
  • une répartition plus homogène des contraintes, améliorant la durabilité de l’ensemble

Selon le brevet, cet agencement est particulièrement adapté aux interactions AR nécessitant des mouvements rapides ou réguliers.

Vers les futures lunettes AR Samsung ?

Samsung n’a pas confirmé si ce mécanisme sera intégré dans un produit commercial, mais les indices se multiplient.

D’après les rumeurs, le prochain wearable AR, identifié comme SM-O200P, serait déjà en préparation. Deux modèles seraient prévus :

  • 2026 : un modèle sans écran, équipé de verres photochromiques type Transitions, d’un appareil photo, du Wi-Fi et du Bluetooth
  • 2027 : un modèle avec affichage AR complet

Samsung a déjà déposé la marque Galaxy Glasses, et le produit devrait arriver aux États-Unis et sur d’autres marchés mondiaux.

Un produit co-conçu avec des marques de lunettes

Pour assurer un design à la fois fonctionnel et esthétique, Samsung travaillerait également avec des marques d’optique reconnues comme Gentle Monster et Warby Parker.

L’objectif : proposer des lunettes AR qui ressemblent à de véritables lunettes — pas à un casque high-tech encombrant.

Lire plus
Réalité virtuelle et augmentée

Samsung Haean : premières infos sur les lunettes XR avec verres transition et caméra intégrée

Samsung Haean : premières infos sur les lunettes XR avec verres transition et caméra intégrée

Après le lancement de son casque Galaxy XR, Samsung n’en a manifestement pas fini avec la réalité étendue. De nouvelles informations émergent autour d’un second produit XR : une paire de lunettes connectées connue sous le nom de code « Haean ».

Un dispositif plus discret, autonome — mais pas trop — et doté de fonctions optiques inédites.

Samsung Haean : Un nouveau produit XR qui ne ressemble pas au Galaxy XR

Selon les informations de GalaxyClub, ces lunettes portent le numéro de modèle SM-O200P, un détail qui n’a rien d’anodin. Le casque Galaxy XR utilise une nomenclature commençant par SM-I, ce qui laisse supposer que Samsung classe clairement ces lunettes dans une toute autre catégorie. Pas un dérivé du casque, mais bien une nouvelle famille de produits.

Depuis 2024, l’existence de ce projet était connue, mais peu de spécifications avaient filtré. Ce nouveau rapport vient préciser les contours d’un produit pensé pour un usage quotidien, loin de l’encombrement d’un casque immersif.

Des verres photochromiques… et une caméra intégrée

La caractéristique la plus intrigante concerne les lentilles de transition : des verres capables de s’assombrir en plein soleil et de redevenir totalement transparents à l’intérieur. Un choix qui situe ces lunettes à mi-chemin entre un accessoire de vision classique et un outil numérique.

La paire embarquerait également une caméra intégrée, le Wi-Fi, le Bluetooth, mais pas de connexion mobile autonome.

L’objectif est clair : un produit XR léger et connecté, mais pensé pour fonctionner en synergie avec un smartphone ou un autre appareil Samsung.

Une fiche technique discrète, mais révélatrice

La caméra pourrait utiliser un capteur 12 mégapixels Sony IMX681, selon une fuite de l’an dernier. Ce module serait destiné notamment à la reconnaissance gestuelle ou à la lecture de QR codes, des usages qui renforcent la dimension « assistant numérique » de l’appareil.

Plusieurs composants ont été évoqués : un Qualcomm AR1 pour la partie AR, une puce NXP dédiée au co-traitement, une batterie d’environ 155 mAh, logique pour un appareil ultra-léger où chaque millimètre compte.

Un ensemble cohérent pour des lunettes connectées orientées interactions rapides plutôt qu’expériences immersives.

Un lancement encore incertain

Un temps, des rumeurs prévoyaient une présentation conjointe avec le casque Galaxy XR. Samsung a finalement choisi de maintenir le silence autour du projet Haean, laissant planer le doute sur le calendrier. Aucun indice concret ne permet aujourd’hui de savoir quand les lunettes seront officialisées — mais l’intensification des fuites suggère une accélération en coulisses.

Dans un marché où Apple, Meta et Samsung redessinent chacun à leur manière l’avenir de l’informatique spatiale, le segment des lunettes légères représente le prochain grand terrain de bataille. Et si Samsung parvient à conjuguer design, confort et intelligence contextuelle, ces « Haean » pourraient bien devenir l’un des produits XR les plus intrigants à surveiller.

Lire plus
Réalité virtuelle et augmentée

Alibaba lance les Quark AI Glasses S1 : ses premières lunettes connectées, dopées à l’IA maison

Alibaba lance les Quark AI Glasses S1 : ses premières lunettes connectées, dopées à l’IA maison

Alibaba passe à l’offensive sur le marché des wearables intelligents. La firme vient d’annoncer officiellement les Quark AI Glasses S1, ses toutes premières lunettes AR développées en interne.

Elles seront lancées le 27 novembre et sont déjà disponibles en précommande sur les grandes plateformes chinoises au tarif de 3 999 yuans (environ 560 dollars).

Quark AI Glasses S1 : Un assistant personnel à porter sur le nez

Avec les Quark AI Glasses S1, Alibaba veut proposer une paire de lunettes pensée avant tout comme un assistant intelligent. Elles s’appuient sur Qwen, le grand modèle linguistique de l’entreprise, pour offrir de la traduction en temps réel, de la reconnaissance d’objets, de la prise de vue POV et des interactions vocales rapides. L’objectif est clair : fournir un accès permanent à l’IA, sans sortir son smartphone.

Les lunettes utilisent un système d’affichage reposant sur deux moteurs Micro LED et des lentilles à guide d’ondes diffractives. La luminosité peut monter jusqu’à 2 300 nits côté œil, offrant une visibilité confortable même en extérieur. Le système permet d’ajuster distance et hauteur d’affichage, et Alibaba propose des verres correcteurs jusqu’à -8 dioptries, avec plusieurs indices de réfraction.

Le châssis ne pèse que 51 g, avec des branches ultrafines de 7,5 mm et un équilibre avant/arrière pensé pour le confort longue durée.

Double processeur, caméra Sony et audio renforcé

Alibaba a opté pour une architecture à deux puces : un Snapdragon AR1 chargé du traitement AR et un BES2800 pour la partie audio. L’ensemble prend en charge le Bluetooth 5.4, le Wi-Fi 6 et s’appuie sur cinq microphones, dont un micro à conduction osseuse, ainsi que deux haut-parleurs de 10 mm.

La capture d’image est assurée par un capteur Sony IMX681 offrant un champ de vision de 109°. Les lunettes prennent des photos de 4032 × 3024 pixels et enregistrent des vidéos 3K 30 fps, avec stabilisation électronique, mode nuit et capture instantanée.

Batteries interchangeables et autonomie modulable

Alibaba Quark AI Glasses S1 1

L’un des points les plus originaux se situe dans l’alimentation. Les Quark AI Glasses S1 intègrent deux batteries 280 mAh, logées dans les branches, et surtout entièrement interchangeables, ce qui permet d’utiliser les lunettes sans interruption. Alibaba propose trois accessoires de recharge : un MiniBag avec batterie intégrée de 700 mAh, un boîtier-chargeur de 2 500 mAh, et un clip USB-C capable de récupérer 50 % d’autonomie en dix minutes.

Dans la pratique, Alibaba évoque environ 7 heures d’usage actif et 25 heures en veille, avec des scénarios d’utilisation allant de la navigation au visionnage de vidéos, en passant par les appels et la musique. Les lunettes sont certifiées IPX4 contre les éclaboussures et sont compatibles MFi, ce qui facilite leur utilisation avec les appareils Apple.

Un marché des lunettes AI en pleine effervescence

L’annonce d’Alibaba arrive dans un contexte où les lunettes AR/AI entrent en pleine accélération. Lenovo a récemment dévoilé ses lunettes connectées, capables d’atteindre 2 000 nits et dotées d’un mode téléprompteur, tandis que Meizu a lancé les StarV Snap, équipées d’un Snapdragon AR1 et d’une caméra de 12 mégapixels.

Avec les Quark AI Glasses S1, Alibaba se positionne d’emblée parmi les acteurs les plus ambitieux, avec un produit complet et techniquement solide.

Lire plus
Réalité virtuelle et augmentée

Valve lance le Steam Frame, son nouveau casque VR autonome et sans fil

Valve lance le Steam Frame, son nouveau casque VR autonome et sans fil

Six ans après le lancement du Valve Index et de Half-Life : Alyx, Valve revient enfin dans la course à la réalité virtuelle. Son nouveau casque, baptisé Steam Frame, signe un virage majeur : autonome, sans fil, et capable de faire tourner des jeux Steam en local via SteamOS ou en streaming depuis un PC.

Steam Frame: Une fiche technique ambitieuse

Le Steam Frame repose sur un Snapdragon 8 Gen 3, épaulé par 16 Go de RAM, et propose deux options de stockage interne (256 Go ou 1 To), extensibles via microSD.

Côté affichage, chaque œil profite d’une dalle 2160 × 2160 pixels, avec un champ de vision allant jusqu’à 110° et un taux de rafraîchissement jusqu’à 144 Hz — soit un niveau équivalent, voire supérieur, au Meta Quest 3.

Valve promet « une expérience SteamOS complète en réalité virtuelle comme sur PC », tout en permettant le jeu traditionnel en mode 2D via l’interface Steam classique.

Plus léger et modulaire

Le casque affiche 440 grammes sur la balance, soit 75 g de moins que le Quest 3. Son « core » central — le module contenant les composants clés, comme le processeur, les capteurs et le système de refroidissement — ne pèse que 185 g, et il a été conçu pour être modulaire.

Valve précise que cette conception permettra à d’autres fabricants de concevoir leurs propres variantes, en modifiant la batterie, le bandeau ou les haut-parleurs.

Une interface PCIe Gen 4 frontale offre même un port d’extension pour connecter des accessoires (comme des caméras de passthrough en couleur, par exemple).

Des contrôleurs repensés, sans base stations

Adieu les stations externes encombrantes : le Steam Frame utilise un système de suivi inside-out, grâce à plusieurs caméras intégrées qui suivent les contrôleurs dans l’espace.

Les nouvelles manettes — plus proches des Meta Touch — disposent de :

  • Capteurs de mouvement pour le suivi des mains,
  • Retour haptique détaillé,
  • Sticks analogiques et boutons standard,
  • Et une compatibilité complète avec les jeux Steam grâce à Steam Input.

En revanche, les anciens contrôleurs SteamVR du Valve Index ne seront pas compatibles.

Le tout sans câble — mais avec streaming optimisé

Valve fait le pari du tout sans fil. Le Steam Frame se connecte à votre PC via un adaptateur Wi-Fi 6E 6 GHz dédié, et s’appuie sur une nouvelle technologie baptisée Foveated Streaming. Cette technique envoie la meilleure qualité d’image uniquement là où vos yeux regardent, réduisant la charge de données et améliorant la réactivité.

« Nous avons conçu un protocole de streaming à très faible latence avec un canal radio dédié uniquement au flux vidéo », explique Jeremy Selan, ingénieur chez Valve.

Le casque intègre une batterie de 21,6 Wh, dont l’autonomie variera fortement selon les jeux et le mode utilisé. Valve précise aussi qu’aucune connexion filaire n’est prévue — pas même en option. L’entreprise préfère se concentrer sur « une expérience sans fil robuste et fluide ».

SteamOS à bord : autonomie et écosystème Steam

Le Steam Frame tourne sous SteamOS, le système basé sur Linux déjà utilisé par le Steam Deck.

Cela signifie :

  • Accès direct à toute votre bibliothèque Steam,
  • Sauvegardes cloud,
  • Fonction suspend/reprise instantanée,
  • Et compatibilité complète avec Proton, le système qui permet de faire tourner les jeux Windows sur Linux.

Le casque pourra donc lancer directement des jeux SteamVR, mais aussi des jeux PC non VR en mode « écran géant virtuel », sans passer par un PC externe.

Un retour mesuré dans un marché en mutation

Depuis 2020, le marché VR s’est recentré autour de Meta et, plus récemment, d’Apple avec le Vision Pro. Valve, de son côté, cible un public plus restreint, mais passionné : les joueurs PC qui veulent de la VR complète, ouverte et performante, sans être dépendants d’un écosystème fermé.

La philosophie du Steam Frame s’inscrit d’ailleurs dans la continuité du Steam Deck : matériel modulaire, compatibilité maximale, ouverture logicielle.

Un retour réfléchi, axé sur la liberté

steam hardware announcement

Avec le Steam Frame, Valve semble tirer les leçons de ses précédents échecs. Fini la dépendance au PC et aux capteurs externes : le nouveau casque promet une VR autonome, modulaire et ouverte, fidèle à la philosophie PC.

Reste à connaître le prix et la durée d’autonomie réelle, deux paramètres cruciaux pour séduire au-delà du cercle des passionnés. Mais une chose est claire : Valve n’a pas dit son dernier mot dans la réalité virtuelle, et son approche pourrait bien relancer l’intérêt pour une VR « à la Steam » — performante, libre et sans compromis.

Lire plus
Réalité virtuelle et augmentée

Galaxy XR : le casque de Samsung arrivera en France, Allemagne et Royaume-Uni en 2026

Galaxy XR : le casque de Samsung arrivera en France, Allemagne et Royaume-Uni en 2026

Après plusieurs années d’attente, Samsung a enfin fait son entrée sur le marché de la réalité étendue (XR) avec son Galaxy XR, lancé en octobre 2025. Pour l’instant, le casque Galaxy XR est uniquement disponible en Corée du Sud et aux États-Unis, mais selon les informations de SamMobile, le géant coréen s’apprête à étendre sa disponibilité à de nouveaux marchés dès 2026.

Galaxy XR : Un déploiement dans quatre nouveaux pays confirmés

D’après les premières fuites, le Galaxy XR sera commercialisé dans au moins quatre nouveaux pays au cours de l’année prochaine : Canada, Allemagne, France et Royaume-Uni.

Cette liste ne serait toutefois pas définitive, Samsung envisageant d’ajouter d’autres marchés au fur et à mesure que la production et la disponibilité des contenus immersifs progresseront.

Plutôt que de viser une sortie mondiale immédiate, Samsung adopte une approche progressive. Le constructeur teste actuellement la réception du Galaxy XR dans ses deux marchés clés avant de l’étendre à d’autres pays stratégiques.

Cette stratégie rappelle celle d’Apple avec le Vision Pro, d’abord lancé uniquement aux États-Unis avant d’être progressivement déployé dans une dizaine de pays. « Samsung veut s’assurer que son écosystème XR soit prêt, avec suffisamment d’applications et d’expériences immersives, avant de se lancer à grande échelle », rapporte SamMobile.

2D54831F2BE942EDB5F5372BABA7184E

Un positionnement plus accessible que le Vision Pro

Même s’il reste un produit haut de gamme, le Galaxy XR est proposé à 1 799 dollars, soit environ deux fois moins cher que l’Apple Vision Pro vendu 3 699 euros. Cette différence de prix pourrait permettre à Samsung de toucher un public plus large, notamment parmi les professionnels, les développeurs et les early adopters du métavers.

Malgré son potentiel technologique, la réalité étendue reste un segment de niche. L’expérience, souvent immersive mais isolante, peine encore à convaincre le grand public.

Samsung pourrait néanmoins se distinguer en misant sur une intégration plus fluide avec l’écosystème Galaxy (smartphones, tablettes, wearables), une meilleure autonomie et un design plus léger, et un catalogue d’applications plus varié.

Avec le Galaxy XR, Samsung ambitionne de démocratiser la réalité étendue tout en se positionnant comme l’alternative plus accessible au Vision Pro d’Apple. Mais même à un tarif réduit, le Galaxy XR reste un pari risqué : pour conquérir un marché encore sceptique, Samsung devra prouver que son casque n’est pas qu’un gadget futuriste — mais bien une nouvelle façon de travailler, de jouer et de se connecter au monde.

Lire plus
Réalité virtuelle et augmentée

Apple Glass : Apple lance la production de ses lunettes AR pour battre Meta en 2027

Apple lance la production de ses lunettes AR pour battre Meta en 2027

Apple semble déterminée à battre Meta sur le terrain de la réalité augmentée (AR). Selon le journaliste bien informé, Mark Gurman (newsletter Power On, Bloomberg), les premières lunettes AR d’Apple, alias Apple Glass, existent déjà, du moins sous forme de prototypes produits en petite série par les fournisseurs asiatiques de la marque.

Apple Glass : Des lunettes AR déjà en production limitée

Gurman affirme que les partenaires industriels d’Apple fabriquent actuellement de faibles volumes d’un modèle de lunettes AR, preuve que le projet avance à plein régime. Ces unités ne seraient évidemment pas encore des produits finis, mais plutôt des versions d’ingénierie ou de validation.

Cela signifie que le développement aurait atteint une phase avancée, possiblement pré-industrielle.

Selon le rythme actuel du projet, Apple pourrait présenter ses lunettes dès 2026, voire avant la fin de l’année prochaine sous forme d’aperçu (« preview »).

Scénario probable :

  • Septembre 2026 : Apple dévoile officiellement les lunettes AR, en parallèle du lancement de l’iPhone 18.
  • 2027 : lancement commercial, en même temps que les Meta Orion, les futures lunettes AR de Meta.

Ce que l’on sait des lunettes AR Apple (rumeurs actuelles) :

  • Nom : Apple Glass/Apple AR Glasses
  • Sortie estimée : 2027 (présentation possible fin 2026)
  • Design : Format lunettes standard, ultra-léger, proche de modèles Ray-Ban
  • Écran : Micro-OLED ou microLED transparent, haute luminosité
  • Connexion : Couplage à l’iPhone (comme Apple Watch)
  • OS : visionOS dérivé ou « glassOS »
  • Contrôle : Siri + gestes + suivi oculaire
  • Prix attendu : 1 000 à 1 500 dollars (positionnement premium mais « grand public »)

Apple vs Meta : une course à la réalité augmentée

Tim Cook aurait fait de ce projet une priorité stratégique absolue. L’objectif : devancer Meta (et son projet Orion) en lançant les premières lunettes AR vraiment grand public, légères, connectées à l’iPhone et capables d’afficher des informations en surimpression du monde réel.

Cela marquerait une rupture nette avec les casques de réalité mixte encombrants comme le Vision Pro ou le Meta Quest Pro.

Et ; le Vision Pro dans tout ça ?

Selon Gurman, le Vision Pro n’était qu’une étape — un prototype commercial destiné à tester les usages et à préparer le terrain pour les vraies lunettes AR. Apple a bien sorti un Vision Pro M5 cette année (avec puce M5, même design, même prix de 3 999 euros), mais les ventes restent faibles. Le modèle « allégé » et plus abordable qui devait suivre aurait été abandonné, afin de rediriger les ressources vers les lunettes AR.

Autrement dit, Apple ne miserait plus sur le Vision Pro comme produit d’avenir, mais comme tremplin technologique.

Pourquoi c’est stratégique pour Apple ?

Meta investit massivement dans la réalité mixte depuis 2021 avec le Quest et le projet Orion. Samsung et Google préparent aussi des lunettes AR légères. Le marché pourrait peser plus de 20 milliards de dollars d’ici 2028, selon IDC.

Apple, longtemps en retrait après l’échec du projet de voiture autonome, veut redevenir pionnière sur une nouvelle catégorie produit — un pari similaire à celui de l’Apple Watch en 2015.

Apple s’apprête à changer d’échelle dans la réalité augmentée. Après l’expérimentation Vision Pro, l’entreprise veut proposer un produit accessible, portable et intégré à l’écosystème iPhone.

Si les rumeurs se confirment, 2027 pourrait être pour Apple ce que 2007 fut pour le smartphone : le début d’une nouvelle révolution.

Lire plus
Réalité virtuelle et augmentée

Galaxy XR : Samsung et Google lancent leur premier casque Android XR, plus puissant que jamais

Galaxy XR : Samsung et Google lancent leur premier casque Android XR, plus puissant que jamais

Après plusieurs mois d’attente, Samsung et Google dévoilent enfin leur tout premier casque de réalité mixte sous Android XR : le Galaxy XR.

Présenté pour la première fois l’an dernier sous le nom de code Project Moohan, ce casque marque le grand retour de Samsung dans le monde de la réalité virtuelle et augmentée.

Galaxy XR : Réalité mixte, Android XR et puissance brute

Le Galaxy XR est un casque de réalité mixte (MR) : il superpose des éléments virtuels à votre environnement réel, mais peut aussi offrir une expérience VR totalement immersive. En clair, il combine le meilleur des deux mondes — à la manière du Meta Quest 3 ou de l’Apple Vision Pro.

A9A66828FE34A9A0BA31FD70A19F19CC

Sous le capot, on retrouve le Snapdragon XR2+ Gen 2 de Qualcomm, 18 Go de RAM, 256 Go de stockage, du Wi-Fi 7, et du Bluetooth 5.4. Côté affichage, chaque œil bénéficie d’un écran Micro-OLED 3 552 × 3 840 pixels à 90 Hz. Un vrai bond en avant par rapport aux dalles LCD du Meta Quest 3 : noirs plus profonds, contraste accru et netteté supérieure.

Le casque intègre aussi le suivi des yeux et de l’iris, comme le Vision Pro, et plusieurs caméras assurent la capture de mouvement et la vidéo passthrough en temps réel.

Android XR : une nouvelle ère pour la réalité mixte

B83916A9D8FF83C8DDE413FF420DC894

C’est le premier appareil sous Android XR, une plateforme développée par Google pour uniformiser l’écosystème XR. Autrement dit, le Galaxy XR prend en charge toutes les applis Android — y compris celles du Play Store — tout en offrant de nouvelles expériences immersives :

  • Google Maps en 3D spatiale,
  • Google Photos avec effets de profondeur,
  • intégration de l’assistant Gemini, capable de répondre à vos questions à la voix, vous aider dans les jeux ou même planifier vos trajets en MR.

8A2D4B8D731B04C60A342E15281F2664

Samsung promet que toutes les applis Android fonctionnent “out of the box, et que les développeurs pourront facilement adapter leurs contenus via OpenXR, WebXR ou Unity.

Un casque puissant, léger et pensé pour durer

Pesant 545 grammes, le Galaxy XR se veut plus confortable que la plupart de ses concurrents, avec un coussin frontal et un pare-lumière détachable pour bloquer les sources externes et améliorer l’immersion.

Côté specs :

  • Champ de vision de 109° à l’horizontale et 100° à la verticale ;
  • Batterie externe offrant jusqu’à 2 h d’autonomie (ou 2,5 h de lecture vidéo) ;
  • Reconnaissance d’iris pour le déverrouillage ;
  • Eye tracking et hand tracking intégrés.

Le casque sera aussi compatible avec des contrôleurs vendus séparément (250 dollars), tandis que le prix de base est fixé à 1 799 dollars.

Un catalogue déjà riche

Parce qu’il repose sur Android, le Galaxy XR profite immédiatement d’un vaste catalogue d’applications et de contenus multimédias. Films, séries, jeux VR, outils de productivité… et surtout, la possibilité d’exploiter Gemini pour interagir en temps réel avec vos apps ou transformer vos photos 2D en souvenirs 3D immersifs.

Samsung mise aussi sur une utilisation professionnelle et collaborative du casque, dans le monde de l’entreprise et de la formation.

Prix et disponibilité

Le Galaxy XR est disponible aux États-Unis et en Corée au prix de 1 799 dollars, avec un pack “Explorer” comprenant du contenu exclusif, YouTube Premium et Google AI Pro.

020 kv galaxy XR lifestyle try on 08 2p

Une version plus abordable pourrait suivre, mais pour l’instant, Samsung vise clairement le segment premium, face au Vision Pro d’Apple.

En résumé, le Galaxy XR est ambitieux : il combine le meilleur d’Android, la puissance du Snapdragon XR2+, et l’expertise de Samsung en matière d’affichage et de design. Reste à voir si son prix et son positionnement haut de gamme lui permettront de séduire au-delà des passionnés de réalité mixte.

 

Lire plus
Réalité virtuelle et augmentée

Google devance Samsung : les premières applis Android XR du casque Galaxy XR déjà sur le Play Store

Google devance Samsung : les premières applis Android XR du casque Galaxy XR déjà sur le Play Store

Alors que Samsung prépare discrètement la présentation de son premier casque de réalité mixte, alias Galaxy XR— connu sous le nom de Project Moohan —, Google vient de lui voler la vedette.

Quelques jours avant le grand dévoilement, le Play Store affiche déjà les premières applications compatibles avec Android XR, le futur système qui équipera le casque de Samsung.

Une nouvelle section XR apparaît sur le Play Store

Une nouvelle catégorie intitulée « Immersive experiences made for your XR headset » (« Expériences immersives conçues pour votre casque XR ») est apparue sur le Google Play Store, repérée par un utilisateur Reddit sous le pseudonyme Important-Goal-8388.

Cette section met en avant les premiers applications et jeux disponibles pour Android XR, dont :

  • Asteroid
  • Vacation Simulator
  • NFL Pro Era
  • Naver CHZZK XR

Ces applications sont regroupées dans une vitrine dédiée aux expériences immersives et aux événements sportifs en direct, suggérant que Google prépare activement le terrain pour le lancement imminent du casque de Samsung.

 

Virtual Desktop débarque sur Android XR

Autre nouveauté repérée sur le Play Store : Virtual Desktop, l’une des applications les plus populaires de la réalité virtuelle, désormais disponible sur Android XR. Cette app permet de se connecter sans fil à son PC, regarder des films sur grand écran virtuel, ou jouer à des jeux PCVR directement depuis le casque.

Sa présence confirme que le futur casque Galaxy XR prendra en charge des usages avancés dès sa sortie, rivalisant directement avec le Vision Pro d’Apple ou les casques Meta Quest.

Le Galaxy XR arrive le 21 octobre

Samsung a confirmé que le Project Moohan sera dévoilé lors de son événement « Worlds Wide Open », prévu le 21 octobre à 22 h. Selon les fuites récentes, le casque — probablement baptisé Galaxy XR — utilisera la puce Snapdragon XR2+ Gen 2,des dalles micro-OLED haute résolution, et une conception plus légère que celle du Vision Pro, qui reste massif et coûteux (3 699 euros).

En d’autres termes, Samsung veut frapper fort en offrant une alternative plus abordable et plus confortable que le casque d’Apple.

Faut-il vraiment s’enthousiasmer ?

Si la concurrence entre Apple et Samsung promet d’animer le marché, il ne faut pas oublier que les casques XR restent un produit de niche. Leur prix élevé, le manque d’applications réellement utiles et le flou autour des usages quotidiens freinent encore leur adoption massive.

Lire plus
Réalité virtuelle et augmentée

Apple Vision Pro passe à la puce M5 : plus fluide, plus rapide, et une nouvelle sangle pour plus de confort

Apple Vision Pro passe à la puce M5 : plus fluide, plus rapide, et une nouvelle sangle pour plus de confort

Apple vient d’annoncer une nouvelle version de son casque Vision Pro, désormais propulsée par la puce M5, la même que celle qui équipe le nouvel iPad Pro et le MacBook Pro 14 pouces.

La firme promet une expérience plus fluide, des rendus visuels plus précis et une autonomie légèrement améliorée — sans modifier le design général du casque.

Une mise à jour interne pour plus de puissance

Le Vision Pro M5 conserve son design et son prix de 3 699 euros, mais gagne en performance grâce à la nouvelle puce M5.

Selon Apple, cette puce offre :

  • 10 % de pixels supplémentaires rendus sur les écrans OLED,
  • une fréquence d’affichage portée à 120 Hz (contre 100 Hz auparavant),
  • et jusqu’à 50 % de performances en plus pour les tâches liées à l’IA, notamment pour les Personas et les photos spatiales.

Apple Vision Pro M5 and R1 chips

L’expérience est ainsi plus réactive et plus fluide, que ce soit pour la navigation en réalité mixte, le multitâche ou la lecture de contenus immersifs.

En termes d’autonomie, Apple annonce 30 minutes supplémentaires, pour atteindre 2 h 30 d’usage général et jusqu’à 3 heures en lecture vidéo.

Une nouvelle sangle « Dual Knit Band »

En parallèle, Apple introduit un nouvel accessoire : la Dual Knit Band, une sangle conçue pour améliorer le confort du Vision Pro. Cette sangle adopte une structure hybride entre la Solo Knit Band et la Dual Loop Band, et ajoute un molette latérale permettant d’ajuster la tension plus précisément.

Disponible en trois tailles (S, M et L), la Dual Knit Band sera vendue séparément à 115 euros, et compatible avec le Vision Pro M2 actuel.

Apple Vision Pro Dual Knit Band

L’objectif : offrir une meilleure répartition du poids du casque et réduire la pression sur l’arrière du crâne lors des sessions prolongées.

Le Vision Pro M5, une évolution logique

Le premier Vision Pro, lancé début 2024, reposait sur une puce M2, déjà performante mais vite limitée face aux ambitions croissantes d’Apple en matière d’IA et de rendu 3D. Avec le M5, Apple prépare la prochaine phase de visionOS : expériences interactives, événements sportifs immersifs en direct, et intégration plus fluide de fonctionnalités IA locales.

Cette mise à jour arrive aussi à un moment stratégique :

Prix et disponibilité

Le Vision Pro M5 sera disponible à partir du 22 octobre 2025 au même tarif de 3 699 euros. La Dual Knit Band sera proposée séparément à 99 $ sur l’Apple Store.

Lire plus