fermer

Réalité virtuelle et augmentée

La réalité virtuelle (RV) et la réalité augmentée (RA) sont en train de transformer les industries, de l’éducation au commerce en passant par le divertissement.

Découvrez comment ces technologies immersives sont utilisées pour créer des expériences uniques et des interactions enrichies. Nos guides vous fourniront des informations sur les meilleurs dispositifs, applications et stratégies pour intégrer efficacement la RV et la RA dans vos projets ou votre entreprise.

Réalité virtuelle et augmentée

iFixit démonte les lunettes Ray-Ban Display de Meta : un bijou d’optique impossible à réparer

iFixit démonte les lunettes Ray-Ban Display de Meta : un bijou d’optique impossible à réparer

Le site spécialisé iFixit a publié son démontage complet des lunettes connectées Ray-Ban Display de Meta, révélant que ce qui rend ces lunettes impressionnantes n’est pas tant leur électronique interne que la sophistication de leurs verres.

Ray-Ban Display : Des verres à la pointe de l’optique

Selon iFixit, les verres utilisent un système de guide d’ondes géométrique réfléchissant. Concrètement, la lumière projetée à l’intérieur du verre est réfléchie à des angles précis grâce à une série de miroirs partiellement réfléchissants, permettant à l’utilisateur de voir l’image sans que les personnes en face ne distinguent quoi que ce soit sur les verres.

Ce procédé garantit donc une discrétion totale de l’affichage, contrairement à d’autres systèmes de réalité augmentée où les reflets peuvent être visibles de l’extérieur.

Une micro-projection bien pensée

Le système d’affichage repose sur un micro-projecteur intégré dans la branche droite des lunettes. Celui-ci est basé sur une technologie LCoS (Liquid Crystal on Silicon), qui réfléchit la lumière de trois LED pour générer une image de 600 × 600 pixels.

Les verres à guide d’ondes géométrique utilisés par Meta se distinguent des anciens systèmes dits « diffractifs », présents sur d’autres lunettes AR. Ces derniers plient et divisent la lumière, provoquant souvent des artefacts colorés (effet arc-en-ciel) ou une lueur dans les yeux perceptible par les observateurs.

En revanche, la technologie de Meta élimine ces défauts, mais elle a un prix : le verre est extrêmement coûteux à produire. iFixit avance même que Meta pourrait vendre les Ray-Ban Display à perte pour compenser les coûts de fabrication.

Un cauchemar pour les réparateurs

Meta Glasses 117

Pour accéder à l’intérieur, l’équipe d’iFixit a dû ouvrir de force les branches et la monture, faute de système de clips ou de vis prévu pour le remontage. Résultat : impossible de refermer correctement les lunettes une fois ouvertes.

« Toute réparation nécessitera des compétences et des outils spécialisés, » explique Shahram Mokhtari, technicien chez iFixit, dans la vidéo du démontage. « Il est très clair que les premières générations de ces lunettes connectées ne sont pas réparables ». En d’autres termes, changer une batterie ou remplacer un composant interne relève aujourd’hui de l’impossible sans équipement professionnel.

Un produit d’avant-garde… mais jetable

Meta Glasses 113 2048x1152 1

Si la technologie optique de Meta impressionne, son absence de réparabilité soulève de sérieuses questions sur la durabilité du produit. Ces lunettes incarnent à la fois l’innovation la plus avancée en matière de miniaturisation optique et les limites d’un design fermé, où chaque réparation devient un défi.

Reste à voir si les futures générations adopteront un design plus modulaire ou des pièces remplaçables, une approche qui s’inscrirait mieux dans la tendance actuelle vers des produits plus durables.

Lire plus
Réalité virtuelle et augmentée

Vision Pro 2 : La puce M5 est-elle l’arme secrète d’Apple pour corriger l’autonomie du casque ?

Vision Pro 2 : La puce M5 est-elle l'arme secrète d'Apple pour corriger l'autonomie du casque ?

Apple n’a pas abandonné son casque de réalité mixte. Après des rumeurs sur l’annulation d’un modèle plus abordable, des documents réglementaires et de nouveaux rapports confirment qu’une nouvelle version du Vision Pro, alias Vision Pro 2, est bien en préparation — et qu’elle sera propulsée par la toute récente puce M5.

Vision Pro 2 : Une mise à jour ciblée, mais cruciale

Tout est parti du 1er octobre 2025, quand l’apparition de l’iPad Pro M5 dans la base de données de la FCC américaine a été suivie par des références à un nouveau MacBook Pro… et à un Vision Pro révisé. De quoi relancer les spéculations sur la stratégie d’Apple.

Selon Mark Gurman (Bloomberg), il ne s’agit pas du « Vision Air » abordable annulé, mais bien d’un Vision Pro 2 très proche du modèle actuel. Pas de refonte matérielle, mais un changement de taille : le passage à la puce M5, beaucoup plus performante et économe en énergie que l’ancienne M2.

Apple M5 : l’arme pour corriger les faiblesses du premier modèle

Le plus gros défaut du premier Vision Pro ? Son autonomie limitée à 2 heures. En intégrant la M5, Apple pourrait prolonger l’usage sur batterie, tout en améliorant la fluidité graphique et en ouvrant la voie à des fonctions d’IA plus avancées.

Autrement dit, le Vision Pro 2 vise moins à séduire le grand public qu’à satisfaire les pros et early adopters, ceux prêts à investir dans une meilleure expérience, même à prix premium.

Sortie attendue fin 2025 ou début 2026

Avec les dépôts FCC déjà validés, le calendrier s’accélère : tout laisse penser à une présentation entre fin 2025 et début 2026. Contrairement au Vision Air, imaginé à moins de 2 000 dollars, ce refresh restera dans la catégorie ultra-haut de gamme.

Apple n’a pas commenté officiellement, mais les indices convergent : le Vision Pro reste dans la course, avec une évolution progressive plutôt qu’une révolution.

En clair, le Vision Pro 2 ne changera pas de visage, mais son cœur — la puce M5 — pourrait enfin gommer l’un des plus gros reproches faits au casque : sa faible autonomie.

Lire plus
Réalité virtuelle et augmentée

Apple met le cap sur les lunettes connectées Apple Glass, et met en pause le Vision Pro « allégé »

Apple met le cap sur les lunettes connectées Apple Glass, et met en pause le Vision Pro « allégé »

Apple rebat ses cartes dans le domaine de la réalité mixte. Selon Bloomberg, la firme de Cupertino accélère le développement de ses lunettes intelligentes pour rivaliser avec Meta, tout en gelant temporairement ses projets de casque Vision Pro plus léger et moins cher.

Apple Glass : Deux modèles de lunettes en préparation

Apple travaillerait en parallèle sur deux versions de ses futures lunettes Apple Glass. La première, connue sous le nom de code N50, n’intègrera pas d’écran. Reliée à l’iPhone, elle embarquera caméras et micros, misera sur l’intelligence artificielle et sera contrôlée par la voix. Elle pourrait être annoncée dès l’an prochain pour une sortie prévue en 2027.

La seconde version, plus ambitieuse, intègrera un écran directement dans les verres, à la manière des nouvelles Ray-Ban Meta Display. Initialement prévue pour 2028, Apple chercherait désormais à en avancer le calendrier.

Ces lunettes pourraient embarquer une nouvelle puce maison et seraient proposées en plusieurs coloris et styles de monture.

Meta a déjà pris une longueur d’avance

Avec ses lunettes connectées développées avec Ray-Ban et Oakley, Meta domine actuellement ce marché naissant. Après le succès surprise de la première génération en 2023, le groupe de Mark Zuckerberg a lancé une deuxième génération avec plus d’autonomie, une meilleure captation vidéo et même une déclinaison pour sportifs.

À l’inverse, Apple peine encore à concrétiser ses promesses en matière d’IA. Son assistant « Siri plus intelligent » est attendu pour mars prochain, mais accuse déjà un retard par rapport à Meta AI, qui évolue rapidement depuis deux ans.

Vision Pro : un futur incertain

Le casque Vision Pro, lancé à 3 999 euros, n’a pas rencontré le succès escompté. Apple devait en proposer une version plus légère et moins chère d’ici 2027, mais ce projet est désormais mis de côté. De récents dépôts réglementaires confirment toutefois qu’une révision « modeste » du Vision Pro actuel, avec un processeur M5, pourrait voir le jour dès la fin de cette année.

En clair : Apple choisit de concentrer ses forces sur les lunettes connectées Apple Glass, perçues comme l’avenir du wearable grand public. Mais avec un lancement pas avant 2027, la marque arrivera en retard sur Meta, déjà bien installé.

La question reste entière : Apple saura-t-il transformer ce retard en avantage stratégique, comme il l’a souvent fait par le passé ?

Lire plus
Réalité virtuelle et augmentée

Vision Pro 2 : Un simple ajustement technique à 3 999 euros, Apple bâcle-t-elle sa copie XR ?

Vision Pro 2 : Un simple ajustement technique à 3 999 euros, Apple bâcle-t-elle sa copie XR ?

Absent de la keynote iPhone 17, le Vision Pro 2 est pourtant bien réel. Des documents déposés à la FCC (Federal Communications Commission) viennent de le confirmer, malgré la demande de confidentialité d’Apple.

Mais ceux qui espéraient une refonte majeure de son casque de réalité mixte risquent d’être déçus : cette deuxième génération s’annonce comme un simple ajustement.

Vision Pro 2 : Un prix inchangé, une pertinence en question

Le Vision Pro 2 conserverait le tarif astronomique de 3 999 euros, ce qui le condamnerait d’emblée à rester un produit de niche, face à un Meta Quest 3 dix fois moins cher.

Selon plusieurs analystes, Apple maintient surtout cette gamme pour ne pas décrocher du marché XR, en attendant de lancer son véritable Graal : des lunettes AR grand public, projet cher à Tim Cook.

Quelques ajustements techniques

Le casque troquerait sa puce M2 pour une puce M4 gravée en 2 nm, de quoi améliorer l’efficacité et la puissance de traitement. Certaines fonctions jugées gadget sur la première version, comme l’écran EyeSight affichant un visage numérisé à l’extérieur du casque, pourraient disparaître afin de réduire les coûts et la complexité matérielle.

Le problème central demeure : au-delà de la prouesse technologique, l’écosystème du Vision Pro reste pauvre en contenus immersifs. Les expériences disponibles sont encore trop rares pour justifier un tel investissement, même pour les fans de la marque.

Apple pourra néanmoins s’appuyer sur une petite base d’utilisateurs existants pour collecter des données d’usage précieuses.

Lancement attendu fin 2025

Le Vision Pro 2 devrait arriver d’ici la fin de l’année, dans la même fenêtre que le Project Moohan de Samsung. Mais sans baisse de prix significative ni killer app en vue, il risque de connaître le même destin que son prédécesseur : impressionner en démonstration, mais peiner à s’imposer dans les foyers.

Apple joue la montre avec le Vision Pro 2. Le véritable pari se situe ailleurs : réussir à miniaturiser son savoir-faire XR dans une paire de lunettes AR légères et abordables. En attendant, Meta conserve une avance écrasante sur ce marché.

Lire plus
Réalité virtuelle et augmentée

Apple Vision Pro 2 : la nouvelle puce R2 en 2 nm arrive avec la M4 en 2026

Apple Vision Pro 2 : la nouvelle puce R2 en 2 nm arrive avec la M4 en 2026

Le Vision Pro avait surpris en combinant deux puces — la Apple M2 et la Apple R1 — pour alimenter toutes ses fonctions. Son successeur, attendu pour 2026, fera encore mieux avec l’arrivée d’un nouveau processeur Apple R2 gravé en 2 nm par TSMC.

Le duo Apple M4 + Apple R2 pour un casque plus puissant

La Vision Pro 2 embarquera la puce M4, couplée à la nouvelle R2. Alors que la série de puces M s’occupe du calcul principal, la série de puces R est dédiée au traitement des flux de capteurs et caméras. Sur le premier Vision Pro, la R1 gérait déjà une énorme quantité de données en temps réel.

Avec la gravure en 2 nm, la R2 promet :

  • une latence encore plus faible,
  • une meilleure gestion d’applications complexes,
  • un rendu XR plus fluide.

En pratique, les gains risquent d’être invisibles pour l’utilisateur moyen, mais essentiels pour préparer des expériences plus riches.

Un lancement repoussé

Le Vision Pro 2 était attendu aux côtés des iPhone 17, mais Apple a préféré décaler son annonce. Objectif : attendre que la R2 soit prête. La sortie devrait intervenir en 2026, probablement au premier semestre.

Avec son prix de 3 999 euros, le premier Vision Pro s’est adressé à un public restreint. Le Vision Pro 2 ne devrait pas bouleverser cette stratégie : Apple veut maintenir sa présence XR en attendant son véritable objectif, les lunettes AR, censées rivaliser avec les projets de Meta.

Le Vision Pro 2 sera avant tout une évolution technique avec le tandem M4 + R2 en 2 nm, destiné à garder Apple dans la course XR. Pour l’utilisateur, les changements visibles seront minimes, mais l’enjeu est stratégique : préparer le terrain avant les lunettes AR Apple.

Lire plus
Réalité virtuelle et augmentée

Meta étend Llama : l’IA open source accessible aux gouvernements d’Europe et d’Asie

Meta étend Llama : l’IA open source accessible aux gouvernements d’Europe et d’Asie

Meta Platforms Inc. vient d’annoncer une nouvelle étape majeure dans sa stratégie d’intelligence artificielle. Après avoir ouvert ses modèles Llama aux agences gouvernementales américaines, l’entreprise étend désormais leur disponibilité à plusieurs pays d’Europe et d’Asie, ainsi qu’à des organismes supranationaux comme l’Union européenne et l’OTAN.

Llama, une IA open source pour le secteur public

Conçu à l’origine comme un modèle open source en 2023, Llama a beaucoup évolué. La dernière génération, Llama 4 (lancée en avril 2025), intègre :

  • des capacités multimodales (texte, image, audio),
  • une architecture mixture-of-experts,
  • et des fenêtres de contexte étendues pour traiter de vastes volumes de données.

Avec ces améliorations, Llama peut répondre à des besoins stratégiques comme :

  • la cybersécurité,
  • la détection de menaces en temps réel,
  • l’analyse économique,
  • ou encore la traduction multilingue pour les administrations.

image 31

Une expansion internationale

Meta a confirmé que l’accès sera progressivement étendu à des gouvernements en France, Allemagne, Italie, Japon et Corée du Sud. L’initiative s’appuie sur un modèle de partenariat qui simplifie les négociations individuelles.

Déjà aux États-Unis, via un accord avec la General Services Administration (GSA), les agences fédérales exploitent Llama pour automatiser certaines tâches administratives et renforcer la sécurité. Ce cadre est désormais reproduit à l’international.

Entre innovation et sécurité

Pour l’Europe, où la protection des données (RGPD) est une préoccupation majeure, Meta propose une intégration de Llama qui garantit l’anonymisation et la sécurisation des données.

En Asie, les cas d’usage portent sur la gestion des infrastructures et la réduction de la dépendance envers les solutions fermées proposées par des concurrents comme OpenAI ou Google.

Toutefois, certains experts soulignent les potentiels risques :

  • biais dans les modèles,
  • détournement pour des usages de surveillance,
  • ou problèmes d’interopérabilité entre pays.

Meta insiste de son côté sur la communauté open source et la transparence, deux piliers censés renforcer la fiabilité et l’éthique de Llama.

Un tournant pour l’IA gouvernementale

L’intégration de Llama pourrait transformer la manière dont les États utilisent l’intelligence artificielle. Avec l’appui d’alliances comme l’OTAN, ces modèles pourraient renforcer la résilience collective face aux menaces technologiques.

En rendant ses modèles plus accessibles, Meta s’impose comme un acteur clé du mouvement en faveur d’une IA ouverte et collaborative, une alternative aux systèmes propriétaires fermés.

Avec cette extension, Meta cherche à démocratiser l’intelligence artificielle dans le secteur public mondial. Llama 4, déjà adopté dans des contextes stratégiques, pourrait devenir un standard pour les gouvernements en quête d’outils puissants, sécurisés et flexibles.

Si le pari réussit, cette initiative pourrait définir une nouvelle ère de l’IA open source appliquée à la gouvernance, tout en posant les bases d’une collaboration internationale sans précédent.

Lire plus
Réalité virtuelle et augmentée

Samsung Project Moohan : lancement du casque XR repoussé au 21 octobre

Samsung Project Moohan : lancement du casque XR repoussé au 21 octobre

Le très attendu casque XR (Extended Reality) de Samsung, connu en interne sous le nom de Project Moohan, s’apprête enfin à voir le jour. Initialement prévu pour fin septembre, son lancement a été légèrement repoussé afin de finaliser quelques contrôles qualité et d’ajuster la stratégie marketing.

Samsung dévoilera officiellement Project Moohan le 21 octobre 2025, et les ventes commenceront presque immédiatement après la présentation.

Le planning initial prévoyait une annonce dès le 29 septembre, suivie d’une commercialisation plus tôt en octobre.

Project Moohan: Un prix plus abordable que le Vision Pro

Le casque est pensé pour corriger l’un des principaux reproches adressés à son concurrent direct, l’Apple Vision Pro : le confort. Autre argument de taille, le prix : autour de 2 000 dollars, soit bien en dessous des 3 499 dollars demandés par Apple, mais encore loin d’être accessible au grand public.

Cependant, Samsung ne cherche pas à inonder le marché dès le départ. Le fabricant prévoit une production limitée à 100 000 unités, principalement pour tester l’intérêt des consommateurs. À titre de comparaison, Apple visait un million d’unités pour le Vision Pro… objectif qu’il n’a pas atteint.

Les caractéristiques techniques attendues

Côté matériel, Project Moohan veut frapper fort :

  • Des écrans Micro OLED offrant une résolution supérieure à celle du Vision Pro (environ 3 800 PPI).
  • 16 Go de RAM pour gérer les applications XR.
  • La puce Snapdragon XR2+ Gen 2, optimisée pour la réalité étendue.

Le casque fonctionnera sur une base Android XR, en partenariat avec Google, ce qui devrait lui permettre de proposer davantage de contenus disponibles dès le lancement que son rival signé Apple.

Une disponibilité limitée

Seul bémol : le Project Moohan sera lancé dans quelques régions seulement, du moins au départ. Si la demande est au rendez-vous, Samsung pourrait élargir sa distribution.

Lire plus
Réalité virtuelle et augmentée

Meta prépare des lunettes connectées avec deux écrans avant ses vraies lunettes AR

Meta prépare des lunettes connectées avec deux écrans avant ses vraies lunettes AR

Lors de la conférence Meta Connect de septembre, Mark Zuckerberg a présenté les Ray-Ban Meta Display, les premières lunettes connectées de la marque à intégrer un écran.

Mais selon le journaliste bien informé Mark Gurman (newsletter Power On), Meta a déjà une autre paire en préparation : des lunettes avec deux écrans intégrés.

Contrairement aux futures lunettes Orion AR prévues pour 2027, ce nouveau modèle ne sera pas de la réalité augmentée. Les Ray-Ban Meta Display actuelles projettent un écran d’un seul côté du champ de vision.

Une version double écran permettrait d’afficher simultanément deux applications ou d’améliorer le confort de lecture et de navigation.

Meta semble vouloir offrir une alternative plus abordable aux lunettes AR, dont le prix s’annonce élevé. Rappelons que les Ray-Ban Meta Display actuelles coûtent déjà 799 dollars, un tarif en dessous de leur coût réel de fabrication selon les analystes.

La stratégie de Meta : séduire avant l’AR

Depuis plus de dix ans, Meta investit massivement dans son département XR (Reality Labs), sans rentabilité immédiate. L’objectif est clair : dominer le futur de l’informatique en misant sur les lunettes connectées.

Avec ce modèle intermédiaire à deux écrans, Meta veut habituer le public à utiliser ce type de produit et créer une base d’utilisateurs fidèle avant l’arrivée des lunettes AR haut de gamme.

Orion AR : le vrai rendez-vous en 2027

La grande attente reste les Meta Orion, premières vraies lunettes AR destinées au grand public. Elles devraient transformer la manière dont on interagit avec nos environnements numériques, en affichant directement des informations contextuelles dans le champ de vision.

En attendant, les Ray-Ban Meta Display et leur futur modèle à double écran servent d’entraînement pour les utilisateurs curieux.

Meta accélère sa stratégie en multipliant les étapes avant le grand saut dans la réalité augmentée. Les lunettes à deux écrans pourraient séduire ceux qui trouvent les Ray-Ban Meta Display trop limitées, tout en préparant le terrain pour les Orion AR.

Lire plus
Réalité virtuelle et augmentée

Meta ouvre ses lunettes connectées aux développeurs avec le Wearable Device Access Toolkit

Meta ouvre ses lunettes connectées aux développeurs avec le Wearable Device Access Toolkit

Meta vient d’annoncer ses nouvelles lunettes connectées alimentées par l’IA lors de la conférence Meta Connect 2025, mais ce n’est pas tout. L’entreprise va également permettre aux développeurs tiers d’accéder à certaines fonctionnalités de ses lunettes.

Meta veut transformer ses lunettes intelligentes en véritables plateformes d’applications. L’entreprise a annoncé le lancement prochain du Wearable Device Access Toolkit, un kit destiné aux développeurs qui permettra d’exploiter les capteurs de vision et d’audio embarqués dans ses lunettes.

Un accès direct aux capteurs des lunettes

Dès sa première version, le kit offrira l’accès à un ensemble de capteurs intégrés. Concrètement, cela permettra aux développeurs d’intégrer aux applications mobiles des fonctionnalités tirant parti de :

  • la perspective naturelle du porteur grâce aux caméras,
  • l’audio ouvert et les micros intégrés pour une expérience mains libres,
  • les capacités d’IA embarquées dans les lunettes.

Meta résume l’idée ainsi : « donner aux apps la possibilité d’exploiter les bénéfices mains libres des lunettes IA ».

Meta Wearable Devices Access SDK

Premiers cas d’usage annoncés

Quelques partenaires ont déjà commencé à tester le kit :

  • Twitch permettra à ses créateurs de diffuser en direct depuis leurs lunettes, offrant un point de vue immersif inédit.
  • Disney Imagineering R&D explore des prototypes pour les parcs à thème, où les visiteurs pourraient accéder à des conseils ou des expériences interactives pendant leur visite, directement via leurs lunettes.

Une sortie progressive

Pour le moment, le projet n’en est qu’à ses débuts :

  • Les développeurs peuvent s’inscrire sur une liste d’attente afin d’accéder à une preview prévue fin 2025.
  • Les expériences créées ne seront accessibles qu’à des audiences limitées au départ.
  • La disponibilité générale pour la publication d’apps n’est pas attendue avant 2026.

Avec le succès des Ray-Ban Meta et l’arrivée des nouvelles Ray-Ban Meta Display équipées d’un écran, l’appétit des développeurs pourrait être énorme.

Si Meta réussit à bâtir un écosystème riche, ses lunettes pourraient évoluer d’un gadget à une plateforme incontournable, à l’image de ce qu’a été l’App Store pour l’iPhone.

Apparemment, il faudra patienter un peu avant de bénéficier d’une véritable intégration de l’application avec les Ray-Ban Meta et les autres lunettes IA de l’entreprise. Étant donné leur popularité et de l’esthétique attrayante de ces nouvelles lunettes avec écran, je suis sûr que de nombreux développeurs voudront tester cette boîte à outils. Même si cela peut paraître un peu dystopique, donner accès à votre gadget à des applications tierces les améliorerait grandement.

Lire plus
Réalité virtuelle et augmentée

Ray-Ban Meta Display : les lunettes connectées qui font entrer la science-fiction dans la réalité

Ray-Ban Meta Display : les lunettes connectées qui font entrer la science-fiction dans la réalité

Lors de Meta Connect 2025, Mark Zuckerberg a enfin dévoilé les Ray-Ban Meta Display, les toutes premières lunettes intelligentes grand public équipées d’un écran.

Présentées comme un pont entre les modèles actuels Ray-Ban Meta et les futures lunettes Orion, elles ambitionnent de transformer notre rapport à la technologie — et peut-être même de remplacer un jour nos smartphones.

Ray-Ban Meta Display : Une démonstration marquante sur scène

En direct, Zuckerberg a mis les lunettes, traversé les coulisses et rejoint la scène, tout en retransmettant son point de vue sur un grand écran. L’effet était saisissant : un premier aperçu concret de ce que Meta décrit comme « l’avenir de l’informatique ».

download 4

Contrairement à la réalité augmentée complète, les Ray-Ban Meta Display ne couvre qu’une partie du champ de vision. Il permet de :

  • Consulter ses notifications,
  • Suivre un itinéraire,
  • Passer des appels vidéo,
  • Naviguer dans des applications,
  • Interagir avec Meta AI.

Un compromis qui rend l’expérience plus fluide et naturelle, sans surcharger la vue.

Le bracelet neuronal : la vraie révolution

Screen 2025 09 19 at 09.46.59

La star de la présentation n’était pas seulement les lunettes, mais le neural wristband (bracelet neuronal). Relié aux Ray-Ban Meta Display, il capte les micro-mouvements de vos doigts et les traduit en commandes :

  • Balayer l’air pour naviguer,
  • Pincer ou tapoter pour sélectionner,
  • Simuler un bouton de volume pour régler le son,
  • Écrire dans l’air pour répondre à un message.

download 5

Une interaction futuriste qui élimine le besoin de toucher l’écran ou de sortir son smartphone.

Live AI : un assistant toujours présent

En mode Live AI, limité pour l’instant à une heure d’usage, les lunettes deviennent un véritable compagnon :

  • Reconnaissance visuelle et audio pour aider à cuisiner, bricoler ou s’orienter,

download 2

  • Traductions instantanées et sous-titres en direct pour la personne que vous regardez,

Screen 2025 09 19 at 09.47.23 scaled

  • Suggestions contextuelles adaptées à l’environnement.

Screen 2025 09 19 at 09.47.34 scaled

Meta veut replacer la technologie au service de la proximité humaine : plus besoin de sortir son téléphone, un simple geste suffit.

Et après ?

Meta a également teasé un outil d’IA permettant de générer des mondes virtuels personnalisés, qui seront surtout exploités sur les casques Quest mais connectés aux Ray-Ban Meta Display.

download 1

Les lunettes seront commercialisées aux États-Unis à partir du 30 septembre 2025, au prix de 799 dollars. Un tarif élevé, mais qui pourrait séduire les passionnés de XR et les early adopters prêts à tester ce qui ressemble déjà au futur des interfaces. En France, il n’y a pour le moment aucune information sur le lancement.

Lire plus
Réalité virtuelle et augmentée

Meta lance Hyperscape : scannez une pièce réelle et recréez-la en VR photoréaliste

Meta lance Hyperscape : scannez une pièce réelle et recréez-la en VR photoréaliste

Meta déploie progressivement Hyperscape, une nouvelle technologie qui permet de capturer un espace réel avec un casque Quest VR pour en générer une réplique numérique photoréaliste.

Disponible dès aujourd’hui en bêta via l’application Hyperscape Capture, cette fonctionnalité est compatible avec les Quest 3 et Quest 3S.

Meta Hyperscape : Comment ça marche ?

Avec l’app Hyperscape Capture, l’utilisateur scanne une pièce simplement en se déplaçant et en observant son environnement avec son casque VR. Un maillage virtuel apparaît progressivement sur les objets, indiquant ce qui est en train d’être capturé. Une fois le scan terminé, il est envoyé dans le cloud pour être traité — un processus qui prend quelques heures — avant de pouvoir être exploré en réalité virtuelle.

Happy Kellis Crocs room Screensh

Au lancement, Hyperscape ne permet que de visiter seul ses propres scans. Mais, Meta annonce déjà qu’il sera bientôt possible de partager un lien privé pour inviter d’autres personnes à explorer ces environnements ensemble.

Une immersion déjà bluffante

Meta avait présenté Hyperscape pour la première fois lors de la conférence Meta Connect 2024. Un an plus tard, la technologie est encore jeune, mais elle montre un potentiel énorme.

Gordon Ramsays home kitchen 5MB 1

Lors du Meta Connect 2025, certains participants ont pu tester des espaces déjà scannés, comme la cuisine de Gordon Ramsay. L’expérience s’est révélée étonnamment réaliste : on pouvait observer des détails précis comme des piles de livres ou des plats posés sur une table.

Bien sûr, l’illusion se brise si l’on s’approche trop près — les textes sur des journaux par exemple deviennent flous ou « baveux » — mais l’impression générale reste très convaincante.

Un outil créatif pour la VR et le métavers

Même si les ambitions de Meta en matière de métaverse semblent aujourd’hui passer au second plan face à l’essor de l’IA, Hyperscape montre que l’entreprise continue d’investir dans des expériences immersives inédites.

Pouvoir recréer un espace réel et le visiter en VR — seul ou entre amis — ouvre la porte à de nombreux usages :

  • revisiter des souvenirs personnels (une maison d’enfance, un lieu de vacances),
  • partager des environnements professionnels à distance,
  • créer des décors immersifs pour le gaming ou l’événementiel.

Disponibilité

Hyperscape est disponible en bêta dès aujourd’hui via l’application Hyperscape Capture pour Quest 3 et Quest 3S. La fonction multijoueur avec partage de lien privé arrivera « prochainement », selon Meta.

Lire plus
Réalité virtuelle et augmentée

Meta Connect 2025 : Oakley Vanguard vs Oakley HSTN, quelles différences ?

Meta Connect 2025 : Oakley Vanguard vs Oakley HSTN, quelles différences ?

Meta a profité de sa conférence Meta Connect 2025 pour dévoiler les nouvelles lunettes Oakley Vanguard, qui viennent rejoindre les Oakley HSTN lancées plus tôt dans l’année. Mais alors, quelle paire choisir ? Voici un comparatif complet pour éviter de se tromper.

Design et confort : mode ou performance ?

Les Oakley HSTN misent sur un look plus urbain et polyvalent. Avec leur style proche des Wayfarer, elles peuvent accompagner aussi bien une sortie sportive légère qu’une balade en ville ou une partie de golf.

01 Oakley Meta Vanguard

Les Oakley Vanguard, en revanche, adoptent un format visière pensé pour la performance. Leur design enveloppant protège mieux du vent et de la poussière, ce qui les rend idéales pour le cyclisme, la course longue distance ou encore le ski.

Autre atout côté confort : les Oakley Vanguard intègrent trois plaquettes de nez interchangeables pour un ajustement personnalisé et plus sécurisé. Enfin, elles offrent la possibilité de changer les verres (85 dollars pièce), avec notamment des verres PRIZM Low Light bientôt disponibles pour les environnements sombres.

Les HSTN, elles, ne proposent pas ce niveau de modularité.

02 Designed for Performance Caro

Résistance et son : des spécifications plus musclées

Les Oakley Vanguard embarquent des haut-parleurs 6 dB plus puissants, un vrai plus pour être entendu malgré le vent ou le trafic. Elles sont aussi plus résistantes, grâce à leur certification IP67 contre l’eau et la poussière, quand les HSTN se contentent d’un simple IPX4 (résistance aux éclaboussures).

VHx7bdFhZthASnvrmV9Xnk 1200 80.jpg

Intégrations sportives : l’avantage Vanguard

C’est probablement la plus grosse différence. Les Oakley Vanguard se distinguent avec leurs intégrations fitness avancées via l’application Meta AI.

Elles se connectent directement à des appareils Garmin et à Strava, et permettent d’obtenir des mises à jour vocales en temps réel : rythme cardiaque, distance parcourue ou encore état de forme.

05 Captures Caoursel 01

Elles peuvent même déclencher automatiquement l’enregistrement de clips vidéo en fonction de vos performances (par exemple à chaque kilomètre parcouru pendant un marathon). Toutes ces données peuvent être synchronisées avec Garmin Connect, Apple Health ou Health Connect pour un suivi global.

Les HSTN, elles, ne disposent pas de ces fonctions avancées.

Prix et disponibilité

Les Oakley HSTN restent la solution la plus abordable, avec un prix de départ fixé à 359 euros, et jusqu’à 519 euros pour les modèles les plus haut de gamme. Les Oakley Vanguard démarrent plus haut, à 549 euros.

Verdict : laquelle choisir ? Les Oakley HSTN conviendront aux amateurs de style et d’usages polyvalents, avec un prix plus accessible. Les Oakley Vanguard, elles, s’adressent clairement aux sportifs exigeants, avec une meilleure résistance, un confort optimisé et des fonctions fitness avancées.

En résumé : mode et lifestyle pour les HSTN, performance et suivi sportif pour les Vanguard.

Lire plus
Réalité virtuelle et augmentée

Ray-Ban Meta Display : des lunettes connectées avec écran intégré et Meta AI à 799 dollars

Ray-Ban Meta Display : des lunettes connectées avec écran intégré et Meta AI à 799 dollars

Lors de sa conférence annuelle Meta Connect 2025, Meta a dévoilé une toute nouvelle paire de lunettes connectées qui marque un tournant dans la tech wearable : les Ray-Ban Meta Display.

Avec leur écran haute résolution intégré directement dans le verre, ces lunettes permettent de consulter messages, appels, itinéraires et bien plus encore… sans jamais sortir son téléphone.

Ray-Ban Meta Display : Un design élégant et pratique

Meta a travaillé avec Ray-Ban pour conserver une esthétique familière et stylée. Les lunettes ressemblent aux célèbres Wayfarer, avec des lignes carrées légèrement arrondies pour un look plus moderne. Elles pèsent seulement 69 grammes, ce qui les rend légères et confortables.

Les charnières en titane assurent solidité et durabilité, tandis que les verres photochromiques s’adaptent automatiquement à la luminosité ambiante. Pour limiter les reflets et préserver la vie privée, Meta a intégré un affichage latéral discret (seulement 2 % de fuite lumineuse), ainsi qu’une LED visible indiquant quand la caméra est en train d’enregistrer.

Une autonomie renforcée

Sous leur design fin, ces lunettes embarquent des batteries ultra-compactes en acier intégrées dans les branches, offrant une autonomie prolongée.

DhhjPYtpeL9Ew65UivowJn.jpg

Elles sont également livrées avec le Meta Neural Band, un bracelet EMG doté de 18 h d’autonomie et certifié IPX7 (résistance à l’eau). Ce bracelet détecte les micro-mouvements musculaires de la main, permettant de contrôler les lunettes par de simples gestes : défiler, cliquer, et bientôt… écrire des messages d’un mouvement des doigts.

01 EMG Carousel 02

Un écran miniature inédit

La grande nouveauté des Ray-Ban Meta Display réside dans leur écran couleur haute résolution intégré. Grâce à un moteur optique personnalisé, il délivre une densité de 42 pixels par degré, une finesse jamais atteinte sur un appareil grand public de ce type.

Meta Ray Ban Display Meta AI 1 scaled

L’affichage est placé sur le côté du champ de vision afin de ne pas gêner la marche ni les déplacements : l’idée est de donner accès à l’information sans « coller un smartphone sur le visage », selon Meta.

Meta AI au cœur de l’expérience

GdRiG33v2ANhCApnn9TGKk.jpg

C’est l’intégration poussée de Meta AI qui rend ces lunettes vraiment uniques. Elles peuvent :

  • afficher des réponses visuelles et des tutoriels pas à pas,
  • gérer les messages et appels vidéo (WhatsApp, Messenger),
  • offrir un contrôle intelligent de la caméra avec zoom et aperçu avant capture,
  • fournir une navigation piétonne sans téléphone,
  • activer la traduction en direct et générer des sous-titres instantanés lors de conversations.

Meta promet aussi une meilleure captation sonore : les sous-titres s’afficheront uniquement pour les personnes vers lesquelles l’utilisateur regarde, réduisant le « bruit » environnant.

Prix et disponibilité

Les Ray-Ban Meta Display seront disponibles à partir du 30 septembre 2025, au prix de 799 dollars (lunettes + Neural Band inclus). Le lancement aura lieu d’abord aux États-Unis (Best Buy, LensCrafters, Ray-Ban Stores, Verizon), avant une expansion au Canada, en France, en Italie et au Royaume-Uni début 2026.

Deux coloris sont proposés : Black et Sand, avec deux tailles de monture : standard et large.

Lire plus
Réalité virtuelle et augmentée

Ray-Ban Meta Gen 2 : plus d’autonomie et vidéo 3K, mais prix en hausse

Meta Ray-Ban Gen 2 : plus d’autonomie et vidéo 3K, mais prix en hausse

Lors de sa conférence Meta Connect 2025, Meta a présenté la deuxième génération de ses lunettes connectées Ray-Ban, les Ray-Ban Meta Gen 2. Si le design iconique reste inchangé, les nouveautés viennent corriger certains défauts reprochés à la première version.

Ray-Ban Meta Gen 2 : Une autonomie doublée et une recharge plus rapide

L’un des reproches majeurs adressés aux premières Ray-Ban Meta concernait leur autonomie limitée. Les Ray-Ban Meta Gen 2 double la mise avec une autonomie pouvant atteindre 8 heures d’utilisation, contre seulement quatre auparavant.

download

Le boîtier de recharge a lui aussi été amélioré, puisqu’il offre désormais 48 heures supplémentaires, là où le précédent se limitait à trente-deux. Meta a également travaillé sur la rapidité de charge : il suffit désormais de vingt minutes pour recharger la batterie à cinquante pour cent, un léger gain par rapport aux vingt-deux minutes de la première version.

Une caméra boostée pour la vidéo

01 Sudio Product Lanunch Video

Côté image, Meta a nettement relevé le niveau. Les lunettes permettent désormais d’enregistrer en 3K à 30 images par seconde, en 1440p à 30 images par seconde ou en 1200p à 60 images par seconde.

Les vidéos peuvent durer jusqu’à 3 minutes, contre trente secondes seulement sur la première génération. Meta a également annoncé l’arrivée prochaine de nouveaux modes de capture, comme l’hyperlapse et le ralenti, qui seront déployés plus tard dans l’année et accessibles sur toute sa gamme de lunettes équipées d’IA.

Toutefois, la caméra reste un capteur de 12 mégapixels ultra grand-angle, déjà présent sur le modèle précédent.

03 video capture Carousel 01

Nouvelles fonctions audio et traduction en direct

Meta ne s’est pas contenté d’améliorer la batterie et la caméra. L’entreprise a introduit une fonction baptisée Conversation Focus, qui amplifie la voix de la personne avec qui vous parlez afin de la distinguer plus facilement du bruit ambiant.

Par ailleurs, le système de traduction en direct s’enrichit de nouvelles langues et prend désormais en charge l’allemand et le portugais, en plus des langues déjà disponibles.

Prix et disponibilité

Ces améliorations ont un coût. Les nouvelles Ray-Ban Meta Gen 2 sont commercialisées à partir de 419 euros, un prix nettement plus élevé que celui de la première génération qui était proposée à 329 euros.

Elles sont disponibles dans plusieurs styles, dont Wayfarer, Skyler et Headliner, et dans différents coloris. Elles sont déjà en vente dans la plupart des pays où la première génération avait été distribuée.

Les Ray-Ban Meta Gen 1 restent disponibles, mais à un tarif réduit de 329 euros.

Un upgrade logique, mais plus cher

Avec une autonomie doublée, une meilleure caméra et de nouvelles fonctions audio, Meta semble avoir corrigé les principaux défauts de son premier modèle. Reste à savoir si la hausse de prix ne refroidira pas certains acheteurs, au moment même où la concurrence commence à s’organiser sur le marché des lunettes connectées.

Lire plus
Réalité virtuelle et augmentée

Meta Connect 2025 : lunettes Ray-Ban Meta Display, Gen 2, Oakley Vanguard et nouveautés VR

Meta Connect 2025 : lunettes Ray-Ban Meta Display, Gen 2, Oakley Vanguard et nouveautés VR

Lors de sa conférence annuelle Meta Connect 2025, Meta a dévoilé une pluie d’annonces dans les domaines de la réalité augmentée, virtuelle et des wearables.

Entre nouvelles lunettes Ray-Ban avec écran, modèles sportifs Oakley et mises à jour des casques Quest, voici l’essentiel à retenir.

Résumé de cette Meta Connect 2025

Meta veut s’imposer comme un acteur central de la réalité augmentée et virtuelle :

  • Les Ray-Ban Meta Display incarnent l’avenir des lunettes AR avec écran intégré.
  • Les Ray-Ban Meta Gen 2 améliorent l’expérience au quotidien avec plus d’autonomie et une meilleure caméra.
  • Les Oakley Meta Vanguard ciblent directement les sportifs avec un design robuste et des intégrations fitness.
  • Enfin, l’écosystème Quest et Horizon continue de s’enrichir avec plus de contenu et d’outils pour la création et le divertissement immersif.

Ray-Ban Meta Display : les premières lunettes Meta avec écran intégré

Cela faisait des mois que la rumeur circulait : Meta a enfin présenté une paire de lunettes intelligentes équipées d’un écran, les Ray-Ban Meta Display.

Leur écran couleur haute résolution, intégré dans le verre droit, permet d’afficher des messages, appels vidéo, sous-titres en direct, itinéraires GPS ou encore un aperçu des photos prises avec la caméra de 12 mégapixels intégrée.

Meta Ray Ban Display Meta AI 1 scaled

Le contrôle se fait via un bracelet connecté qui reconnaît les gestes (scroll, clic, écriture). L’autonomie annoncée est de 6 heures en usage mixte et jusqu’à 30 heures avec l’étui de charge.

Disponibilité et prix

  • Prix : 799 dollars
  • Disponibilité : à partir du 30 septembre 2025, aux États-Unis (Best Buy, LensCrafters, boutiques Ray-Ban).

> En savoir plus sur les Ray-Ban Meta Display

Ray-Ban Meta Gen 2 : autonomie doublée et meilleures vidéos

Meta a aussi dévoilé la 2e génération de ses lunettes Ray-Ban Meta, avec plusieurs améliorations notables :

  • Autonomie portée à 8 heures (contre 4 auparavant) et 48 h via l’étui de charge.
  • Vidéo en 3K jusqu’à 60 fps grâce au capteur 12 MP ultra-grand-angle.
  • Nouvelle fonction Conversation Focus, qui amplifie la voix de l’interlocuteur dans les environnements bruyants.

Ray Ban Meta Headliner Gen 2 Shi

Disponibilité et prix

> En savoir plus sur les Ray-Ban Meta Gen 2

Oakley Meta Vanguard : des lunettes pour le sport intensif

Meta s’associe à Oakley pour lancer les Oakley Meta Vanguard, des lunettes connectées conçues pour les sportifs :

  • Design enveloppant et certification IP67 (eau/poussière).
  • Intégrations avec Garmin et Strava pour consulter ses données fitness via Meta AI.
  • Caméra 12 mégapixels (122°) capable de filmer en 3K, avec de nouveaux modes comme ralenti, timelapse et hyperlapse.
  • Autonomie : jusqu’à 9 heures.

Oakley Meta Vanguard Black with

Disponibilité et prix

> En savoir plus sur les Oakley Meta Vanguard

Quest 3 et 3S : le réel scanné dans la VR

Les casques Quest 3 et 3S accueillent une nouvelle fonctionnalité baptisée Hyperscape. Elle permet de scanner son environnement réel pour le transformer en un espace virtuel immersif.

Gordon Ramsays home kitchen 5MB 1

Déjà présenté en démo l’an dernier, Hyperscape est désormais disponible en bêta via l’application Hyperscape Capture.

> En savoir plus sur Hyperscape : à venir

Horizon TV : une plateforme de streaming dans le casque

Meta lance aussi un nouveau hub de divertissement pour ses casques VR : Horizon TV. On y retrouve déjà Prime Video, Peacock, Twitch, YouTube, auxquels s’ajoutent désormais Disney+, ESPN et Hulu.

HorizonTV Home Screen

Le hub est compatible Dolby Atmos, et bientôt Dolby Vision. Certains films, comme M3GAN ou The Black Phone, profiteront d’effets spéciaux immersifs exclusifs dans les casques Meta.

Horizon Engine et Horizon Studio : plus de puissance et d’IA

Meta a annoncé une mise à jour de son Horizon Engine, qui promet :

  • de meilleurs graphismes,
  • des performances accrues,
  • et la possibilité de créer des mondes virtuels plus vastes.

De son côté, Horizon Studio accueillera bientôt un assistant IA agentique capable de combiner les différents outils créatifs de Meta pour faciliter la création de mondes virtuels.

Lire plus