fermer

Réalité virtuelle et augmentée

La réalité virtuelle (RV) et la réalité augmentée (RA) sont en train de transformer les industries, de l’éducation au commerce en passant par le divertissement.

Découvrez comment ces technologies immersives sont utilisées pour créer des expériences uniques et des interactions enrichies. Nos guides vous fourniront des informations sur les meilleurs dispositifs, applications et stratégies pour intégrer efficacement la RV et la RA dans vos projets ou votre entreprise.

Réalité virtuelle et augmentée

Apple prépare ses lunettes connectées : un virage stratégique pour relancer sa vision de l’AR

Apple prépare ses lunettes connectées : un virage stratégique pour relancer sa vision de l’AR

Apple semble accélérer sur l’un de ses projets les plus mystérieux : des lunettes intelligentes qui pourraient bien redéfinir l’avenir de la réalité augmentée (AR).

Selon plusieurs rapports concordants — notamment de 9to5Mac —, la firme aurait mis en pause la refonte de son casque Vision Pro pour concentrer ses équipes d’ingénieurs sur un produit plus léger, plus accessible et surtout plus grand public.

D’un casque encombrant à des lunettes du quotidien

La décision marquerait un changement majeur dans la stratégie AR d’Apple. Plutôt que de poursuivre sur la voie du casque immersif haut de gamme à 3 999 euros, la marque opterait pour une approche plus pragmatique : des lunettes connectées conçues pour un usage quotidien, avec voix, caméra et intelligence artificielle intégrée.

D’après les sources internes citées par Mark Gurman (Bloomberg), le projet — initialement baptisé Vision Air — aurait été mis en veille au profit de ces lunettes « lite », attendues dès 2026, voire 2027 pour une version à réalité augmentée complète.

Objectif : offrir une expérience AR fluide, subtile et mobile, loin du casque encombrant, en s’inspirant directement du succès des Ray-Ban Meta Smart Glasses.

Une redistribution massive des ressources internes

Le pivot stratégique ne s’arrête pas à une simple réorientation produit. Apple aurait réaffecté une partie de ses ingénieurs du projet Vision Pro vers cette nouvelle catégorie de lunettes, confirmant l’importance du chantier.

Ce choix répond à une réalité économique : malgré ses prouesses techniques, le Vision Pro peine à séduire au-delà des passionnés. Son prix élevé, son poids et son positionnement « expérimental » en font un produit de niche.

À l’inverse, des lunettes connectées plus discrètes pourraient conquérir un marché grand public, au même titre que l’Apple Watch à son lancement.

Selon Ming-Chi Kuo, Apple vise un produit de transition : des lunettes légères, à la croisée de la vision assistée et de l’assistant personnel, avant d’atteindre la « vraie » réalité augmentée immersive à horizon 2027.

AR + IA : la nouvelle frontière du wearable Apple

Ces lunettes intégreraient Apple Intelligence, la suite d’outils IA récemment dévoilée par la marque, et fonctionneraient en synergie avec l’iPhone. L’idée : proposer un assistant contextuel capable de reconnaître des objets, des lieux ou du texte, tout en répondant vocalement via Siri.

Selon les rumeurs, Apple y ajouterait des capteurs de santé, renforçant le lien entre la vision, le bien-être et l’environnement — un axe déjà au cœur de l’Apple Watch. Autre avantage : le traitement IA déporté sur l’iPhone permettrait d’alléger le hardware, de réduire la chauffe et d’allonger l’autonomie.

Bref, une architecture hybride mêlant puissance et discrétion, fidèle à la philosophie Apple.

Une réponse directe à Meta et la course aux lunettes IA

La compétition s’intensifie. Les lunettes connectées Ray-Ban Meta ont posé un nouveau standard avec traduction en direct, capture photo et intégration IA vocale. Apple n’a pas l’intention de laisser Meta s’imposer sur ce terrain.

Les premières fuites mentionnent un prototype en aluminium ultra-léger, équipé de caméras latérales pour la reconnaissance d’objets et la navigation, ainsi que d’un système audio directionnel pour une écoute discrète. Le tout, bien sûr, piloté par la voix et l’écosystème iPhone.

Le pari : faire des lunettes un produit de masse, là où Meta reste encore perçu comme un acteur de niche.

Un écosystème pensé pour la convergence

Selon Bloomberg, les lunettes pourraient basculer entre deux interfaces selon l’appareil associé :

  • un mode « visionOS complet » lorsqu’elles sont reliées à un Mac,
  • et un mode simplifié lorsqu’elles sont connectées à un iPhone.

Ce fonctionnement hybride viserait à étendre la continuité d’usage déjà présente entre les appareils Apple — un atout majeur face à des concurrents moins intégrés. L’idée est simple : transformer les lunettes en interface transparente entre le monde physique et le numérique, une extension naturelle de l’écosystème Apple.

Défis techniques et enjeux de confiance

Reste que le défi est immense. La miniaturisation des composants, la gestion énergétique et surtout les questions de confidentialité liées aux caméras toujours actives seront cruciales. Apple devra convaincre que son approche respecte la vie privée, un argument clé face à Meta.

Autre enjeu : le design. Ces lunettes devront séduire autant qu’elles impressionnent — car dans le wearable, la technologie n’a de sens que si elle se fond dans le style.

En misant sur des lunettes légères, Apple ne cherche pas seulement à contrer Meta — elle redéfinit la prochaine interface homme-machine. Après le smartphone et la montre connectée, la vision de Cupertino semble claire : l’avenir du computing personnel se portera sur le visage.

Et si l’iPhone a démocratisé l’écran tactile, ces lunettes pourraient bien démocratiser la réalité augmentée contextuelle, transformant notre environnement en espace interactif.

Lire plus
Réalité virtuelle et augmentée

Apple Vision Pro : regardez les matchs des Lakers comme si vous étiez au bord du terrain

Apple Vision Pro : regardez les matchs des Lakers comme si vous étiez au bord du terrain

Apple s’apprête à transformer l’expérience du sport en direct avec une innovation majeure : la diffusion immersive de certains matchs des Los Angeles Lakers sur le casque Vision Pro.

Selon un rapport de 9to5Mac, cette initiative permettra aux utilisateurs de se sentir littéralement assis dans le stade, grâce à des flux vidéo panoramiques à 180° en très haute résolution.

Une avancée technologique qui pourrait enfin donner au Vision Pro — vendu 3 999 euros — le contenu premium dont il avait besoin pour séduire un plus large public.

Vision Pro : Une expérience immersive sans précédent

Les premières diffusions devraient débuter au début de l’année 2026, accessibles via l’application NBA App et la chaîne Spectrum SportsNet, sous réserve d’un abonnement actif. Les matchs seront filmés à l’aide des caméras Blackmagic URSA Cine Immersive, capables de produire des vidéos stéréoscopiques en 3D à une résolution 8K par œil.

Résultat : une sensation de profondeur et de présence inédite, permettant aux spectateurs de se déplacer virtuellement dans les gradins, de changer d’angle de vue pendant l’action, ou même de revivre un dunk au ralenti comme s’ils y étaient.

« Cette technologie redéfinit la manière dont les fans interagissent avec les événements sportifs », notent plusieurs analystes, soulignant son potentiel pour accroître l’engagement des spectateurs et révolutionner la consommation de sport en direct.

Les replays resteront disponibles pendant jusqu’à trois jours après le match, offrant davantage de flexibilité aux abonnés. Il s’agit de la première incursion d’Apple dans le sport en direct immersif, après plusieurs tests avec des contenus enregistrés, comme les playoffs de la MLS ou des extraits du Super Bowl.

Partenariats stratégiques et ambitions commerciales

Cette opération s’appuie sur plusieurs acteurs clés :

  • Blackmagic Design, pour la captation vidéo immersive,
  • Canon, dont les optiques sont intégrées aux caméras,
  • Spectrum SportsNet, diffuseur régional des Lakers, chargé de la production,
  • et bien sûr Apple, qui centralise le tout au sein de son écosystème Vision Pro.

Pour la NBA, cette initiative s’inscrit dans une stratégie plus large d’innovation numérique, visant à attirer les jeunes fans vers les plateformes connectées.

Du côté d’Apple, l’objectif est clair : renforcer l’attrait du Vision Pro en l’associant à des contenus exclusifs et émotionnellement puissants, susceptibles de convaincre les passionnés de sport et les amateurs de nouvelles technologies.

Selon des analystes, ces partenariats pourraient être le déclencheur d’une adoption plus large de “l’informatique spatial” dans le divertissement.

Des défis à relever

Reste que cette expérience premium a un coût. Outre le prix du casque, les utilisateurs devront disposer d’une connexion Internet très haut débit pour supporter le flux massif de données nécessaire à la diffusion en 8K.

Comme le souligne iClarified, seuls quelques matchs sélectionnés seront proposés dans un premier temps, afin d’évaluer la faisabilité technique et l’intérêt du public.

Et après ?

Ce projet marque probablement le début d’une nouvelle ère pour le sport immersif. Si l’expérience des Lakers s’avère concluante, Apple pourrait élargir cette technologie à d’autres équipes, d’autres ligues, voire à des compétitions internationales.

À terme, les observateurs imaginent un écosystème Vision Pro où les utilisateurs pourraient assister à un match de NBA, un concert ou une cérémonie mondiale — le tout depuis leur salon, dans un réalisme saisissant.

Pour l’instant, les fans des Lakers seront les premiers à goûter à cette nouvelle dimension du sport : un mélange de spectacle, de technologie et d’émotion, où la frontière entre spectateur et participant s’efface peu à peu.

Lire plus
Réalité virtuelle et augmentée

Samsung Project Moohan : le casque Galaxy XR, rival de l’Apple Vision Pro, se dévoile avant son lancement

Samsung Project Moohan : le casque Galaxy XR, rival de l’Apple Vision Pro, se dévoile avant son lancement

De nouvelles fuites détaillées nous offrent notre meilleur aperçu à ce jour du casque XR de Samsung. Connu en interne sous le nom de Projet Moohan, l’appareil serait lancé sous le nom de casque Samsung Galaxy XR.

Les rendus et les spécifications révélés dressent le portrait d’un appareil puissant, pratique et plus léger que le Vision Pro d’Apple — un sérieux concurrent dans la bataille de la réalité mixte.

Galaxy XR : Un design familier, mais affiné

Après des mois de rumeurs autour du projet « Moohan », on sait désormais à quoi ressemble le casque Galaxy XR que Samsung s’apprête à lancer. Les visuels partagés par Android Headlines confirment un design sobre et fonctionnel, très proche de ce qu’on a déjà vu lors des teasers au MWC 2025 et à la présentation du Galaxy S25.

Le Galaxy XR adopte une approche classique : deux écrans micro-OLED 4K, une sangle ajustable avec molette de serrage, et une batterie déportée pour alléger le casque lui-même. Plutôt que de viser le design « lunettes du futur », Samsung cherche ici à séduire les utilisateurs du Meta Quest et du Vision Pro, avec un équilibre entre performance, confort et accessibilité.

Le casque disposerait également d’un coussin intérieur pour le confort, d’une molette de réglage de la sangle, et de pare-lumière détachables pour isoler l’utilisateur de son environnement.

Une puissance respectable, mais un processeur daté

Côté technique, le Galaxy XR n’a rien d’un gadget. Ses écrans micro-OLED affichent près de 6 millions de pixels de plus que ceux du Vision Pro, une prouesse impressionnante.

Sous le capot, on retrouve le Snapdragon XR2+ Gen 2 de Qualcomm — une puce performante, mais déjà âgée de deux ans. Un choix un peu surprenant, mais qui pourrait suffire si le logiciel One UI XR (basé sur Android XR de Google) est bien optimisé.

Plus léger que le Vision Pro

Le grand atout du Galaxy XR, c’est son poids : 545 grammes seulement, soit nettement moins que le casque d’Apple. Pour quiconque a déjà porté un Vision Pro plus de 30 minutes, cette différence pourrait être déterminante.

En contrepartie, l’autonomie plafonnerait à environ 2 heures, ou 2 h 30 en lecture vidéo. Un compromis logique : le confort avant tout, quitte à garder la batterie dans une poche ou à la clipser à la ceinture.

Une interface One UI XR intuitive

Les captures d’écran fuitées révèlent une interface claire, inspirée de One UI, intégrant les apps phares de Samsung et Google :

  • Galerie, Caméra et Navigateur Samsung,
  • Google Maps, Photos, YouTube, Netflix et le Play Store.

Le casque fonctionnerait sous Android XR, la nouvelle plateforme de Google dédiée à la réalité mixte, ce qui laisse espérer une compatibilité large avec les applications existantes. Cette approche laisse entendre que Samsung souhaite offrir une expérience complète, à la fois immersive, connectée et orientée divertissement.

Samsung miserait sur une batterie de capteurs internes et externes permettant de suivre avec précision les mouvements oculaires, les gestes des mains et les commandes vocales.

Une alternative crédible au Vision Pro ?

Le Galaxy XR semble aborder le marché avec pragmatisme : moins futuriste qu’Apple, mais plus léger, accessible et polyvalent. Le choix d’une puce plus ancienne pourrait freiner les utilisateurs exigeants, mais si Samsung parvient à maîtriser le logiciel et à proposer un prix compétitif, le casque pourrait bien devenir le premier vrai rival « mainstream » du Vision Pro.

En somme, un appareil prometteur, bien pensé et enfin réaliste pour le grand public.

D’après les rumeurs, Samsung pourrait présenter officiellement le Galaxy XR dès le 21 octobre 2025.

Lire plus
Réalité virtuelle et augmentée

iFixit démonte les lunettes Ray-Ban Display de Meta : un bijou d’optique impossible à réparer

iFixit démonte les lunettes Ray-Ban Display de Meta : un bijou d’optique impossible à réparer

Le site spécialisé iFixit a publié son démontage complet des lunettes connectées Ray-Ban Display de Meta, révélant que ce qui rend ces lunettes impressionnantes n’est pas tant leur électronique interne que la sophistication de leurs verres.

Ray-Ban Display : Des verres à la pointe de l’optique

Selon iFixit, les verres utilisent un système de guide d’ondes géométrique réfléchissant. Concrètement, la lumière projetée à l’intérieur du verre est réfléchie à des angles précis grâce à une série de miroirs partiellement réfléchissants, permettant à l’utilisateur de voir l’image sans que les personnes en face ne distinguent quoi que ce soit sur les verres.

Ce procédé garantit donc une discrétion totale de l’affichage, contrairement à d’autres systèmes de réalité augmentée où les reflets peuvent être visibles de l’extérieur.

Une micro-projection bien pensée

Le système d’affichage repose sur un micro-projecteur intégré dans la branche droite des lunettes. Celui-ci est basé sur une technologie LCoS (Liquid Crystal on Silicon), qui réfléchit la lumière de trois LED pour générer une image de 600 × 600 pixels.

Les verres à guide d’ondes géométrique utilisés par Meta se distinguent des anciens systèmes dits « diffractifs », présents sur d’autres lunettes AR. Ces derniers plient et divisent la lumière, provoquant souvent des artefacts colorés (effet arc-en-ciel) ou une lueur dans les yeux perceptible par les observateurs.

En revanche, la technologie de Meta élimine ces défauts, mais elle a un prix : le verre est extrêmement coûteux à produire. iFixit avance même que Meta pourrait vendre les Ray-Ban Display à perte pour compenser les coûts de fabrication.

Un cauchemar pour les réparateurs

Meta Glasses 117

Pour accéder à l’intérieur, l’équipe d’iFixit a dû ouvrir de force les branches et la monture, faute de système de clips ou de vis prévu pour le remontage. Résultat : impossible de refermer correctement les lunettes une fois ouvertes.

« Toute réparation nécessitera des compétences et des outils spécialisés, » explique Shahram Mokhtari, technicien chez iFixit, dans la vidéo du démontage. « Il est très clair que les premières générations de ces lunettes connectées ne sont pas réparables ». En d’autres termes, changer une batterie ou remplacer un composant interne relève aujourd’hui de l’impossible sans équipement professionnel.

Un produit d’avant-garde… mais jetable

Meta Glasses 113 2048x1152 1

Si la technologie optique de Meta impressionne, son absence de réparabilité soulève de sérieuses questions sur la durabilité du produit. Ces lunettes incarnent à la fois l’innovation la plus avancée en matière de miniaturisation optique et les limites d’un design fermé, où chaque réparation devient un défi.

Reste à voir si les futures générations adopteront un design plus modulaire ou des pièces remplaçables, une approche qui s’inscrirait mieux dans la tendance actuelle vers des produits plus durables.

Lire plus
Réalité virtuelle et augmentée

Vision Pro 2 : La puce M5 est-elle l’arme secrète d’Apple pour corriger l’autonomie du casque ?

Vision Pro 2 : La puce M5 est-elle l'arme secrète d'Apple pour corriger l'autonomie du casque ?

Apple n’a pas abandonné son casque de réalité mixte. Après des rumeurs sur l’annulation d’un modèle plus abordable, des documents réglementaires et de nouveaux rapports confirment qu’une nouvelle version du Vision Pro, alias Vision Pro 2, est bien en préparation — et qu’elle sera propulsée par la toute récente puce M5.

Vision Pro 2 : Une mise à jour ciblée, mais cruciale

Tout est parti du 1er octobre 2025, quand l’apparition de l’iPad Pro M5 dans la base de données de la FCC américaine a été suivie par des références à un nouveau MacBook Pro… et à un Vision Pro révisé. De quoi relancer les spéculations sur la stratégie d’Apple.

Selon Mark Gurman (Bloomberg), il ne s’agit pas du « Vision Air » abordable annulé, mais bien d’un Vision Pro 2 très proche du modèle actuel. Pas de refonte matérielle, mais un changement de taille : le passage à la puce M5, beaucoup plus performante et économe en énergie que l’ancienne M2.

Apple M5 : l’arme pour corriger les faiblesses du premier modèle

Le plus gros défaut du premier Vision Pro ? Son autonomie limitée à 2 heures. En intégrant la M5, Apple pourrait prolonger l’usage sur batterie, tout en améliorant la fluidité graphique et en ouvrant la voie à des fonctions d’IA plus avancées.

Autrement dit, le Vision Pro 2 vise moins à séduire le grand public qu’à satisfaire les pros et early adopters, ceux prêts à investir dans une meilleure expérience, même à prix premium.

Sortie attendue fin 2025 ou début 2026

Avec les dépôts FCC déjà validés, le calendrier s’accélère : tout laisse penser à une présentation entre fin 2025 et début 2026. Contrairement au Vision Air, imaginé à moins de 2 000 dollars, ce refresh restera dans la catégorie ultra-haut de gamme.

Apple n’a pas commenté officiellement, mais les indices convergent : le Vision Pro reste dans la course, avec une évolution progressive plutôt qu’une révolution.

En clair, le Vision Pro 2 ne changera pas de visage, mais son cœur — la puce M5 — pourrait enfin gommer l’un des plus gros reproches faits au casque : sa faible autonomie.

Lire plus
Réalité virtuelle et augmentée

Apple met le cap sur les lunettes connectées Apple Glass, et met en pause le Vision Pro « allégé »

Apple met le cap sur les lunettes connectées Apple Glass, et met en pause le Vision Pro « allégé »

Apple rebat ses cartes dans le domaine de la réalité mixte. Selon Bloomberg, la firme de Cupertino accélère le développement de ses lunettes intelligentes pour rivaliser avec Meta, tout en gelant temporairement ses projets de casque Vision Pro plus léger et moins cher.

Apple Glass : Deux modèles de lunettes en préparation

Apple travaillerait en parallèle sur deux versions de ses futures lunettes Apple Glass. La première, connue sous le nom de code N50, n’intègrera pas d’écran. Reliée à l’iPhone, elle embarquera caméras et micros, misera sur l’intelligence artificielle et sera contrôlée par la voix. Elle pourrait être annoncée dès l’an prochain pour une sortie prévue en 2027.

La seconde version, plus ambitieuse, intègrera un écran directement dans les verres, à la manière des nouvelles Ray-Ban Meta Display. Initialement prévue pour 2028, Apple chercherait désormais à en avancer le calendrier.

Ces lunettes pourraient embarquer une nouvelle puce maison et seraient proposées en plusieurs coloris et styles de monture.

Meta a déjà pris une longueur d’avance

Avec ses lunettes connectées développées avec Ray-Ban et Oakley, Meta domine actuellement ce marché naissant. Après le succès surprise de la première génération en 2023, le groupe de Mark Zuckerberg a lancé une deuxième génération avec plus d’autonomie, une meilleure captation vidéo et même une déclinaison pour sportifs.

À l’inverse, Apple peine encore à concrétiser ses promesses en matière d’IA. Son assistant « Siri plus intelligent » est attendu pour mars prochain, mais accuse déjà un retard par rapport à Meta AI, qui évolue rapidement depuis deux ans.

Vision Pro : un futur incertain

Le casque Vision Pro, lancé à 3 999 euros, n’a pas rencontré le succès escompté. Apple devait en proposer une version plus légère et moins chère d’ici 2027, mais ce projet est désormais mis de côté. De récents dépôts réglementaires confirment toutefois qu’une révision « modeste » du Vision Pro actuel, avec un processeur M5, pourrait voir le jour dès la fin de cette année.

En clair : Apple choisit de concentrer ses forces sur les lunettes connectées Apple Glass, perçues comme l’avenir du wearable grand public. Mais avec un lancement pas avant 2027, la marque arrivera en retard sur Meta, déjà bien installé.

La question reste entière : Apple saura-t-il transformer ce retard en avantage stratégique, comme il l’a souvent fait par le passé ?

Lire plus
Réalité virtuelle et augmentée

Vision Pro 2 : Un simple ajustement technique à 3 999 euros, Apple bâcle-t-elle sa copie XR ?

Vision Pro 2 : Un simple ajustement technique à 3 999 euros, Apple bâcle-t-elle sa copie XR ?

Absent de la keynote iPhone 17, le Vision Pro 2 est pourtant bien réel. Des documents déposés à la FCC (Federal Communications Commission) viennent de le confirmer, malgré la demande de confidentialité d’Apple.

Mais ceux qui espéraient une refonte majeure de son casque de réalité mixte risquent d’être déçus : cette deuxième génération s’annonce comme un simple ajustement.

Vision Pro 2 : Un prix inchangé, une pertinence en question

Le Vision Pro 2 conserverait le tarif astronomique de 3 999 euros, ce qui le condamnerait d’emblée à rester un produit de niche, face à un Meta Quest 3 dix fois moins cher.

Selon plusieurs analystes, Apple maintient surtout cette gamme pour ne pas décrocher du marché XR, en attendant de lancer son véritable Graal : des lunettes AR grand public, projet cher à Tim Cook.

Quelques ajustements techniques

Le casque troquerait sa puce M2 pour une puce M4 gravée en 2 nm, de quoi améliorer l’efficacité et la puissance de traitement. Certaines fonctions jugées gadget sur la première version, comme l’écran EyeSight affichant un visage numérisé à l’extérieur du casque, pourraient disparaître afin de réduire les coûts et la complexité matérielle.

Le problème central demeure : au-delà de la prouesse technologique, l’écosystème du Vision Pro reste pauvre en contenus immersifs. Les expériences disponibles sont encore trop rares pour justifier un tel investissement, même pour les fans de la marque.

Apple pourra néanmoins s’appuyer sur une petite base d’utilisateurs existants pour collecter des données d’usage précieuses.

Lancement attendu fin 2025

Le Vision Pro 2 devrait arriver d’ici la fin de l’année, dans la même fenêtre que le Project Moohan de Samsung. Mais sans baisse de prix significative ni killer app en vue, il risque de connaître le même destin que son prédécesseur : impressionner en démonstration, mais peiner à s’imposer dans les foyers.

Apple joue la montre avec le Vision Pro 2. Le véritable pari se situe ailleurs : réussir à miniaturiser son savoir-faire XR dans une paire de lunettes AR légères et abordables. En attendant, Meta conserve une avance écrasante sur ce marché.

Lire plus
Réalité virtuelle et augmentée

Apple Vision Pro 2 : la nouvelle puce R2 en 2 nm arrive avec la M4 en 2026

Apple Vision Pro 2 : la nouvelle puce R2 en 2 nm arrive avec la M4 en 2026

Le Vision Pro avait surpris en combinant deux puces — la Apple M2 et la Apple R1 — pour alimenter toutes ses fonctions. Son successeur, attendu pour 2026, fera encore mieux avec l’arrivée d’un nouveau processeur Apple R2 gravé en 2 nm par TSMC.

Le duo Apple M4 + Apple R2 pour un casque plus puissant

La Vision Pro 2 embarquera la puce M4, couplée à la nouvelle R2. Alors que la série de puces M s’occupe du calcul principal, la série de puces R est dédiée au traitement des flux de capteurs et caméras. Sur le premier Vision Pro, la R1 gérait déjà une énorme quantité de données en temps réel.

Avec la gravure en 2 nm, la R2 promet :

  • une latence encore plus faible,
  • une meilleure gestion d’applications complexes,
  • un rendu XR plus fluide.

En pratique, les gains risquent d’être invisibles pour l’utilisateur moyen, mais essentiels pour préparer des expériences plus riches.

Un lancement repoussé

Le Vision Pro 2 était attendu aux côtés des iPhone 17, mais Apple a préféré décaler son annonce. Objectif : attendre que la R2 soit prête. La sortie devrait intervenir en 2026, probablement au premier semestre.

Avec son prix de 3 999 euros, le premier Vision Pro s’est adressé à un public restreint. Le Vision Pro 2 ne devrait pas bouleverser cette stratégie : Apple veut maintenir sa présence XR en attendant son véritable objectif, les lunettes AR, censées rivaliser avec les projets de Meta.

Le Vision Pro 2 sera avant tout une évolution technique avec le tandem M4 + R2 en 2 nm, destiné à garder Apple dans la course XR. Pour l’utilisateur, les changements visibles seront minimes, mais l’enjeu est stratégique : préparer le terrain avant les lunettes AR Apple.

Lire plus
Réalité virtuelle et augmentée

Meta étend Llama : l’IA open source accessible aux gouvernements d’Europe et d’Asie

Meta étend Llama : l’IA open source accessible aux gouvernements d’Europe et d’Asie

Meta Platforms Inc. vient d’annoncer une nouvelle étape majeure dans sa stratégie d’intelligence artificielle. Après avoir ouvert ses modèles Llama aux agences gouvernementales américaines, l’entreprise étend désormais leur disponibilité à plusieurs pays d’Europe et d’Asie, ainsi qu’à des organismes supranationaux comme l’Union européenne et l’OTAN.

Llama, une IA open source pour le secteur public

Conçu à l’origine comme un modèle open source en 2023, Llama a beaucoup évolué. La dernière génération, Llama 4 (lancée en avril 2025), intègre :

  • des capacités multimodales (texte, image, audio),
  • une architecture mixture-of-experts,
  • et des fenêtres de contexte étendues pour traiter de vastes volumes de données.

Avec ces améliorations, Llama peut répondre à des besoins stratégiques comme :

  • la cybersécurité,
  • la détection de menaces en temps réel,
  • l’analyse économique,
  • ou encore la traduction multilingue pour les administrations.

image 31

Une expansion internationale

Meta a confirmé que l’accès sera progressivement étendu à des gouvernements en France, Allemagne, Italie, Japon et Corée du Sud. L’initiative s’appuie sur un modèle de partenariat qui simplifie les négociations individuelles.

Déjà aux États-Unis, via un accord avec la General Services Administration (GSA), les agences fédérales exploitent Llama pour automatiser certaines tâches administratives et renforcer la sécurité. Ce cadre est désormais reproduit à l’international.

Entre innovation et sécurité

Pour l’Europe, où la protection des données (RGPD) est une préoccupation majeure, Meta propose une intégration de Llama qui garantit l’anonymisation et la sécurisation des données.

En Asie, les cas d’usage portent sur la gestion des infrastructures et la réduction de la dépendance envers les solutions fermées proposées par des concurrents comme OpenAI ou Google.

Toutefois, certains experts soulignent les potentiels risques :

  • biais dans les modèles,
  • détournement pour des usages de surveillance,
  • ou problèmes d’interopérabilité entre pays.

Meta insiste de son côté sur la communauté open source et la transparence, deux piliers censés renforcer la fiabilité et l’éthique de Llama.

Un tournant pour l’IA gouvernementale

L’intégration de Llama pourrait transformer la manière dont les États utilisent l’intelligence artificielle. Avec l’appui d’alliances comme l’OTAN, ces modèles pourraient renforcer la résilience collective face aux menaces technologiques.

En rendant ses modèles plus accessibles, Meta s’impose comme un acteur clé du mouvement en faveur d’une IA ouverte et collaborative, une alternative aux systèmes propriétaires fermés.

Avec cette extension, Meta cherche à démocratiser l’intelligence artificielle dans le secteur public mondial. Llama 4, déjà adopté dans des contextes stratégiques, pourrait devenir un standard pour les gouvernements en quête d’outils puissants, sécurisés et flexibles.

Si le pari réussit, cette initiative pourrait définir une nouvelle ère de l’IA open source appliquée à la gouvernance, tout en posant les bases d’une collaboration internationale sans précédent.

Lire plus
Réalité virtuelle et augmentée

Samsung Project Moohan : lancement du casque XR repoussé au 21 octobre

Samsung Project Moohan : lancement du casque XR repoussé au 21 octobre

Le très attendu casque XR (Extended Reality) de Samsung, connu en interne sous le nom de Project Moohan, s’apprête enfin à voir le jour. Initialement prévu pour fin septembre, son lancement a été légèrement repoussé afin de finaliser quelques contrôles qualité et d’ajuster la stratégie marketing.

Samsung dévoilera officiellement Project Moohan le 21 octobre 2025, et les ventes commenceront presque immédiatement après la présentation.

Le planning initial prévoyait une annonce dès le 29 septembre, suivie d’une commercialisation plus tôt en octobre.

Project Moohan: Un prix plus abordable que le Vision Pro

Le casque est pensé pour corriger l’un des principaux reproches adressés à son concurrent direct, l’Apple Vision Pro : le confort. Autre argument de taille, le prix : autour de 2 000 dollars, soit bien en dessous des 3 499 dollars demandés par Apple, mais encore loin d’être accessible au grand public.

Cependant, Samsung ne cherche pas à inonder le marché dès le départ. Le fabricant prévoit une production limitée à 100 000 unités, principalement pour tester l’intérêt des consommateurs. À titre de comparaison, Apple visait un million d’unités pour le Vision Pro… objectif qu’il n’a pas atteint.

Les caractéristiques techniques attendues

Côté matériel, Project Moohan veut frapper fort :

  • Des écrans Micro OLED offrant une résolution supérieure à celle du Vision Pro (environ 3 800 PPI).
  • 16 Go de RAM pour gérer les applications XR.
  • La puce Snapdragon XR2+ Gen 2, optimisée pour la réalité étendue.

Le casque fonctionnera sur une base Android XR, en partenariat avec Google, ce qui devrait lui permettre de proposer davantage de contenus disponibles dès le lancement que son rival signé Apple.

Une disponibilité limitée

Seul bémol : le Project Moohan sera lancé dans quelques régions seulement, du moins au départ. Si la demande est au rendez-vous, Samsung pourrait élargir sa distribution.

Lire plus
Réalité virtuelle et augmentée

Meta prépare des lunettes connectées avec deux écrans avant ses vraies lunettes AR

Meta prépare des lunettes connectées avec deux écrans avant ses vraies lunettes AR

Lors de la conférence Meta Connect de septembre, Mark Zuckerberg a présenté les Ray-Ban Meta Display, les premières lunettes connectées de la marque à intégrer un écran.

Mais selon le journaliste bien informé Mark Gurman (newsletter Power On), Meta a déjà une autre paire en préparation : des lunettes avec deux écrans intégrés.

Contrairement aux futures lunettes Orion AR prévues pour 2027, ce nouveau modèle ne sera pas de la réalité augmentée. Les Ray-Ban Meta Display actuelles projettent un écran d’un seul côté du champ de vision.

Une version double écran permettrait d’afficher simultanément deux applications ou d’améliorer le confort de lecture et de navigation.

Meta semble vouloir offrir une alternative plus abordable aux lunettes AR, dont le prix s’annonce élevé. Rappelons que les Ray-Ban Meta Display actuelles coûtent déjà 799 dollars, un tarif en dessous de leur coût réel de fabrication selon les analystes.

La stratégie de Meta : séduire avant l’AR

Depuis plus de dix ans, Meta investit massivement dans son département XR (Reality Labs), sans rentabilité immédiate. L’objectif est clair : dominer le futur de l’informatique en misant sur les lunettes connectées.

Avec ce modèle intermédiaire à deux écrans, Meta veut habituer le public à utiliser ce type de produit et créer une base d’utilisateurs fidèle avant l’arrivée des lunettes AR haut de gamme.

Orion AR : le vrai rendez-vous en 2027

La grande attente reste les Meta Orion, premières vraies lunettes AR destinées au grand public. Elles devraient transformer la manière dont on interagit avec nos environnements numériques, en affichant directement des informations contextuelles dans le champ de vision.

En attendant, les Ray-Ban Meta Display et leur futur modèle à double écran servent d’entraînement pour les utilisateurs curieux.

Meta accélère sa stratégie en multipliant les étapes avant le grand saut dans la réalité augmentée. Les lunettes à deux écrans pourraient séduire ceux qui trouvent les Ray-Ban Meta Display trop limitées, tout en préparant le terrain pour les Orion AR.

Lire plus
Réalité virtuelle et augmentée

Meta ouvre ses lunettes connectées aux développeurs avec le Wearable Device Access Toolkit

Meta ouvre ses lunettes connectées aux développeurs avec le Wearable Device Access Toolkit

Meta vient d’annoncer ses nouvelles lunettes connectées alimentées par l’IA lors de la conférence Meta Connect 2025, mais ce n’est pas tout. L’entreprise va également permettre aux développeurs tiers d’accéder à certaines fonctionnalités de ses lunettes.

Meta veut transformer ses lunettes intelligentes en véritables plateformes d’applications. L’entreprise a annoncé le lancement prochain du Wearable Device Access Toolkit, un kit destiné aux développeurs qui permettra d’exploiter les capteurs de vision et d’audio embarqués dans ses lunettes.

Un accès direct aux capteurs des lunettes

Dès sa première version, le kit offrira l’accès à un ensemble de capteurs intégrés. Concrètement, cela permettra aux développeurs d’intégrer aux applications mobiles des fonctionnalités tirant parti de :

  • la perspective naturelle du porteur grâce aux caméras,
  • l’audio ouvert et les micros intégrés pour une expérience mains libres,
  • les capacités d’IA embarquées dans les lunettes.

Meta résume l’idée ainsi : « donner aux apps la possibilité d’exploiter les bénéfices mains libres des lunettes IA ».

Meta Wearable Devices Access SDK

Premiers cas d’usage annoncés

Quelques partenaires ont déjà commencé à tester le kit :

  • Twitch permettra à ses créateurs de diffuser en direct depuis leurs lunettes, offrant un point de vue immersif inédit.
  • Disney Imagineering R&D explore des prototypes pour les parcs à thème, où les visiteurs pourraient accéder à des conseils ou des expériences interactives pendant leur visite, directement via leurs lunettes.

Une sortie progressive

Pour le moment, le projet n’en est qu’à ses débuts :

  • Les développeurs peuvent s’inscrire sur une liste d’attente afin d’accéder à une preview prévue fin 2025.
  • Les expériences créées ne seront accessibles qu’à des audiences limitées au départ.
  • La disponibilité générale pour la publication d’apps n’est pas attendue avant 2026.

Avec le succès des Ray-Ban Meta et l’arrivée des nouvelles Ray-Ban Meta Display équipées d’un écran, l’appétit des développeurs pourrait être énorme.

Si Meta réussit à bâtir un écosystème riche, ses lunettes pourraient évoluer d’un gadget à une plateforme incontournable, à l’image de ce qu’a été l’App Store pour l’iPhone.

Apparemment, il faudra patienter un peu avant de bénéficier d’une véritable intégration de l’application avec les Ray-Ban Meta et les autres lunettes IA de l’entreprise. Étant donné leur popularité et de l’esthétique attrayante de ces nouvelles lunettes avec écran, je suis sûr que de nombreux développeurs voudront tester cette boîte à outils. Même si cela peut paraître un peu dystopique, donner accès à votre gadget à des applications tierces les améliorerait grandement.

Lire plus
Réalité virtuelle et augmentée

Ray-Ban Meta Display : les lunettes connectées qui font entrer la science-fiction dans la réalité

Ray-Ban Meta Display : les lunettes connectées qui font entrer la science-fiction dans la réalité

Lors de Meta Connect 2025, Mark Zuckerberg a enfin dévoilé les Ray-Ban Meta Display, les toutes premières lunettes intelligentes grand public équipées d’un écran.

Présentées comme un pont entre les modèles actuels Ray-Ban Meta et les futures lunettes Orion, elles ambitionnent de transformer notre rapport à la technologie — et peut-être même de remplacer un jour nos smartphones.

Ray-Ban Meta Display : Une démonstration marquante sur scène

En direct, Zuckerberg a mis les lunettes, traversé les coulisses et rejoint la scène, tout en retransmettant son point de vue sur un grand écran. L’effet était saisissant : un premier aperçu concret de ce que Meta décrit comme « l’avenir de l’informatique ».

download 4

Contrairement à la réalité augmentée complète, les Ray-Ban Meta Display ne couvre qu’une partie du champ de vision. Il permet de :

  • Consulter ses notifications,
  • Suivre un itinéraire,
  • Passer des appels vidéo,
  • Naviguer dans des applications,
  • Interagir avec Meta AI.

Un compromis qui rend l’expérience plus fluide et naturelle, sans surcharger la vue.

Le bracelet neuronal : la vraie révolution

Screen 2025 09 19 at 09.46.59

La star de la présentation n’était pas seulement les lunettes, mais le neural wristband (bracelet neuronal). Relié aux Ray-Ban Meta Display, il capte les micro-mouvements de vos doigts et les traduit en commandes :

  • Balayer l’air pour naviguer,
  • Pincer ou tapoter pour sélectionner,
  • Simuler un bouton de volume pour régler le son,
  • Écrire dans l’air pour répondre à un message.

download 5

Une interaction futuriste qui élimine le besoin de toucher l’écran ou de sortir son smartphone.

Live AI : un assistant toujours présent

En mode Live AI, limité pour l’instant à une heure d’usage, les lunettes deviennent un véritable compagnon :

  • Reconnaissance visuelle et audio pour aider à cuisiner, bricoler ou s’orienter,

download 2

  • Traductions instantanées et sous-titres en direct pour la personne que vous regardez,

Screen 2025 09 19 at 09.47.23 scaled

  • Suggestions contextuelles adaptées à l’environnement.

Screen 2025 09 19 at 09.47.34 scaled

Meta veut replacer la technologie au service de la proximité humaine : plus besoin de sortir son téléphone, un simple geste suffit.

Et après ?

Meta a également teasé un outil d’IA permettant de générer des mondes virtuels personnalisés, qui seront surtout exploités sur les casques Quest mais connectés aux Ray-Ban Meta Display.

download 1

Les lunettes seront commercialisées aux États-Unis à partir du 30 septembre 2025, au prix de 799 dollars. Un tarif élevé, mais qui pourrait séduire les passionnés de XR et les early adopters prêts à tester ce qui ressemble déjà au futur des interfaces. En France, il n’y a pour le moment aucune information sur le lancement.

Lire plus
Réalité virtuelle et augmentée

Meta lance Hyperscape : scannez une pièce réelle et recréez-la en VR photoréaliste

Meta lance Hyperscape : scannez une pièce réelle et recréez-la en VR photoréaliste

Meta déploie progressivement Hyperscape, une nouvelle technologie qui permet de capturer un espace réel avec un casque Quest VR pour en générer une réplique numérique photoréaliste.

Disponible dès aujourd’hui en bêta via l’application Hyperscape Capture, cette fonctionnalité est compatible avec les Quest 3 et Quest 3S.

Meta Hyperscape : Comment ça marche ?

Avec l’app Hyperscape Capture, l’utilisateur scanne une pièce simplement en se déplaçant et en observant son environnement avec son casque VR. Un maillage virtuel apparaît progressivement sur les objets, indiquant ce qui est en train d’être capturé. Une fois le scan terminé, il est envoyé dans le cloud pour être traité — un processus qui prend quelques heures — avant de pouvoir être exploré en réalité virtuelle.

Happy Kellis Crocs room Screensh

Au lancement, Hyperscape ne permet que de visiter seul ses propres scans. Mais, Meta annonce déjà qu’il sera bientôt possible de partager un lien privé pour inviter d’autres personnes à explorer ces environnements ensemble.

Une immersion déjà bluffante

Meta avait présenté Hyperscape pour la première fois lors de la conférence Meta Connect 2024. Un an plus tard, la technologie est encore jeune, mais elle montre un potentiel énorme.

Gordon Ramsays home kitchen 5MB 1

Lors du Meta Connect 2025, certains participants ont pu tester des espaces déjà scannés, comme la cuisine de Gordon Ramsay. L’expérience s’est révélée étonnamment réaliste : on pouvait observer des détails précis comme des piles de livres ou des plats posés sur une table.

Bien sûr, l’illusion se brise si l’on s’approche trop près — les textes sur des journaux par exemple deviennent flous ou « baveux » — mais l’impression générale reste très convaincante.

Un outil créatif pour la VR et le métavers

Même si les ambitions de Meta en matière de métaverse semblent aujourd’hui passer au second plan face à l’essor de l’IA, Hyperscape montre que l’entreprise continue d’investir dans des expériences immersives inédites.

Pouvoir recréer un espace réel et le visiter en VR — seul ou entre amis — ouvre la porte à de nombreux usages :

  • revisiter des souvenirs personnels (une maison d’enfance, un lieu de vacances),
  • partager des environnements professionnels à distance,
  • créer des décors immersifs pour le gaming ou l’événementiel.

Disponibilité

Hyperscape est disponible en bêta dès aujourd’hui via l’application Hyperscape Capture pour Quest 3 et Quest 3S. La fonction multijoueur avec partage de lien privé arrivera « prochainement », selon Meta.

Lire plus
Réalité virtuelle et augmentée

Meta Connect 2025 : Oakley Vanguard vs Oakley HSTN, quelles différences ?

Meta Connect 2025 : Oakley Vanguard vs Oakley HSTN, quelles différences ?

Meta a profité de sa conférence Meta Connect 2025 pour dévoiler les nouvelles lunettes Oakley Vanguard, qui viennent rejoindre les Oakley HSTN lancées plus tôt dans l’année. Mais alors, quelle paire choisir ? Voici un comparatif complet pour éviter de se tromper.

Design et confort : mode ou performance ?

Les Oakley HSTN misent sur un look plus urbain et polyvalent. Avec leur style proche des Wayfarer, elles peuvent accompagner aussi bien une sortie sportive légère qu’une balade en ville ou une partie de golf.

01 Oakley Meta Vanguard

Les Oakley Vanguard, en revanche, adoptent un format visière pensé pour la performance. Leur design enveloppant protège mieux du vent et de la poussière, ce qui les rend idéales pour le cyclisme, la course longue distance ou encore le ski.

Autre atout côté confort : les Oakley Vanguard intègrent trois plaquettes de nez interchangeables pour un ajustement personnalisé et plus sécurisé. Enfin, elles offrent la possibilité de changer les verres (85 dollars pièce), avec notamment des verres PRIZM Low Light bientôt disponibles pour les environnements sombres.

Les HSTN, elles, ne proposent pas ce niveau de modularité.

02 Designed for Performance Caro

Résistance et son : des spécifications plus musclées

Les Oakley Vanguard embarquent des haut-parleurs 6 dB plus puissants, un vrai plus pour être entendu malgré le vent ou le trafic. Elles sont aussi plus résistantes, grâce à leur certification IP67 contre l’eau et la poussière, quand les HSTN se contentent d’un simple IPX4 (résistance aux éclaboussures).

VHx7bdFhZthASnvrmV9Xnk 1200 80.jpg

Intégrations sportives : l’avantage Vanguard

C’est probablement la plus grosse différence. Les Oakley Vanguard se distinguent avec leurs intégrations fitness avancées via l’application Meta AI.

Elles se connectent directement à des appareils Garmin et à Strava, et permettent d’obtenir des mises à jour vocales en temps réel : rythme cardiaque, distance parcourue ou encore état de forme.

05 Captures Caoursel 01

Elles peuvent même déclencher automatiquement l’enregistrement de clips vidéo en fonction de vos performances (par exemple à chaque kilomètre parcouru pendant un marathon). Toutes ces données peuvent être synchronisées avec Garmin Connect, Apple Health ou Health Connect pour un suivi global.

Les HSTN, elles, ne disposent pas de ces fonctions avancées.

Prix et disponibilité

Les Oakley HSTN restent la solution la plus abordable, avec un prix de départ fixé à 359 euros, et jusqu’à 519 euros pour les modèles les plus haut de gamme. Les Oakley Vanguard démarrent plus haut, à 549 euros.

Verdict : laquelle choisir ? Les Oakley HSTN conviendront aux amateurs de style et d’usages polyvalents, avec un prix plus accessible. Les Oakley Vanguard, elles, s’adressent clairement aux sportifs exigeants, avec une meilleure résistance, un confort optimisé et des fonctions fitness avancées.

En résumé : mode et lifestyle pour les HSTN, performance et suivi sportif pour les Vanguard.

Lire plus