fermer

Réalité virtuelle et augmentée

La réalité virtuelle (RV) et la réalité augmentée (RA) sont en train de transformer les industries, de l’éducation au commerce en passant par le divertissement.

Découvrez comment ces technologies immersives sont utilisées pour créer des expériences uniques et des interactions enrichies. Nos guides vous fourniront des informations sur les meilleurs dispositifs, applications et stratégies pour intégrer efficacement la RV et la RA dans vos projets ou votre entreprise.

Réalité virtuelle et augmentée

Meta x Oakley : des lunettes connectées sportives révélées le 20 juin

Screenshot 2025 06 17 at 08.55.5

Après le succès retentissant des lunettes connectées Ray-Ban Stories, Meta poursuit son incursion dans le wearable tech avec une annonce de taille : un partenariat avec Oakley, l’un des leaders mondiaux de la lunetterie sportive et lifestyle.

L’objectif ? Concevoir une nouvelle paire de lunettes intelligentes, alliant design sportif et technologie de pointe, attendue pour une présentation officielle le 20 juin.

Des fonctionnalités dignes des Ray-Ban Meta

Bien que la vidéo teaser publiée sur la chaîne YouTube d’Oakley n’en dévoile que très peu, tout laisse penser que cette nouvelle paire héritera des principales fonctionnalités des lunettes Ray-Ban Meta. On peut donc s’attendre à retrouver :

  • Un assistant vocal Meta AI intégré,
  • Une ou plusieurs caméras pour capturer photos et vidéos en toute discrétion,
  • Des haut-parleurs intégrés dans les branches pour écouter de la musique, passer des appels ou entendre les réponses de l’IA,
  • Une connectivité fluide avec les smartphones via l’application Meta View.

Avec Oakley à la manœuvre côté design, ces lunettes pourraient bien séduire un public plus actif ou sportif, tout en démocratisant encore davantage l’usage des technologies portables au quotidien.

Rendez-vous le 20 juin

Ce partenariat entre Meta et Oakley n’est pas une surprise totale. Bloomberg avait déjà évoqué en janvier une collaboration en préparation, suggérant une volonté de Meta d’étendre son écosystème de lunettes connectées à travers des marques variées.

La date du 20 juin est désormais officielle pour la présentation complète du produit, et promet de lever le voile sur cette alliance entre style sportif et innovation.

Un marché des lunettes connectées en pleine effervescence

L’initiative de Meta s’inscrit dans un contexte de forte accélération dans le domaine des lunettes intelligentes. Apple planche sur des lunettes AR, tandis que Google développe Android XR, un système dédié à la réalité mixte. Le segment des wearables intelligents devrait ainsi connaître une nouvelle vague de produits d’ici la fin de l’année.

Avec cette collaboration inédite, Meta espère toucher un nouveau public adepte de style et de performance, tandis que.Oakley s’ouvre à un univers technologique ambitieux. Reste à voir si ce nouveau modèle pourra égaler — voire surpasser — le succès des Ray-Ban Meta. Réponse le 20 juin.

Lire plus
Réalité virtuelle et augmentée

Snap Specs : des lunettes de réalité augmentée grand public prévues pour 2026

Snap Specs : des lunettes de réalité augmentée grand public prévues pour 2026

Près d’une décennie après ses premiers essais, Snap s’apprête enfin à commercialiser une paire de lunettes de réalité augmentée (AR) destinée au grand public. C’est Evan Spiegel, PDG de la société, qui l’a confirmé lors de la conférence Augmented World Expo 2025 à Long Beach (Californie).

Ces nouvelles lunettes, appelées simplement Specs, arriveront sur le marché en 2026.

Des lunettes plus fines, plus légères… et plus intelligentes

Les Specs 2026 promettent une expérience AR immersive, avec des verres transparents capables d’afficher des éléments virtuels superposés à l’environnement réel. Par rapport aux anciennes Spectacles réservées aux développeurs, elles seront plus fines, plus légères et offriront un champ de vision élargi, rendant les interactions bien plus naturelles.

À l’intérieur, on retrouvera une intelligence artificielle intégrée capable d’interpréter ce que vous voyez et entendez en temps réel, sans que les données ne soient stockées sur des serveurs, un choix que Snap met en avant comme gage de respect de la vie privée.

Un écosystème déjà en place avec 400 000 développeurs

Snap bénéficie d’un avantage stratégique : sa communauté de développeurs, qui a déjà produit plus de 400 000 Lenses AR pour Snapchat et Spectacles. Ces expériences, allant de la traduction instantanée des menus à la reconnaissance d’objets dans la cuisine pour proposer des recettes, seront directement compatibles avec les Specs.

SnapOS, le système d’exploitation maison, sera enrichi d’outils pour la réalité mixte, avec des API multimodales basées sur les modèles d’OpenAI et de Google DeepMind, et un Depth Module API permettant d’ancrer des objets virtuels dans l’espace réel avec une précision accrue.

Vers une cartographie AR du monde

Snap ne s’arrête pas là. L’entreprise s’associe à Niantic Spatial — spin-off du studio derrière Pokémon Go — pour concevoir une carte intelligente du monde, pensée pour la navigation, la compréhension contextuelle et l’interaction des agents IA avec notre environnement.

Une alternative crédible à Meta et Apple ?

En 2016, Snap avait lancé ses premières Spectacles, mais l’échec commercial avait montré que le marché n’était pas encore prêt. Depuis, les temps ont changé : Meta cartonne avec ses Ray-Ban Meta, Apple développe toujours ses lunettes AR, et Google multiplie les partenariats avec Warby Parker et Samsung.

Snap parie sur une formule plus ambitieuse : des lunettes à écran transparent, enrichies par l’IA, et surtout dotées d’une vraie utilité au quotidien. Selon Spiegel, elles n’ont pas vocation à remplacer les smartphones dans l’immédiat, mais elles pourraient faire 10 fois mieux pour certaines tâches spécifiques, notamment dans les interactions en groupe ou la contextualisation des informations.

Mais à quel prix ?

Snap reste flou sur les détails essentiels. Aucune image officielle ni prix n’a été communiqué, bien que Spiegel ait laissé entendre que le tarif serait inférieur aux 3 499 dollars de l’Apple Vision Pro, tout en étant probablement plus élevé que les lunettes connectées Ray-Ban de Meta (300 dollars environ).

En annonçant dès maintenant son lancement pour 2026, Snap veut donner le temps aux développeurs de créer des expériences solides, tout en se positionnant comme un acteur sérieux face à Meta et Apple. Reste à voir si le public sera prêt à adopter ce type de produit, à condition qu’il soit utile, confortable… et abordable.

Lire plus
Réalité virtuelle et augmentée

Meta Aria Gen 2 : des lunettes connectées dopées à l’IA et prêtes pour le futur

meta aria gen 2

Meta continue de tracer sa route vers le futur de l’informatique avec les Aria Gen 2, une nouvelle génération de lunettes intelligentes conçues exclusivement pour la recherche. Ces lunettes ne sont pas destinées au grand public — du moins pas encore — mais leur technologie avancée pourrait bien préfigurer les innovations qui transformeront la réalité augmentée, l’intelligence artificielle et même la robotique dans les années à venir.

L’un des aspects les plus impressionnants des Aria Gen 2 réside dans leur système de suivi oculaire de nouvelle génération, capable de suivre le mouvement de chaque œil indépendamment, de détecter les clignements, et même d’estimer la position exacte de la pupille.

D’après Meta, ces capacités permettent de mieux comprendre l’attention visuelle et les intentions de l’utilisateur, ouvrant la voie à des formes d’interaction homme-machine bien plus intuitives.

Dans un contexte où les interfaces vocales et gestuelles dominent encore, ce suivi du regard pourrait devenir la clé de voûte de l’informatique spatiale et contextuelle.

Meta Aria Gen 2 : Un arsenal de capteurs pour des usages avancés

Les lunettes Aria Gen 2 ne se contentent pas d’analyser votre regard. Elles intègrent également quatre caméras de vision par ordinateur, destinées au suivi 3D des mains et des objets. Selon Meta, ces capteurs sont capables d’alimenter des expériences nécessitant une manipulation robotique fine, comme le contrôle d’un bras robotisé ou l’interaction avec des interfaces virtuelles.

En complément, la monture intègre :

  • Un capteur PPG dans le repose-nez, permettant d’estimer le rythme cardiaque.
  • Un microphone de contact amélioré, censé offrir un meilleur son en environnements bruyants.
  • Un capteur de lumière ambiante pour adapter les performances aux environnements intérieurs ou extérieurs.

Autrement dit, les lunettes deviennent une plateforme multisensorielle complète, à la croisée de la biométrie, de la vision assistée par IA, et de l’analyse comportementale.

503840852 1356809175421153 45775

Une plateforme réservée à la recherche, mais riche en promesses

Comme leur prédécesseur lancé en 2020, les Aria Gen 2 sont réservées à un usage exclusivement académique et expérimental. Meta ouvrira les candidatures pour les chercheurs plus tard dans l’année. Ces lunettes serviront de banc d’essai pour les futurs produits grand public, notamment dans la réalité augmentée.

Le format a été repensé pour plus de confort et de practicité : branches pliables, poids réduit à environ 75 grammes, et huit tailles disponibles pour s’adapter à différentes morphologies.

Meta ne cache pas son ambition : les Aria Gen 2 sont destinées à préparer le terrain pour les lunettes « Orion », un projet de réalité augmentée en collaboration potentielle avec Oakley, ainsi que pour les mystérieuses lunettes « Hypernova » qui intégreraient un véritable écran embarqué.

Vers une convergence entre réalité augmentée, IA et bien-être

Au-delà de la technique, l’approche de Meta illustre une vision bien plus large : celle d’un futur où nos lunettes ne seront plus de simples outils visuels, mais des assistants personnels hybrides capables d’anticiper nos besoins, de mesurer nos signaux biologiques, et d’interagir en temps réel avec des environnements physiques et numériques.

En intégrant la biométrie, la réalité augmentée, l’IA conversationnelle et la robotique dans un seul et même objet, Meta cherche à redéfinir l’ordinateur du futur : invisible, omniprésent, adaptatif.

Avec Aria Gen 2, Meta montre qu’il ne s’agit plus seulement de « lunettes connectées », mais bien d’une plateforme cognitive portable, dédiée à l’exploration des technologies qui façonneront l’avenir de l’interaction homme-machine. Certes, ces lunettes ne sont pas encore destinées au marché, mais elles envoient un signal fort : la révolution de la réalité augmentée ne passera pas par des écrans, mais par des interfaces invisibles et intelligentes.

Il ne reste plus qu’à voir comment ces recherches se traduiront en produits concrets dans les années à venir. Mais une chose est certaine : le futur des lunettes connectées est déjà en marche, et Meta compte bien en être le chef d’orchestre.

Lire plus
Réalité virtuelle et augmentée

Project Moohan : Le casque XR de Samsung et Google dévoilé sur Geekbench !

Project Moohan : Le casque XR de Samsung et Google dévoilé sur Geekbench !

Samsung se lance pleinement dans la réalité étendue (XR) avec un projet ambitieux : Project Moohan. Développé en partenariat avec Google, ce casque Android XR fait déjà parler de lui après son apparition sur Geekbench, dévoilant une fiche technique impressionnante.

Prévu pour concurrencer frontalement l’Apple Vision Pro, ce nouvel appareil pourrait bien redistribuer les cartes du marché de la réalité mixte.

Un processeur taillé pour la XR : Snapdragon XR2+ Gen 2 confirmé

Grâce à une fuite relayée par @yabhishekhd sur X, on sait désormais que le casque, référencé sous le nom SM-I610, sera propulsé par le Snapdragon XR2+ Gen 2 de Qualcomm. Ce processeur, annoncé début 2024, est conçu spécifiquement pour la réalité étendue, avec un ensemble de technologies avancées :

  • 6 cœurs Cortex-A78C, dont deux cadencés à 2,36 GHz
  • GPU Adreno 740
  • Wi-Fi 7 à faible latence
  • Foveated rendering, Space Warp, et pass-through couleur à 12 ms

Côté mémoire, Project Moohan embarquerait 16 Go de RAM et tournerait sous Android 14, dans une version spécialement adaptée à la XR (probablement baptisée Android XR OS).

Interface repensée : contrôle gestuel et affichage immersif

Le système Android XR apportera une interface optimisée pour la réalité mixte :

  • Affichage de bureau virtuel
  • Contrôle par les mains (sans manette)
  • Intégration avancée de l’IA Gemini : à Google I/O 2025, une démo montrait l’IA identifiant un arbre en réalité augmentée et donnant des informations contextuelles.

Ces éléments soulignent l’objectif de Google et Samsung : créer un assistant XR intelligent, et pas simplement un casque de divertissement.

Et après ? Deux autres projets XR : Haean et Jinju

Samsung ne s’arrête pas là. Deux autres projets, Project Haean et Project Jinju, sont également en cours. Ces derniers, repérés sous le numéro SM-I130, utiliseraient le même Snapdragon XR2 Gen 2 et 16 Go de RAM, tout en adoptant un format plus compact proche de lunettes connectées.

Cela laisse penser que Samsung ambitionne de proposer des lunettes de réalité augmentée performantes, capables de délivrer une expérience immersive tout en étant élégantes et légères.

Lancement possible dès l’événement Galaxy Unpacked (été 2025)

01CADC4DBECEAF33AF8B87EF0CE3157E

Si aucune date officielle n’a été confirmée, les rumeurs suggèrent que Project Moohan pourrait être présenté dès le prochain Galaxy Unpacked, prévu entre juin et juillet. L’occasion rêvée pour Samsung de présenter ses nouveaux Galaxy Z Fold et Z Flip, accompagnés d’un casque XR haut de gamme.

Avec Project Moohan, Samsung ne se contente plus de suivre la tendance : la marque souhaite jouer dans la cour des grands, aux côtés d’Apple, Meta et Google. Grâce à une puissance matérielle de haut niveau, un OS dédié et une intégration IA poussée, le duo Samsung-Google semble bien décidé à imposer Android XR comme un standard ouvert et performant dans l’univers de la réalité étendue.

Les premiers tests publics sont prometteurs, et les mois à venir pourraient marquer un tournant dans l’adoption grand public de la XR.

Lire plus
Réalité virtuelle et augmentée

Apple lancera ses lunettes connectées en 2026 : Siri à bord, pas d’AR (pour l’instant) !

apple smartglasses launch 2026 r

Apple serait en train de finaliser le développement de sa toute première paire de lunettes connectées, selon un rapport de Bloomberg. La firme de Cupertino pourrait lancer ce nouvel appareil dès l’année prochaine, avec une ambition claire : mélanger design élégant, assistant vocal et fonctionnalités intelligentes… sans aller trop vite sur la réalité augmentée.

D’après les sources citées, ces lunettes seraient équipées de caméras, de microphones et de haut-parleurs intégrés, leur permettant :

  • d’analyser l’environnement extérieur en temps réel,
  • de répondre à des commandes vocales via Siri,
  • de prendre des appels téléphoniques,
  • de contrôler la lecture de musique,
  • d’effectuer des traductions en direct,
  • ou encore de fournir des indications de navigation à l’utilisateur.

On apprend également que Apple intégrerait une puce maison (Apple Silicon) dans le produit, une stratégie similaire à celle adoptée pour les Mac et les iPhone. En revanche, la réalité augmentée ne serait pas encore au programme de cette première version : cette technologie devrait arriver plus tard, dans un produit plus évolué.

Un concurrent direct des Ray-Ban Meta… mais en plus haut de gamme

Selon Bloomberg, les lunettes connectées d’Apple seraient conçues pour rivaliser avec les Ray-Ban Meta, déjà vendues à plus d’un million d’exemplaires en 2023. Mais la marque à la pomme viserait clairement un positionnement plus premium, fidèle à son image, avec des matériaux plus soignés et une meilleure finition.

Pour mémoire, les Ray-Ban Meta offrent déjà des fonctions d’appel, d’enregistrement vidéo, d’assistance vocale avec Meta AI, et même de diffusion en direct. Apple voudrait s’en inspirer, tout en y apportant sa propre touche logicielle, notamment grâce à l’intégration poussée de Siri et de son écosystème (iPhone, AirPods, Apple Music, Plans…).

Une annonce qui tombe juste après le duo Altman/Ive

Cette révélation coïncide avec l’annonce fracassante de Sam Altman (OpenAI) et Jony Ive (ex-designer en chef chez Apple), qui ont révélé cette semaine leur projet d’un dispositif intelligent sans écran, capable d’interagir vocalement et visuellement avec l’utilisateur. Leur première création est attendue en 2026, tout comme les lunettes d’Apple.

Une concurrence frontale se profile donc entre les ambitions de Jony Ive, désormais en solo, et son ancienne maison mère. Et avec Google, Samsung, Xreal et Warby Parker qui travaillent eux aussi sur des lunettes connectées dotées d’IA via la plateforme Android XR, le marché des wearables intelligents s’annonce en ébullition.

Apple abandonne sa montre avec caméra, mais pas les AirPods intelligents

Par ailleurs, Bloomberg indique que Apple aurait abandonné un autre projet en cours : une Apple Watch dotée de caméras et de fonctionnalités d’IA visuelle, jugée trop ambitieuse dans l’état actuel de la technologie.

En revanche, le développement de nouveaux AirPods équipés de caméras et de capteurs intelligents se poursuivrait. Ces futurs écouteurs pourraient offrir des interactions gestuelles, de la reconnaissance contextuelle ou des fonctions liées à la réalité assistée, sans écran.

Avec ces lunettes connectées, Apple semble préparer le terrain pour une nouvelle génération de dispositifs portables, plus discrets que le casque Vision Pro mais toujours connectés à son écosystème. En misant d’abord sur la voix, l’audio et la reconnaissance environnementale, la marque adopte une approche progressive avant d’introduire des fonctionnalités de réalité augmentée plus poussées.

Le marché des lunettes intelligentes pourrait bien devenir le nouveau champ de bataille des géants de la tech, avec Apple, Meta, OpenAI, Google et Samsung, qui affûtent leurs armes pour 2026. Reste à savoir si ces appareils sauront convaincre le grand public… ou resteront un gadget de niche.

Lire plus
Réalité virtuelle et augmentée

Google I/O 2025 : Xreal et Google, le futur de la réalité étendue s’appelle Project Aura

Google I/O 2025 : Xreal et Google, le futur de la réalité étendue s'appelle Project Aura

Lors de la conférence Google I/O 2025, la firme de Mountain View a officialisé son retour dans l’univers des lunettes intelligentes. Et cette fois, elle ne le fait pas seule. En partenariat avec Xreal (anciennement Nreal), Google a présenté Project Aura, une nouvelle paire de lunettes XR immersives tournant sous Android XR et intégrant Gemini — son assistant IA maison.

Project Aura devient ainsi le deuxième appareil Android XR officiel après le casque Project Moohan développé avec Samsung. Mais contrairement à ce dernier, qui vise la réalité mixte haut de gamme à la façon d’un Apple Vision Pro, Project Aura adopte une approche plus légère, mobile et accessible.

Ces lunettes s’inscrivent dans la lignée des produits existants de Xreal, comme les Xreal One ou Xreal Air, qui permettent déjà de projeter l’écran d’un smartphone ou d’un ordinateur directement dans votre champ de vision, tout en contrôlant l’opacité pour s’isoler (ou non) de son environnement réel. Project Aura s’en inspire clairement… tout en marquant une nette évolution matérielle.

Un design affiné, pensé pour l’usage quotidien

Les rendus dévoilés laissent entrevoir un produit plus ambitieux que les générations précédentes :

  • Caméras intégrées dans les branches et le pont nasal, permettant une meilleure interaction avec l’environnement
  • Microphones intégrés, probablement pour les commandes vocales via Gemini
  • Boutons physiques sur les branches, signe d’un certain degré de contrôle direct
  • Grand champ de vision, annoncé comme un des points forts de l’appareil

Si le design reste assez proche de lunettes de soleil « tech », on sent une volonté de rendre l’appareil plus ergonomique, plus discret et plus immersif.

Gemini embarqué : l’IA de Google au cœur de l’expérience

Comme pour Project Astra (le modèle multimodal temps réel dévoilé récemment), Google fait de Gemini le cœur stratégique de ses futurs appareils personnels. Project Aura permettra ainsi :

  • Des interactions naturelles via la voix
  • Une compréhension contextuelle via les caméras
  • Une expérience mains libres assistée par l’intelligence artificielle

L’idée ? Un assistant proactif qui perçoit ce que vous voyez, comprend ce que vous dites, et vous répond dans le contexte de votre environnement. Une évolution logique de ce que Google propose déjà sur smartphone… en bien plus immersif.

Un OS Android XR, pensé pour la modularité

Comme avec Wear OS pour les montres, Google fournit ici la plateforme logicielle — Android XR — tandis que les partenaires s’occupent du matériel. Le modèle est clair : laisser des constructeurs comme Xreal proposer plusieurs formes et déclinaisons, tout en assurant une cohérence logicielle autour de Gemini et Android XR.

Google précise d’ailleurs que les applications conçues pour les casques XR (comme le Project Moohan) pourront être portées facilement vers Project Aura, avec des adaptations minimales pour le nouveau facteur de forme.

Une disponibilité encore floue, mais un AWE 2025 à surveiller

Les détails techniques restent pour l’instant limités :

  • Puce Qualcomm optimisée XR (pas encore précisée)
  • Fonctionnalités IA embarquées grâce au cloud Google
  • Expérience « optical see-through », donc avec vision directe de l’environnement, contrairement à la VR

Xreal promet de révéler plus d’informations lors du salon Augmented World Expo (AWE) en juin. On devrait notamment en apprendre davantage sur les spécificités matérielles, l’autonomie, la compatibilité applicative, et peut-être même une fenêtre de sortie pour les développeurs ou early adopters.

Avec Project Aura, Google revient dans la course aux lunettes intelligentes, mais avec une stratégie plus humble et plus mature qu’à l’époque des Google Glass. En confiant le matériel à des partenaires expérimentés comme Xreal, et en se concentrant sur l’IA embarquée et l’OS, la firme évite les écueils du passé tout en surfant sur la vague actuelle des agents intelligents, incarnée par Project Astra.

L’objectif semble clair : faire des lunettes XR le prochain terminal naturel pour l’IA de Google, et une porte d’entrée vers une informatique plus contextuelle, plus humaine, et plus assistée.

À suivre de près lors de l’AWE 2025, puis d’ici fin 2025 pour les premiers modèles grand public.

Lire plus
Réalité virtuelle et augmentée

Vision Pro : Défilez par la pensée ! Le contrôle oculaire arrive !

Vision Pro : Défilez par la pensée ! Le contrôle oculaire arrive !

Apple continue de miser gros sur son casque Vision Pro, et les rumeurs les plus récentes laissent penser que l’entreprise entend bien pousser plus loin l’expérience utilisateur.

D’après un rapport signé Mark Gurman, une nouvelle fonctionnalité de défilement oculaire est actuellement en test, et pourrait faire ses débuts avec visionOS 3, dès la WWDC 2025 prévue le 9 juin prochain.

Défilement oculaire : une interface pensée pour le regard

Le principe est simple, mais terriblement futuriste : grâce au système de suivi oculaire déjà intégré au Vision Pro, les utilisateurs pourront faire défiler des éléments simplement en les regardant. Il suffira ensuite de pincer les doigts pour valider une sélection.

Cette interaction minimaliste permettrait une navigation bien plus fluide, sans avoir à bouger les mains constamment ou à chercher des menus avec des gestes complexes.

Apple envisage de rendre cette fonctionnalité disponible dans toutes les applications natives de visionOS, mais aussi d’en ouvrir l’accès aux développeurs tiers, ce qui promet une adoption rapide au sein de l’écosystème.

Une interface visionOS en pleine évolution

Le défilement oculaire ne sera pas la seule nouveauté de visionOS 3. En parallèle, Apple a récemment présenté de nouvelles fonctionnalités d’accessibilité pour l’ensemble de ses plateformes, y compris le Vision Pro. Parmi les ajouts les plus notables :

  • Zoom automatique sur les objets regardés, grâce à la caméra principale.
  • VoiceOver enrichi, capable de décrire l’environnement, identifier des objets, lire des documents, et plus encore.

Ces mises à jour confirment la volonté d’Apple de rendre l’expérience Vision Pro plus intuitive, inclusive et immersive.

Une navigation intuitive, inspirée de notre propre comportement

Ce genre de nouveauté s’inscrit dans la tendance actuelle d’Apple à s’inspirer des interactions naturelles. Le suivi du regard couplé à des gestes simples représente une évolution logique dans les interfaces utilisateur immersives. Le but ? Réduire l’apprentissage de la navigation à son strict minimum, pour une prise en main quasi instantanée.

Ce système pourrait notamment s’avérer particulièrement utile dans des scénarios professionnels ou créatifs, où la précision et la rapidité sont essentielles — que ce soit pour le montage vidéo, la visualisation 3D ou la navigation dans un environnement d’entreprise virtuel.

WWDC 2025 : une keynote très attendue

La prochaine WWDC s’annonce particulièrement riche. En plus de visionOS 3 et du défilement oculaire, Apple pourrait également dévoiler :

  • Deux nouveaux modèles de Vision Pro, dont un plus accessible.
  • De nouvelles applications immersives compatibles Mac/Vision Pro.
  • Des améliorations système liées à l’IA générative sur l’ensemble de ses plateformes.

Toutes les annonces devraient être faites lors de la keynote du 9 juin 2025.

Apple n’a pas inventé le suivi oculaire, mais l’entreprise semble bien partie pour en faire un standard d’interaction dans l’univers de la réalité mixte. Avec ce système de navigation par les yeux, le Vision Pro pourrait franchir un cap majeur en matière d’ergonomie et d’accessibilité.

Reste à savoir si cette technologie sera aussi fluide et précise que promis, et surtout si elle pourra s’adapter à tous les usages. Une chose est sûre : l’avenir de la réalité mixte se jouera autant avec les yeux qu’avec les mains.

Lire plus
Réalité virtuelle et augmentée

Des lunettes qui vous reconnaissent ? Meta prépare sa « super vision » IA !

Des lunettes qui vous reconnaissent ? Meta prépare sa « super vision » IA !

Meta, déjà bien présent sur le marché de la réalité augmentée avec ses lunettes connectées Ray-Ban Meta, semble prêt à passer à la vitesse supérieure.

Selon des révélations de The Information, Meta travaillerait actuellement sur deux nouvelles paires de lunettes connectées, avec des capacités bien plus avancées que celles disponibles aujourd’hui. Leur nom de code ? Aperol et Bellini.

Une « super vision » basée sur l’IA

Ces nouveaux modèles embarqueront un logiciel de vision surpuissant, capable de reconnaître des visages, détecter des objets et comprendre le contexte de votre environnement. Grâce à ce système baptisé « super sensing », les lunettes pourront par exemple :

  • vous rappeler le nom d’une personne que vous croisez,
  • vous alerter si vous oubliez vos clés en quittant votre domicile,
  • ou vous suggérer de passer à la laverie en rentrant chez vous.

Pour y parvenir, les caméras et capteurs embarqués seront toujours actifs, créant une analyse continue de votre environnement. Cette capacité nécessite évidemment une grande puissance de traitement, mais aussi… un certain compromis sur la vie privée.

La vie privée repensée pour entraîner l’IA

Pour mettre en œuvre cette vision futuriste, Meta a mis à jour sa politique de confidentialité afin d’autoriser une collecte plus poussée de données personnelles, destinées à l’entraînement de ses modèles d’IA. Cette révision suscite déjà des inquiétudes, car elle implique que les lunettes pourraient potentiellement filmer ou enregistrer en continu, avec tout ce que cela implique en matière de surveillance et de respect des libertés individuelles.

L’autonomie, un obstacle encore non résolu

Meta teste actuellement certaines de ces fonctions sur les lunettes intelligentes déjà commercialisées, mais le constat est clair : la batterie chute drastiquement dès que la super vision est activée, limitant l’autonomie à environ 30 minutes.

Cela reste l’un des principaux défis techniques à relever avant un lancement grand public. Meta semble miser sur des avancées rapides en matière de miniaturisation, d’optimisation énergétique et de traitement embarqué pour corriger ce défaut d’ici la sortie.

hero

Des écouteurs avec caméra en développement

En parallèle des lunettes Aperol et Bellini, Meta travaillerait également sur des écouteurs intégrant une caméra, sans doute destinés à compléter l’expérience immersive de ses futurs appareils. L’objectif semble être de multiplier les points de capture de votre environnement pour renforcer les capacités d’analyse contextuelle de son IA embarquée.

À l’heure actuelle, Meta n’a communiqué aucune date officielle pour ces lunettes de nouvelle génération. Cependant, les sources évoquent une possible sortie fin 2025 ou début 2026, ce qui laisserait le temps au groupe de finaliser le hardware, de peaufiner l’expérience utilisateur… et d’anticiper les controverses éthiques à venir.

Date de sortie estimée : fin 2025 ?

Avec ses lunettes Aperol et Bellini, Meta ambitionne rien de moins que de révolutionner notre rapport au monde à travers des interfaces toujours plus contextuelles, proactives et invisibles. Mais cette vision soulève également de nombreuses questions de société : sommes-nous prêts à être assistés — et surveillés — en permanence par des appareils toujours actifs ?

Entre innovation radicale et préoccupations éthiques, ces lunettes de super vision pourraient bien devenir le symbole le plus clivant de la prochaine vague d’objets connectés.

Lire plus
Réalité virtuelle et augmentée

Apple : Ses lunettes connectées arrivent ! Puces maison et réalité augmentée ?

Apple : Ses lunettes connectées arrivent ! Puces maison et réalité augmentée ?

Apple intensifie ses efforts dans le domaine des lunettes connectées, avec des avancées notables dans le développement de puces spécialisées destinées à ses futurs modèles de lunettes connectées.

Selon Bloomberg, ces puces, dérivées de celles utilisées dans l’Apple Watch, sont conçues pour gérer plusieurs caméras tout en maintenant une faible consommation d’énergie. La production de masse est prévue pour la fin de 2026 ou 2027, suggérant un lancement potentiel des lunettes dans cette période.

Apple travaillerait sur deux versions de ses lunettes : une avec réalité augmentée (AR) et une sans. La version sans AR, portant le nom de code N401, serait analogue aux lunettes Ray-Ban Meta, offrant des fonctionnalités telles que la prise de photos, le contrôle des appels et l’assistance vocale. La version AR viserait à fournir une expérience immersive, bien que sa sortie soit prévue plus tard en raison de défis techniques.

Le principal défi pour Apple est de concevoir une puce capable de gérer de multiples entrées de caméras et capteurs, tout en restant légère et économe en énergie. Pour surmonter ces obstacles, Apple envisage de déporter une partie du traitement vers l’iPhone de l’utilisateur, réduisant ainsi la charge sur les lunettes elles-mêmes.

Intégration avec d’autres appareils Apple

Apple développe également des puces pour des versions équipées de caméras de l’Apple Watch et des AirPods, nommées respectivement “Nevis” et “Glennie”. Ces dispositifs pourraient collaborer avec les lunettes pour offrir une expérience utilisateur enrichie, en partageant des données et en améliorant la perception de l’environnement.

Bien qu’aucune date officielle n’ait été annoncée, les rapports suggèrent que les lunettes pourraient être commercialisées dès la fin de 2026. Apple semble viser une entrée sur le marché grand public avec un produit compétitif face aux lunettes Ray-Ban Meta, tout en poursuivant le développement de versions plus avancées à long terme.

Objectif de lancement et stratégie de marché

En résumé, Apple progresse dans le développement de ses lunettes connectées, en se concentrant sur des solutions techniques innovantes pour offrir une expérience utilisateur optimale. Avec des puces spécialisées et une intégration étroite avec son écosystème existant, Apple pourrait bien redéfinir le marché des lunettes intelligentes dans les années à venir.

 

Lire plus
Réalité virtuelle et augmentée

Concurrence pour Meta : Les lunettes connectées d’Apple arrivent en 2027 avec Apple Intelligence

Concurrence pour Meta : Les lunettes connectées d'Apple arrivent en 2027 avec Apple Intelligence

Alors que Meta rencontre un succès croissant avec ses lunettes connectées développées en partenariat avec Ray-Ban, Apple travaille activement sur sa propre alternative pour s’imposer dans ce nouveau marché prometteur. Selon Mark Gurman de Bloomberg, souvent bien informé sur les projets secrets de Cupertino, Apple continue de développer ses lunettes connectées connues en interne sous le nom de code N50.

Des lunettes propulsées par Apple Intelligence

Le concept derrière les futures lunettes d’Apple est clair : intégrer Apple Intelligence directement à portée de regard. Avec l’essor de l’intelligence artificielle générative et l’arrivée des fonctionnalités Apple Intelligence dans l’écosystème iOS, iPadOS et macOS, il est logique que la firme cherche à décliner cette technologie dans un accessoire portable ultra-léger.

L’objectif serait de fournir des informations contextuelles en temps réel : directions de navigation, accès à Siri, notifications de transport public, rappels importants… le tout sans avoir besoin de sortir son iPhone de sa poche.

Toutefois, il ne s’agira pas d’une expérience de réalité augmentée complète, précise Gurman. L’idée est de créer un assistant d’information portable, plus proche des lunettes Ray-Ban Meta actuelles que d’un véritable casque immersif, comme l’Apple Vision Pro.

Pas de lancement imminent

Si l’engouement est là, il faudra toutefois faire preuve de patience. Gurman indique que le projet n’est pas encore prêt pour la commercialisation. Actuellement, la fenêtre de lancement envisagée serait aux alentours de 2027. Cela laisse à Apple le temps d’affiner sa technologie et de peaufiner l’expérience utilisateur.

Apple n’est pas connue pour être la première à dégainer sur un nouveau marché — elle préfère souvent attendre et proposer une solution mûre et différenciante. Un pari qui a déjà porté ses fruits avec l’iPhone, l’Apple Watch et les AirPods.

S’inspirer du Vision Pro… sans tomber dans la complexité

Même si les lunettes intelligentes et la réalité augmentée restent des concepts distincts, il est probable que Apple reprenne certaines idées du Vision Pro pour enrichir l’expérience de ses lunettes connectées.

On peut ainsi imaginer des gestes de navigation simples, des commandes vocales intelligentes, voire des notifications discrètes intégrées directement dans le champ de vision. L’objectif serait de proposer une utilisation naturelle et fluide, fidèle à l’ADN de la marque.

La pression de la concurrence

Pendant ce temps, Meta continue de tracer sa route. Avec ses Ray-Ban Meta, qui misent sur un design séduisant et des fonctionnalités audio avancées, la firme de Mark Zuckerberg a su séduire un large public. Et dès 2025, une nouvelle génération de lunettes Meta intégrant un écran d’affichage devrait voir le jour.

Cela mettra une pression supplémentaire sur Apple, mais, fidèle à ses habitudes, la marque ne précipitera pas ses plans. Mieux vaut arriver plus tard avec un produit vraiment abouti que de se précipiter pour rattraper la concurrence.

Les lunettes connectées Apple restent un projet ambitieux, mais lointain. Tandis que Meta continue d’innover rapidement, Apple peaufine son approche en misant sur l’intégration de l’IA et l’expérience utilisateur. Le résultat final pourrait bien redéfinir une fois encore une catégorie de produits, comme Apple l’a déjà fait dans le passé. Mais pour l’instant, la patience est de mise.

Lire plus
Réalité virtuelle et augmentée

Vision One : le Apple Vision Pro abordable arrive plus tôt que prévu !

Vision One : le Apple Vision Pro abordable arrive plus tôt que prévu !

Malgré ses prouesses technologiques incontestables, le casque Vision Pro d’Apple n’a pas rencontré le succès fulgurant espéré par la marque. Proposé au tarif élitiste de 3 999 euros, il a d’emblée rebuté de nombreux passionnés.

Mais, ce n’est pas uniquement son prix qui a limité son envol : l’absence d’un véritable écosystème informatique complet autour de l’appareil a également refroidi l’enthousiasme des utilisateurs.

Pour autant, Apple n’entend pas baisser les bras. Bien au contraire, la firme de Cupertino planche actuellement sur une version plus accessible de son casque XR, et son lancement pourrait survenir bien plus tôt que prévu. D’après Bloomberg, Apple pourrait dévoiler ce nouveau modèle d’Apple Vision abordable d’ici la fin de l’année, peut-être même en parallèle du lancement de la série iPhone 17.

Jusqu’à récemment, certains analystes tablaient plutôt sur un horizon de deux ans pour voir apparaître ce modèle « allégé ». Cependant, la pression concurrentielle particulièrement intense dans le domaine de la réalité étendue semble avoir poussé Apple à accélérer son calendrier.

Selon le rapport, tous les indicateurs pointent vers une sortie entre la fin 2025 et le premier semestre 2026. Par ailleurs, les rumeurs évoquent depuis quelque temps un modèle baptisé « Vision One », ce qui semble correspondre à ce projet de casque plus accessible.

Un dilemme stratégique demeure toutefois. Apple envisage-t-elle de remplacer totalement le Vision Pro ou de proposer deux modèles côte à côte sur le marché, l’un haut de gamme et l’autre plus abordable ? La question est d’autant plus pertinente que la marque travaille également sur un successeur du Vision Pro, qui proposerait une connexion filaire à un Mac pour maximiser les performances tout en éliminant les problèmes d’autonomie et de latence.

Vision One: Des compromis face au Vision Pro

Quant à la version « abordable », elle pourrait être propulsée par la puce M5 — la même qui doit équiper de prochains Mac et iPad Pro attendus plus tard cette année. Les premiers éléments indiquent que ce nouveau casque sera plus léger, avec un poids inférieur à 450 grammes, ce qui marquerait une amélioration significative en termes de confort.

Côté tarif, Apple viserait une fourchette comprise entre 1 500 et 2 500 dollars, soit une réduction notable par rapport au tarif de lancement du Vision Pro. Pour atteindre ce prix plus attractif, le constructeur devrait opter pour un écran de résolution inférieure à celui du modèle haut de gamme. En revanche, aucun détail précis n’a encore filtré sur les ajustements de design ou les matériaux qui permettraient cet allégement.

Une ergonomie à corriger

Quoi qu’il en soit, au-delà du poids, Apple devra corriger un problème majeur : l’ergonomie. Le Vision Pro actuel est souvent critiqué pour son inconfort après une utilisation prolongée. Il sera donc intéressant d’observer comment Apple compte améliorer l’expérience utilisateur avec ce modèle plus léger.

En résumé, même si de nombreux détails restent encore sous embargo, la volonté d’Apple de démocratiser sa gamme XR semble plus forte que jamais. Et avec la promesse d’un lancement imminent, le second semestre 2025 s’annonce riche en annonces du côté de Cupertino.

Lire plus
Réalité virtuelle et augmentée

Meta Hypernova : Des lunettes connectées à 1 000 dollars avec écran en octobre !

Meta Hypernova : Des lunettes connectées à 1 000 dollars avec écran en octobre !

Meta semble bien décidé à renforcer sa présence sur le marché des lunettes connectées. Après le succès inattendu de ses lunettes Ray-Ban Meta, initialement conçues pour capturer du contenu destiné aux réseaux sociaux, l’entreprise ambitionne désormais d’aller encore plus loin en intégrant un écran d’affichage à ses prochains modèles.

D’après Bloomberg, Meta a fait de ce projet des lunettes connectées une priorité pour 2025 : la firme viserait un lancement dès le mois d’octobre, une période traditionnellement marquée par l’arrivée de nouveaux iPhone et produits Apple. La comparaison est d’autant plus pertinente que le projet de lunettes connectées d’Apple serait, lui, encore à plusieurs années d’une commercialisation effective.

Selon les sources de Bloomberg, ces futures lunettes connectées de Meta seraient proposées à plus de 1 000 dollars, et la pression est telle en interne que des employés auraient été incités à travailler le week-end pour tenir les délais. Ce calendrier coïnciderait avec le Connect, l’événement annuel de Meta, prévu pour les 17 et 18 septembre 2025.

Contrairement aux modèles actuels de lunettes Meta, qui reposent principalement sur des fonctionnalités audio et captation vidéo, cette nouvelle génération intégrera un écran monoculaire. Installé dans le coin inférieur droit de la lentille, cet écran permettra aux utilisateurs d’interagir visuellement avec différentes applications. Il sera notamment possible de naviguer sur des cartes, gérer les notifications, ou encore consulter les photos prises grâce aux caméras embarquées.

La navigation se ferait principalement via des gestes sur les branches des lunettes, un mode de contrôle intuitif et discret. Pour supporter cet affichage et ses fonctionnalités, les lunettes utiliseront une version fortement modifiée d’Android, épaulée par un processeur Qualcomm spécialisé pour les appareils portables.

Meta « Hypernova » : Des lunettes à plus de 1 000 dollars

Actuellement développées sous le nom de code Hypernova, ces lunettes pourraient être commercialisées entre 1 000 et 1 400 dollars selon les options et versions proposées. À titre de comparaison, la majorité des lunettes XR équipées d’écrans sur le marché aujourd’hui avoisinent les 500 dollars, ce qui positionnerait Meta sur un marché premium avec ce nouveau produit.

En parallèle, Meta poursuit ses projets à plus long terme avec les lunettes Orion, qui intègreront un affichage holographique encore plus avancé, mais dont la sortie est prévue dans plusieurs années. La firme continue également ses recherches sur les véritables lunettes de réalité augmentée via son programme Aria, destiné principalement aux applications industrielles et scientifiques.

Alors que la concurrence sur ce segment se fait de plus en plus intense, notamment avec des marques comme Xreal, TCL ou RayNeo, Meta entend bien marquer les esprits avec cette nouvelle génération de lunettes. Reste à savoir si le public sera prêt à investir dans un tel produit haut de gamme, et si cette offensive technologique permettra à Meta de prendre une avance décisive dans le domaine de la réalité augmentée.

Lire plus
Réalité virtuelle et augmentée

Voyagez connecté : les Ray-Ban Meta traduisent en direct et sans Wi-Fi !

Voyagez connecté : les Ray-Ban Meta traduisent en direct et sans Wi-Fi !

Meta continue d’étoffer son offre technologique portée avec les lunettes connectées Ray-Ban Meta, lancées en collaboration avec EssilorLuxottica. La dernière annonce marque une expansion majeure des fonctionnalités déjà introduites via le programme Early Access, avec une volonté claire d’internationalisation et de personnalisation.

Traduction en direct avec les Ray-Ban Meta : une fonctionnalité taillée pour les voyages

L’une des annonces phares concerne la traduction en temps réel, désormais déployée dans tous les marchés où les lunettes Ray-Ban Meta sont disponibles.

Comment ça fonctionne ? Les lunettes captent la conversation en cours, la traduisent instantanément dans votre langue (via les haut-parleurs intégrés dans les branches) et vous permettent de répondre sans sortir votre téléphone. Les langues actuellement supportées sont : Anglais, Français, Espagnol et Italien.

Et, le tout fonctionne sans Wi-Fi ni données mobiles si vous avez téléchargé les packs de langues en local. Idéal pour les séjours à l’étranger ou les échanges multilingues au quotidien.

Exemple : vous êtes dans un café à Rome, vous discutez avec un serveur italien — vos lunettes vous traduisent la conversation en direct, dans vos oreilles, en français.

meta rayban2

Nouvelles finitions pour les montures Skyler

Meta ajoute aussi des options de personnalisation avec de nouvelles combinaisons de couleurs et verres sur le modèle Ray-Ban Meta Skyler :

  • Gris Poudré Brillant + verres Transitions saphir (qui s’adaptent à la lumière)
  • Noir brillant + verres clairs ou verts teintés

Ces nouvelles variantes permettent d’élargir l’attrait de ces lunettes auprès d’un public plus soucieux du style, tout en gardant l’intégration technologique discrète et élégante.

IA contextuelle, Instagram intégré : les fonctionnalités à venir

Meta prépare l’arrivée de nouvelles fonctionnalités destinées à rendre ses lunettes encore plus intelligentes et utiles :

  • Intégration complète d’Instagram (bientôt disponible)
    • Appels audio et vidéo directement depuis les lunettes
    • Envoi/réception de messages, photos et vocaux via Instagram
    • Déjà disponible sur WhatsApp, Messenger, SMS (Android/iOS)
  • Meta AI « Live » : une IA qui voit ce que vous voyez. Une version avancée de l’assistant vocal Meta AI arrive bientôt aux États-Unis et au Canada. Elle pourra :
    • Analyser ce que vous regardez en temps réel
    • Répondre avec du contexte, par exemple : « Quel est ce monument ? » ou « Quels sont les avis sur ce restaurant ? »

Cette capacité visuelle ouvre la voie à des conversations naturelles avec l’IA, une expérience immersive proche des usages attendus de la réalité augmentée.

492972437 679974918063001 224810 1

Musique : compatibilité étendue, mais commandes limitées

Meta élargit l’accès à ses services musicaux sur les lunettes :

  • Support étendu pour : Spotify, Amazon Music, Apple Music, Shazam
  • Contrôle vocal via Meta AI encore limité aux utilisateurs en anglais

Vous pouvez :

  • Lancer de la musique
  • Demander le nom d’un morceau
  • Changer de piste ou ajuster le volume

Mais uniquement si votre langue par défaut est l’anglais — une limitation qui pourrait être levée à l’avenir.

Expansion internationale

492307696 1404422200729408 65946

Meta AI sera disponible :

  • Dès la semaine prochaine : dans tous les pays de l’Union européenne
  • Prochainement : Mexique, Inde, Émirats arabes unis (aucune date officielle pour ces nouveaux marchés, mais lancement attendu courant 2025)

Meta positionne ses lunettes comme bien plus qu’un gadget connecté : elles deviennent une interface intelligente de tous les jours, avec des usages concrets : voyage et interaction linguistique, appels mains-libres depuis Instagram et assistant personnel avec contexte visuel.

Et avec le design Ray-Ban intemporel, elles visent à se rendre invisibles tout en étant toujours à votre service.

Lire plus
Réalité virtuelle et augmentée

Apple prépare ses lunettes AR : La prochaine révolution mobile ?

Apple prépare ses lunettes AR : La prochaine révolution mobile ?

Apple semble intensifier ses efforts dans le développement de lunettes de réalité augmentée (AR) légères, selon un nouveau rapport de Mark Gurman de Bloomberg. Après le lancement ambitieux du Vision Pro à 3 999 euros, Apple pourrait recentrer sa stratégie XR (réalité étendue) vers un produit plus accessible, plus léger, et potentiellement grand public.

D’après le rapport, le développement de ces lunettes connectées est devenu la priorité absolue de Tim Cook, PDG d’Apple. Une source proche du projet confie : « Tim ne s’intéresse à rien d’autre. C’est la seule chose sur laquelle il consacre son temps en développement produit ».

Ce revirement stratégique montre qu’Apple semble vouloir prendre une position plus agressive face à Meta, déjà bien implanté dans le segment des lunettes connectées grâce à ses Ray-Ban Meta smart glasses et à ses projets avancés de lunettes AR (notamment le projet Orion).

Un produit plus accessible que le Vision Pro

Contrairement au Vision Pro, qui reste un appareil haut de gamme et encombrant, les futures lunettes AR d’Apple seraient conçues pour être :

  • Légères et confortables pour un usage quotidien ;
  • Plus abordables financièrement (on vise un tarif grand public) ;
  • Dotées de fonctionnalités AR plus simples que la réalité mixte immersive du Vision Pro.

Le principal défi pour Apple réside dans la miniaturisation des composants, l’optimisation de la batterie, et l’intégration de technologies avancées dans un format de lunettes classique sans compromettre l’esthétique ou l’autonomie.

Quand les lunettes AR seront-elles disponibles ?

Pour le moment, il n’y a aucune date officielle de lancement. Toutefois, Apple viserait un lancement avant 2030, idéalement avant la commercialisation des lunettes Orion de Meta, actuellement en phase prototype et estimées à environ 10 000 dollars l’unité.

Cela signifie que nous pourrions voir des versions intermédiaires arriver avant le modèle final :

  • Des lunettes intelligentes sans vraie réalité augmentée mais avec intégration de fonctionnalités IA (assistant vocal Siri, musique, capture photo/vidéo…) ;
  • Possiblement sous forme de produits hybrides entre les AirPods et l’Apple Watch, à la manière des Ray-Ban Meta.

Un écosystème renforcé par l’IA

Apple pourrait intégrer l’intelligence artificielle générative directement dans ces lunettes ou dispositifs portables. Cela permettrait d’avoir une expérience proche d’un assistant personnel contextuel, capable de comprendre l’environnement, d’offrir des résumés vocaux, des réponses instantanées, ou encore de superposer des informations utiles via un affichage minimal.

Apple prépare discrètement ce qui pourrait être la prochaine révolution technologique mobile, bien au-delà du Vision Pro. Si les obstacles techniques sont encore nombreux, la volonté de développer des lunettes AR légères, puissantes et accessibles est désormais une priorité pour Tim Cook. Et dans cette course, le géant américain veut devancer Meta et ses projets ambitieux, en misant sur design, ergonomie et intégration à l’écosystème Apple.

Une chose est sûre : les années à venir pourraient bien marquer la transition des smartphones vers les lunettes intelligentes, et Apple entend bien y jouer un rôle majeur.

Lire plus
Réalité virtuelle et augmentée

Apple Vision Air : Le casque XR plus abordable arrive en 2025 ?

Apple Vision Air : Le casque XR plus abordable arrive en 2025 ?

Alors que Apple se prépare à la prochaine WWDC en juin 2025, les rumeurs s’intensifient autour d’un nouveau casque de réalité mixte. Baptisé officieusement Apple Vision Air, cette version serait pensée comme une alternative plus accessible au Vision Pro sorti début 2024. Voici tout ce que nous savons pour l’instant.

La source Kosutami a récemment publié des images d’un nouveau câble de charge destiné au casque. Bien qu’il puisse sembler anodin, ce composant renforce plusieurs rumeurs :

  • Il adopte un design tressé en graphite foncé, très sobre et premium.
  • Une extrémité dispose d’un connecteur circulaire avec un anneau métallique apparent et des broches de contact.
  • L’autre extrémité montre un connecteur Lightning élargi, analogue au Vision Pro actuel, mais avec 8 broches au lieu de 12, suggérant une refonte technique de la connectique.

Ce câble relie le casque à la batterie externe, et son nouveau design évoque une volonté de compacité et d’amélioration de l’efficacité énergétique.

Un casque plus léger grâce au titane

Autre fuite notable : l’utilisation supposée de titane pour alléger le casque. Plus résistant et plus léger que l’aluminium, ce matériau pourrait être utilisé sur les charnières et certains éléments structurels.

Le coloris mis en avant dans les fuites est un bleu graphite foncé, proche de la teinte « noir sidéral » que l’on a pu voir sur les MacBook Pro ou l’iPhone 14 Pro. Cette teinte renforcerait l’aspect premium du Vision Air tout en différenciant visuellement cette nouvelle génération.

Vision Air : simplification technique pour baisser le prix ?

Selon plusieurs rapports, Apple chercherait à proposer une version plus abordable de son casque. Cela impliquerait plusieurs compromis techniques :

  • Suppression de l’écran externe (EyeSight) du Vision Pro
  • Moins de caméras et capteurs
  • Réduction de la capacité de stockage ou de la résolution d’affichage

Ces choix permettraient de proposer un prix plus compétitif, probablement autour des 1 500 à 2 000 dollars, contre 3 500 $ pour le Vision Pro.

Une annonce à la WWDC 2025 ?

Tout converge vers une présentation officielle lors de la WWDC, prévue en juin prochain. Apple pourrait y dévoiler non seulement son nouveau casque, mais aussi les nouveautés logicielles de visionOS 2, le système d’exploitation du Vision Pro.

Le Vision Pro a impressionné, mais son prix et sa disponibilité limitée ont freiné son adoption. Apple aurait donc ajusté sa stratégie :

  • Un modèle « Air » plus léger, plus simple et plus accessible
  • Une nouvelle phase de lancement mondial pour conquérir plus de marchés

Le Apple Vision Air ou Vision Pro 2 s’annonce comme une étape clé pour démocratiser la réalité mixte selon Apple. Entre design allégé, composants optimisés et prix potentiellement réduit, il pourrait séduire un public plus large. Reste à voir si les rumeurs seront confirmées en juin…

Lire plus