fermer
Couverture MWC  2026

Réalité virtuelle et augmentée

La réalité virtuelle (RV) et la réalité augmentée (RA) sont en train de transformer les industries, de l’éducation au commerce en passant par le divertissement.

Découvrez comment ces technologies immersives sont utilisées pour créer des expériences uniques et des interactions enrichies. Nos guides vous fourniront des informations sur les meilleurs dispositifs, applications et stratégies pour intégrer efficacement la RV et la RA dans vos projets ou votre entreprise.

Réalité virtuelle et augmentée

Apple Vision Pro 2 : un casque plus puissant avec puce M4 dès 2025 ?

Apple Vision Pro 2 : un casque plus puissant avec puce M4 dès 2025 ?

Apple s’apprête à dévoiler la deuxième génération de son casque Vision Pro, à peine un an après la sortie du premier modèle. Selon les dernières informations relayées par Mark Gurman (Bloomberg), ce Vision Pro 2 pourrait arriver dès la fin de l’année 2025, avec à la clé des améliorations majeures en matière de confort et de puissance.

Vision Pro 2 : Une nouvelle version pour corriger les lacunes du premier modèle

Le Vision Pro de première génération, lancé en février 2024 à un tarif de 3 999 euros, a marqué les esprits par son innovation… mais aussi par certaines critiques. Son poids de plus de 600 grammes, son autonomie limitée, et le manque de confort sur de longues sessions ont souvent été pointés du doigt. Apple semble bien décidé à rectifier le tir.

La deuxième itération de ce casque spatial computing viserait donc à rendre l’expérience plus agréable au quotidien, en plus d’un bond de performance attendu grâce à une nouvelle puce Apple Silicon.

Une puce M4 pour débrider l’intelligence artificielle

La grande nouveauté de cette version 2 serait l’intégration de la puce Apple M4, récemment inaugurée avec les iPad Pro 2024. Cette puce de dernière génération offre un Neural Engine de 16 cœurs, capable d’exécuter jusqu’à 38 000 milliards d’opérations par seconde, soit plus du double des performances IA de la puce M2 qui équipe le Vision Pro actuel.

Selon Bloomberg, Apple pourrait même aller plus loin et proposer une version personnalisée de la M4 avec encore plus de cœurs IA. Cela s’inscrirait parfaitement dans la stratégie actuelle d’Apple, qui vise à intégrer l’intelligence artificielle dans tout son écosystème : iPhone, Mac, iPad… et bientôt Vision Pro.

visionOS: l’IA embarquée pour une expérience toujours plus fluide

Le futur Vision Pro mettrait clairement l’intelligence artificielle au centre de l’expérience. L’interface visionOS, déjà très immersive, pourrait intégrer des fonctions de reconnaissance contextuelle, d’analyse en temps réel, de résumé de contenus, et même de recommandations personnalisées basées sur l’usage.

Apple a d’ailleurs confirmé que certaines fonctions d’Apple Intelligence, comme les résumés de notifications ou la génération de contenu via Siri, arriveraient aussi sur les futurs casques spatiaux de la marque.

Un design revu pour un meilleur confort

Autre nouveauté notable : le confort. Le Vision Pro 2 devrait recevoir un nouveau système de fixation, avec une sangle repensée pour réduire les douleurs au niveau de la nuque et de la tête. Apple testerait actuellement différents types de sangles, afin de mieux répartir le poids de l’appareil, qui reste élevé.

Certaines rumeurs parlent d’un design plus léger, voire de matériaux allégés pour le châssis. Pour rappel, le Vision Pro pèse actuellement environ 650 grammes, ce qui en fait l’un des casques XR les plus lourds du marché. À titre de comparaison, le Meta Quest 3 affiche 515 g.

Et après ? Un Vision Pro plus abordable en 2027

f608203d apple vision pro 2 un e

Ce nouveau modèle ne serait qu’une étape intermédiaire avant l’arrivée d’un casque plus léger et plus accessible, prévu pour 2027 selon les analystes Ming-Chi Kuo et Mark Gurman. Apple travaillerait aussi en parallèle sur une paire de lunettes AR « ordinaires », concurrentes directes des Ray-Ban Meta Smart Glasses.

Le modèle 2027 viserait un public plus large, avec un tarif plus agressif, quitte à faire quelques compromis sur l’affichage ou le suivi oculaire.

Date de sortie et prix : que sait-on ?

Apple n’a encore rien confirmé officiellement, mais le Vision Pro 2 pourrait sortir dès fin 2025, soit un peu plus d’un an après le lancement du premier modèle. Son prix n’est pas encore connu, mais il y a fort à parier qu’il restera dans une gamme premium autour de 3 500 dollars, voire plus si la version M4 est dopée à l’IA.

La version « low-cost », quant à elle, serait prévue en 2027, avec un prix avoisinant les 1 500 à 2 000 dollars.

Apple ne compte pas laisser le champ libre à Meta, Sony ou encore Samsung sur le terrain de la réalité mixte (XR). Avec une Vision Pro 2 boostée à la puce M4, plus confortable et plus puissante, la firme de Cupertino entend rendre sa plateforme plus mature… avant de viser un public plus large à l’horizon 2027.

Si l’IA intégrée tient ses promesses, ce Vision Pro nouvelle génération pourrait bien devenir l’outil de travail et de divertissement spatial par excellence.

Lire plus
Réalité virtuelle et augmentée

Xiaomi AI Glasses : les premières lunettes connectées à intelligence artificielle débarquent

Xiaomi AI Glasses : les premières lunettes connectées à intelligence artificielle débarquent

Xiaomi fait sensation avec ses Xiaomi AI Glasses, présentées lors de son événement « Human × Car × Home » en Chine. Avec seulement 40 g, un design raffiné inspiré des montures classiques et une sortie imminente, elles s’inscrivent pleinement dans l’essor des lunettes intelligentes.

Les AI Glasses adoptent un cadre en nylon TR90 associé à des charnières en alliage de titane, résistantes à plus de 18 000 ouvertures. Disponibles en noir, marron ou vert, elles arborent un style discret et soigné, pensé pour les visages asiatiques avec des branches inclinées à 12° et 5°. Leur monture peut accueillir des verres classiques, de vue ou électrochromiques, réactifs en 0,2 s pour ajuster l’opacité (10–48 %).

Xiaomi AI Glasses Snapdragon AR1

Propulsées par un processeur Snapdragon AR1 et un second puce basse consommation, elles tournent sous Vela OS, écosystème léger de Xiaomi.
La batterie de 263 mAh offre jusqu’à 8,6 h d’utilisation continue, 7 h en musique, ou 45 min d’enregistrement vidéo — soit le double des Meta Ray‑Ban. Une charge complète en USB‑C prend environ 45 minutes.

Xiaomi AI glasses battery

Les lunettes embarquent une caméra de 12 mégapixels Sony IMX681 capable de capturer en photo (4 032 × 3 024 pixels) et vidéo 2K à 30 fps avec stabilisation numérique. À cela s’ajoutent cinq micros (dont un à conduction osseuse) et deux hauts‑parleurs, pour des appels et une écoute claire, même en extérieur.

Xiaomi AI Glasses : Fonctions intelligentes au quotidien

XiaoAi, l’assistant vocal de Xiaomi, permet :

  • reconnaissance d’objets et estimation de calories,
  • traduction en temps réel (jusqu’à 10 langues),
  • transcription de réunions,
  • contrôle vocal des objets connectés,
  • paiement via Alipay par QR code (OTA en septembre).

Ces lunettes ne proposent pas d’affichage tête haute : l’interaction se fait entièrement via l’audio et les commandes gestuelles. Une stratégie qui facilite l’ergonomie sans alourdir le design.

Xiaomi AI Glasses Features China 627x1024 1

Une nouvelle concurrence dans l’optique high-tech

Avec un lancement en Chine à 1 999 ¥ (≈ 240 euros) pour la version standard, et jusqu’à 2 999 ¥ (≈ 360 euros) pour les modèles électrochromiques multicolores, Xiaomi se positionne comme un acteur sérieux face aux Meta Ray‑Ban.

Xiaomi AI Glasses Design

Xiaomi AI Glasses associent légèreté, autonomie solide et intelligence embarquée dans une monture élégante. Dotées d’une IA polyvalente, d’une caméra performante et d’un design discret, elles séduisent par leur rapport qualité‑prix. Reste à confirmer la disponibilité internationale et l’adaptation des fonctions (paiement, traduction, assistant) hors de Chine.

Lire plus
Réalité virtuelle et augmentée

Meta Quest 3S Xbox Edition : le casque VR aux couleurs de la Xbox

Meta Quest 3S Xbox Edition : le casque VR aux couleurs de la Xbox

Meta vient de dévoiler une édition limitée de son casque de réalité mixte avec un partenariat inédit : la Meta Quest 3S Xbox Edition. Pensé pour les fans de Xbox, ce bundle exclusif combine les univers de la VR et du cloud gaming dans un seul appareil, au design unique.

Contrairement à la version standard blanche, la Meta Quest 3S Xbox Edition arbore une finition Carbon Black agrémentée d’accents Velocity Green, fidèles à l’identité visuelle de Xbox. Le pack comprend :

  • Un casque Meta Quest 3S 128 Go en édition limitée
  • Des contrôleurs Meta Touch Plus assortis
  • Une manette Xbox Wireless exclusive déjà appairée
  • Une sangle Elite Strap
  • 3 mois d’abonnement à Meta Horizon+
  • Et surtout, 3 mois d’accès à Xbox Game Pass Ultimate

509925108 1402086897703203 30828 scaled

Une intégration Xbox poussée dans le métavers

Dès l’allumage, le casque lance automatiquement l’application Xbox intégrée. Les utilisateurs peuvent ainsi accéder immédiatement au service de cloud gaming Xbox Game Pass Ultimate, avec plus de 100 titres disponibles en streaming, dont South of Midnight, Avowed, ou encore The Elder Scrolls IV : Oblivion Remastered. Et bien sûr, l’expérience se fait avec la manette incluse, sans configuration manuelle nécessaire.

Sur le plan matériel, cette édition Xbox conserve la même base technique que la Quest 3S classique :

  • Processeur Snapdragon XR2 Gen 2
  • Écran haute définition : 1832 x 1920 pixels par œil
  • Son spatial immersif
  • 8 Go de RAM
  • Autonomie moyenne de 2,5 heures

498613861 722833500116369 663734

Il s’agit d’un casque pensé pour le jeu immersif et les expériences VR grand public, avec la garantie d’une compatibilité Xbox étendue dès la sortie de la boîte.

Prix et disponibilité

Le pack Meta Quest 3S Xbox Edition (128 Go) est proposé au prix de 329,99 euros, et est disponible en quantité limitée sur meta.com. Lori Wright, vice-présidente de la division Gaming chez Microsoft, déclare : « Avec cette édition spéciale Meta Quest 3S Xbox, nous franchissons une nouvelle étape dans l’intégration entre Xbox et la réalité virtuelle ».

Plus qu’une simple déclinaison esthétique, la Meta Quest 3S Xbox Edition est une véritable passerelle entre deux écosystèmes — celui du gaming Xbox et celui de la réalité virtuelle signée Meta. Une édition qui séduira autant les amateurs de VR que les joueurs Xbox souhaitant explorer de nouveaux horizons immersifs.

 

Lire plus
Réalité virtuelle et augmentée

Oakley Meta HSTN : des lunettes connectées sportives avec caméra 3K et IA Meta

Meta continue son incursion dans le monde des objets connectés avec une nouvelle paire de lunettes connectées, cette fois en partenariat avec Oakley. Baptisées Oakley Meta HSTN (à prononcer « HOW-stuhn »), ces lunettes ciblent un public plus sportif et dynamique, tout en intégrant les fonctionnalités phares déjà vues sur les Ray-Ban Meta.

Leur sortie est prévue le 11 juillet, au tarif de 499 dollars pour l’édition limitée.

Une caméra 3K et des fonctionnalités IA embarquées

Comme les Ray-Ban Stories, les Oakley Meta HSTN sont dotées d’une caméra frontale et de haut-parleurs intégrés à l’intérieur de la monture. Grâce à une connexion Bluetooth avec votre smartphone, elles permettent d’écouter de la musique, de passer des appels, ou encore de poser des questions à Meta AI.

Avec leur caméra en 3K, elles dépassent les 1080p des modèles précédents. Meta AI peut également exploiter la caméra et les micros pour répondre à des questions visuelles (ex. : « qu’est-ce que je vois ? »), et même traduire en temps réel des langues étrangères, ce qui ouvre la porte à des usages très pratiques en voyage ou dans des environnements multiculturels.

01 Design Details Carousel 01 1

Un design sportif pour une utilisation intensive

Oakley oblige, ces lunettes adoptent un style sportif et fonctionnel, pensées pour les activités extérieures. Elles bénéficient d’une certification IPX4 contre les éclaboussures, et d’une autonomie doublée comparée aux Ray-Ban, avec 8 heures d’utilisation continue et jusqu’à 48 heures avec l’étui de charge.

L’édition limitée à 499 dollars sera disponible en précommande dès le 11 juillet, avec des accents dorés et des verres PRIZM Gold, exclusifs à Oakley. Plus tard dans l’été, d’autres modèles à partir de 399 dollars seront proposés, dans différents coloris : gris chaud, noir, brun fumé et transparent. Tous les modèles seront compatibles avec des verres correcteurs, moyennant un coût supplémentaire.

Les lunettes seront vendues dans plusieurs pays, dont les États-Unis, le Canada, le Royaume-Uni, la France, l’Italie, l’Espagne, l’Allemagne, la Suède, l’Australie, et bien d’autres encore. Cette sortie mondiale traduit l’ambition de Meta de devenir un acteur majeur du marché des lunettes connectées.

Objectif : 10 millions d’unités vendues par an

Meta s’appuie sur un partenariat stratégique avec EssilorLuxottica, la maison-mère d’Oakley, Ray-Ban et d’autres grandes marques d’optique. Plus de 2 millions de lunettes Ray-Ban Meta ont déjà été vendues, et l’objectif est de passer à 10 millions d’unités par an d’ici 2026.

Pour Alex Himel, responsable des produits portables chez Meta, ces lunettes représentent « le premier pas de Meta dans la catégorie performance », avec la promesse de futurs modèles encore plus ambitieux.

Les Oakley Meta HSTN marquent un tournant pour Meta, qui vise désormais les utilisateurs actifs et sportifs. En combinant technologie avancée, design Oakley et puissance de Meta AI, ces lunettes connectées veulent redéfinir la façon dont nous interagissons avec le monde. Reste à savoir si elles séduiront au-delà du cercle des technophiles.

Lire plus
Réalité virtuelle et augmentée

Samsung Project Moohan : son casque XR prêt à défier Apple et Meta

samsung project moohan

Après des mois de rumeurs, Samsung s’apprête à faire une entrée fracassante dans le secteur de la réalité étendue (XR). Avec Project Moohan, son tout premier casque XR, le géant sud-coréen veut défier frontalement Apple et Meta dans la course au “spatial computing”.

Voici tout ce qu’on sait déjà avant son lancement officiel prévu pour l’automne 2025.

Lancement officiel en septembre, teasing dès juillet

D’après le média coréen NewsPim, Samsung dévoilera officiellement son casque XR lors d’un événement Unpacked dédié en Corée du Sud le 29 septembre 2025. La commercialisation commencera dès le 13 octobre, d’abord en Corée, puis dans le reste du monde.

Avant cela, un avant-goût du casque sera présenté dès juillet 2025, lors de l’Unpacked dédié aux Galaxy Z Flip 7 et Fold 7. Samsung y montrera des prototypes et des vidéos du Project Moohan, une manière de tester la réaction du public et de préparer le terrain pour son produit XR.

Snapdragon XR2+ Gen 2 et écran Micro OLED : des specs premium

Le casque sera alimenté par la puce Qualcomm Snapdragon XR2+ Gen 2, spécifiquement conçue pour la réalité mixte. Il embarquera 16 Go de RAM et deux écrans Micro OLED haute fréquence, assurant une expérience visuelle fluide et nette.

Qualcomm Snapdragon XR2 Gen 2 of jpg

Déjà repéré sur Geekbench, l’appareil affiche des performances solides. Il fonctionnera sous Android XR, un système d’exploitation co-développé avec Google, compatible avec l’ensemble des applications Android existantes, et optimisé pour les interfaces immersives.

Galaxy AI intégré : vers un assistant spatial

Samsung entend aller plus loin que la simple XR : Galaxy AI sera intégré au casque, capable d’“analyser l’écran” en temps réel pour aider l’utilisateur à naviguer, créer du contenu ou interagir avec des apps de manière contextuelle.

Cette dimension pourrait donner un avantage concurrentiel majeur face à l’Apple Vision Pro, vendu 3 500 dollars mais critiqué pour son manque de contenus natifs, ou face au Meta Quest 3S, qui domine le marché avec une part de 84 % au T4 2024 grâce à son positionnement tarifaire agressif.

Un prix encore mystérieux… mais crucial

Le prix reste le grand mystère autour du Project Moohan. Samsung semble vouloir trouver un équilibre entre performance, accessibilité et contenu. Si l’entreprise parvient à proposer un tarif inférieur à celui d’Apple, avec une expérience plus complète que Meta, elle pourrait sérieusement bouleverser l’ordre établi.

Avec son premier casque XR, Samsung ne se contente pas d’un gadget technologique : Project Moohan est une offensive stratégique dans le futur de l’informatique spatiale. En combinant puissance matérielle, compatibilité Android, IA embarquée et lancement mondial, le constructeur sud-coréen vise clairement le sommet.

Rendez-vous en juillet pour le premier aperçu, et en septembre 2025 pour le lancement officiel. La guerre du spatial computing est lancée.

Lire plus
Réalité virtuelle et augmentée

Meta x Oakley : des lunettes connectées sportives révélées le 20 juin

Screenshot 2025 06 17 at 08.55.5

Après le succès retentissant des lunettes connectées Ray-Ban Stories, Meta poursuit son incursion dans le wearable tech avec une annonce de taille : un partenariat avec Oakley, l’un des leaders mondiaux de la lunetterie sportive et lifestyle.

L’objectif ? Concevoir une nouvelle paire de lunettes intelligentes, alliant design sportif et technologie de pointe, attendue pour une présentation officielle le 20 juin.

Des fonctionnalités dignes des Ray-Ban Meta

Bien que la vidéo teaser publiée sur la chaîne YouTube d’Oakley n’en dévoile que très peu, tout laisse penser que cette nouvelle paire héritera des principales fonctionnalités des lunettes Ray-Ban Meta. On peut donc s’attendre à retrouver :

  • Un assistant vocal Meta AI intégré,
  • Une ou plusieurs caméras pour capturer photos et vidéos en toute discrétion,
  • Des haut-parleurs intégrés dans les branches pour écouter de la musique, passer des appels ou entendre les réponses de l’IA,
  • Une connectivité fluide avec les smartphones via l’application Meta View.

Avec Oakley à la manœuvre côté design, ces lunettes pourraient bien séduire un public plus actif ou sportif, tout en démocratisant encore davantage l’usage des technologies portables au quotidien.

Rendez-vous le 20 juin

Ce partenariat entre Meta et Oakley n’est pas une surprise totale. Bloomberg avait déjà évoqué en janvier une collaboration en préparation, suggérant une volonté de Meta d’étendre son écosystème de lunettes connectées à travers des marques variées.

La date du 20 juin est désormais officielle pour la présentation complète du produit, et promet de lever le voile sur cette alliance entre style sportif et innovation.

Un marché des lunettes connectées en pleine effervescence

L’initiative de Meta s’inscrit dans un contexte de forte accélération dans le domaine des lunettes intelligentes. Apple planche sur des lunettes AR, tandis que Google développe Android XR, un système dédié à la réalité mixte. Le segment des wearables intelligents devrait ainsi connaître une nouvelle vague de produits d’ici la fin de l’année.

Avec cette collaboration inédite, Meta espère toucher un nouveau public adepte de style et de performance, tandis que.Oakley s’ouvre à un univers technologique ambitieux. Reste à voir si ce nouveau modèle pourra égaler — voire surpasser — le succès des Ray-Ban Meta. Réponse le 20 juin.

Lire plus
Réalité virtuelle et augmentée

Snap Specs : des lunettes de réalité augmentée grand public prévues pour 2026

Snap Specs : des lunettes de réalité augmentée grand public prévues pour 2026

Près d’une décennie après ses premiers essais, Snap s’apprête enfin à commercialiser une paire de lunettes de réalité augmentée (AR) destinée au grand public. C’est Evan Spiegel, PDG de la société, qui l’a confirmé lors de la conférence Augmented World Expo 2025 à Long Beach (Californie).

Ces nouvelles lunettes, appelées simplement Specs, arriveront sur le marché en 2026.

Des lunettes plus fines, plus légères… et plus intelligentes

Les Specs 2026 promettent une expérience AR immersive, avec des verres transparents capables d’afficher des éléments virtuels superposés à l’environnement réel. Par rapport aux anciennes Spectacles réservées aux développeurs, elles seront plus fines, plus légères et offriront un champ de vision élargi, rendant les interactions bien plus naturelles.

À l’intérieur, on retrouvera une intelligence artificielle intégrée capable d’interpréter ce que vous voyez et entendez en temps réel, sans que les données ne soient stockées sur des serveurs, un choix que Snap met en avant comme gage de respect de la vie privée.

Un écosystème déjà en place avec 400 000 développeurs

Snap bénéficie d’un avantage stratégique : sa communauté de développeurs, qui a déjà produit plus de 400 000 Lenses AR pour Snapchat et Spectacles. Ces expériences, allant de la traduction instantanée des menus à la reconnaissance d’objets dans la cuisine pour proposer des recettes, seront directement compatibles avec les Specs.

SnapOS, le système d’exploitation maison, sera enrichi d’outils pour la réalité mixte, avec des API multimodales basées sur les modèles d’OpenAI et de Google DeepMind, et un Depth Module API permettant d’ancrer des objets virtuels dans l’espace réel avec une précision accrue.

Vers une cartographie AR du monde

Snap ne s’arrête pas là. L’entreprise s’associe à Niantic Spatial — spin-off du studio derrière Pokémon Go — pour concevoir une carte intelligente du monde, pensée pour la navigation, la compréhension contextuelle et l’interaction des agents IA avec notre environnement.

Une alternative crédible à Meta et Apple ?

En 2016, Snap avait lancé ses premières Spectacles, mais l’échec commercial avait montré que le marché n’était pas encore prêt. Depuis, les temps ont changé : Meta cartonne avec ses Ray-Ban Meta, Apple développe toujours ses lunettes AR, et Google multiplie les partenariats avec Warby Parker et Samsung.

Snap parie sur une formule plus ambitieuse : des lunettes à écran transparent, enrichies par l’IA, et surtout dotées d’une vraie utilité au quotidien. Selon Spiegel, elles n’ont pas vocation à remplacer les smartphones dans l’immédiat, mais elles pourraient faire 10 fois mieux pour certaines tâches spécifiques, notamment dans les interactions en groupe ou la contextualisation des informations.

Mais à quel prix ?

Snap reste flou sur les détails essentiels. Aucune image officielle ni prix n’a été communiqué, bien que Spiegel ait laissé entendre que le tarif serait inférieur aux 3 499 dollars de l’Apple Vision Pro, tout en étant probablement plus élevé que les lunettes connectées Ray-Ban de Meta (300 dollars environ).

En annonçant dès maintenant son lancement pour 2026, Snap veut donner le temps aux développeurs de créer des expériences solides, tout en se positionnant comme un acteur sérieux face à Meta et Apple. Reste à voir si le public sera prêt à adopter ce type de produit, à condition qu’il soit utile, confortable… et abordable.

Lire plus
Réalité virtuelle et augmentée

Meta Aria Gen 2 : des lunettes connectées dopées à l’IA et prêtes pour le futur

meta aria gen 2

Meta continue de tracer sa route vers le futur de l’informatique avec les Aria Gen 2, une nouvelle génération de lunettes intelligentes conçues exclusivement pour la recherche. Ces lunettes ne sont pas destinées au grand public — du moins pas encore — mais leur technologie avancée pourrait bien préfigurer les innovations qui transformeront la réalité augmentée, l’intelligence artificielle et même la robotique dans les années à venir.

L’un des aspects les plus impressionnants des Aria Gen 2 réside dans leur système de suivi oculaire de nouvelle génération, capable de suivre le mouvement de chaque œil indépendamment, de détecter les clignements, et même d’estimer la position exacte de la pupille.

D’après Meta, ces capacités permettent de mieux comprendre l’attention visuelle et les intentions de l’utilisateur, ouvrant la voie à des formes d’interaction homme-machine bien plus intuitives.

Dans un contexte où les interfaces vocales et gestuelles dominent encore, ce suivi du regard pourrait devenir la clé de voûte de l’informatique spatiale et contextuelle.

Meta Aria Gen 2 : Un arsenal de capteurs pour des usages avancés

Les lunettes Aria Gen 2 ne se contentent pas d’analyser votre regard. Elles intègrent également quatre caméras de vision par ordinateur, destinées au suivi 3D des mains et des objets. Selon Meta, ces capteurs sont capables d’alimenter des expériences nécessitant une manipulation robotique fine, comme le contrôle d’un bras robotisé ou l’interaction avec des interfaces virtuelles.

En complément, la monture intègre :

  • Un capteur PPG dans le repose-nez, permettant d’estimer le rythme cardiaque.
  • Un microphone de contact amélioré, censé offrir un meilleur son en environnements bruyants.
  • Un capteur de lumière ambiante pour adapter les performances aux environnements intérieurs ou extérieurs.

Autrement dit, les lunettes deviennent une plateforme multisensorielle complète, à la croisée de la biométrie, de la vision assistée par IA, et de l’analyse comportementale.

503840852 1356809175421153 45775

Une plateforme réservée à la recherche, mais riche en promesses

Comme leur prédécesseur lancé en 2020, les Aria Gen 2 sont réservées à un usage exclusivement académique et expérimental. Meta ouvrira les candidatures pour les chercheurs plus tard dans l’année. Ces lunettes serviront de banc d’essai pour les futurs produits grand public, notamment dans la réalité augmentée.

Le format a été repensé pour plus de confort et de practicité : branches pliables, poids réduit à environ 75 grammes, et huit tailles disponibles pour s’adapter à différentes morphologies.

Meta ne cache pas son ambition : les Aria Gen 2 sont destinées à préparer le terrain pour les lunettes « Orion », un projet de réalité augmentée en collaboration potentielle avec Oakley, ainsi que pour les mystérieuses lunettes « Hypernova » qui intégreraient un véritable écran embarqué.

Vers une convergence entre réalité augmentée, IA et bien-être

Au-delà de la technique, l’approche de Meta illustre une vision bien plus large : celle d’un futur où nos lunettes ne seront plus de simples outils visuels, mais des assistants personnels hybrides capables d’anticiper nos besoins, de mesurer nos signaux biologiques, et d’interagir en temps réel avec des environnements physiques et numériques.

En intégrant la biométrie, la réalité augmentée, l’IA conversationnelle et la robotique dans un seul et même objet, Meta cherche à redéfinir l’ordinateur du futur : invisible, omniprésent, adaptatif.

Avec Aria Gen 2, Meta montre qu’il ne s’agit plus seulement de « lunettes connectées », mais bien d’une plateforme cognitive portable, dédiée à l’exploration des technologies qui façonneront l’avenir de l’interaction homme-machine. Certes, ces lunettes ne sont pas encore destinées au marché, mais elles envoient un signal fort : la révolution de la réalité augmentée ne passera pas par des écrans, mais par des interfaces invisibles et intelligentes.

Il ne reste plus qu’à voir comment ces recherches se traduiront en produits concrets dans les années à venir. Mais une chose est certaine : le futur des lunettes connectées est déjà en marche, et Meta compte bien en être le chef d’orchestre.

Lire plus
Réalité virtuelle et augmentée

Project Moohan : Le casque XR de Samsung et Google dévoilé sur Geekbench !

Project Moohan : Le casque XR de Samsung et Google dévoilé sur Geekbench !

Samsung se lance pleinement dans la réalité étendue (XR) avec un projet ambitieux : Project Moohan. Développé en partenariat avec Google, ce casque Android XR fait déjà parler de lui après son apparition sur Geekbench, dévoilant une fiche technique impressionnante.

Prévu pour concurrencer frontalement l’Apple Vision Pro, ce nouvel appareil pourrait bien redistribuer les cartes du marché de la réalité mixte.

Un processeur taillé pour la XR : Snapdragon XR2+ Gen 2 confirmé

Grâce à une fuite relayée par @yabhishekhd sur X, on sait désormais que le casque, référencé sous le nom SM-I610, sera propulsé par le Snapdragon XR2+ Gen 2 de Qualcomm. Ce processeur, annoncé début 2024, est conçu spécifiquement pour la réalité étendue, avec un ensemble de technologies avancées :

  • 6 cœurs Cortex-A78C, dont deux cadencés à 2,36 GHz
  • GPU Adreno 740
  • Wi-Fi 7 à faible latence
  • Foveated rendering, Space Warp, et pass-through couleur à 12 ms

Côté mémoire, Project Moohan embarquerait 16 Go de RAM et tournerait sous Android 14, dans une version spécialement adaptée à la XR (probablement baptisée Android XR OS).

Interface repensée : contrôle gestuel et affichage immersif

Le système Android XR apportera une interface optimisée pour la réalité mixte :

  • Affichage de bureau virtuel
  • Contrôle par les mains (sans manette)
  • Intégration avancée de l’IA Gemini : à Google I/O 2025, une démo montrait l’IA identifiant un arbre en réalité augmentée et donnant des informations contextuelles.

Ces éléments soulignent l’objectif de Google et Samsung : créer un assistant XR intelligent, et pas simplement un casque de divertissement.

Et après ? Deux autres projets XR : Haean et Jinju

Samsung ne s’arrête pas là. Deux autres projets, Project Haean et Project Jinju, sont également en cours. Ces derniers, repérés sous le numéro SM-I130, utiliseraient le même Snapdragon XR2 Gen 2 et 16 Go de RAM, tout en adoptant un format plus compact proche de lunettes connectées.

Cela laisse penser que Samsung ambitionne de proposer des lunettes de réalité augmentée performantes, capables de délivrer une expérience immersive tout en étant élégantes et légères.

Lancement possible dès l’événement Galaxy Unpacked (été 2025)

01CADC4DBECEAF33AF8B87EF0CE3157E

Si aucune date officielle n’a été confirmée, les rumeurs suggèrent que Project Moohan pourrait être présenté dès le prochain Galaxy Unpacked, prévu entre juin et juillet. L’occasion rêvée pour Samsung de présenter ses nouveaux Galaxy Z Fold et Z Flip, accompagnés d’un casque XR haut de gamme.

Avec Project Moohan, Samsung ne se contente plus de suivre la tendance : la marque souhaite jouer dans la cour des grands, aux côtés d’Apple, Meta et Google. Grâce à une puissance matérielle de haut niveau, un OS dédié et une intégration IA poussée, le duo Samsung-Google semble bien décidé à imposer Android XR comme un standard ouvert et performant dans l’univers de la réalité étendue.

Les premiers tests publics sont prometteurs, et les mois à venir pourraient marquer un tournant dans l’adoption grand public de la XR.

Lire plus
Réalité virtuelle et augmentée

Apple lancera ses lunettes connectées en 2026 : Siri à bord, pas d’AR (pour l’instant) !

apple smartglasses launch 2026 r

Apple serait en train de finaliser le développement de sa toute première paire de lunettes connectées, selon un rapport de Bloomberg. La firme de Cupertino pourrait lancer ce nouvel appareil dès l’année prochaine, avec une ambition claire : mélanger design élégant, assistant vocal et fonctionnalités intelligentes… sans aller trop vite sur la réalité augmentée.

D’après les sources citées, ces lunettes seraient équipées de caméras, de microphones et de haut-parleurs intégrés, leur permettant :

  • d’analyser l’environnement extérieur en temps réel,
  • de répondre à des commandes vocales via Siri,
  • de prendre des appels téléphoniques,
  • de contrôler la lecture de musique,
  • d’effectuer des traductions en direct,
  • ou encore de fournir des indications de navigation à l’utilisateur.

On apprend également que Apple intégrerait une puce maison (Apple Silicon) dans le produit, une stratégie similaire à celle adoptée pour les Mac et les iPhone. En revanche, la réalité augmentée ne serait pas encore au programme de cette première version : cette technologie devrait arriver plus tard, dans un produit plus évolué.

Un concurrent direct des Ray-Ban Meta… mais en plus haut de gamme

Selon Bloomberg, les lunettes connectées d’Apple seraient conçues pour rivaliser avec les Ray-Ban Meta, déjà vendues à plus d’un million d’exemplaires en 2023. Mais la marque à la pomme viserait clairement un positionnement plus premium, fidèle à son image, avec des matériaux plus soignés et une meilleure finition.

Pour mémoire, les Ray-Ban Meta offrent déjà des fonctions d’appel, d’enregistrement vidéo, d’assistance vocale avec Meta AI, et même de diffusion en direct. Apple voudrait s’en inspirer, tout en y apportant sa propre touche logicielle, notamment grâce à l’intégration poussée de Siri et de son écosystème (iPhone, AirPods, Apple Music, Plans…).

Une annonce qui tombe juste après le duo Altman/Ive

Cette révélation coïncide avec l’annonce fracassante de Sam Altman (OpenAI) et Jony Ive (ex-designer en chef chez Apple), qui ont révélé cette semaine leur projet d’un dispositif intelligent sans écran, capable d’interagir vocalement et visuellement avec l’utilisateur. Leur première création est attendue en 2026, tout comme les lunettes d’Apple.

Une concurrence frontale se profile donc entre les ambitions de Jony Ive, désormais en solo, et son ancienne maison mère. Et avec Google, Samsung, Xreal et Warby Parker qui travaillent eux aussi sur des lunettes connectées dotées d’IA via la plateforme Android XR, le marché des wearables intelligents s’annonce en ébullition.

Apple abandonne sa montre avec caméra, mais pas les AirPods intelligents

Par ailleurs, Bloomberg indique que Apple aurait abandonné un autre projet en cours : une Apple Watch dotée de caméras et de fonctionnalités d’IA visuelle, jugée trop ambitieuse dans l’état actuel de la technologie.

En revanche, le développement de nouveaux AirPods équipés de caméras et de capteurs intelligents se poursuivrait. Ces futurs écouteurs pourraient offrir des interactions gestuelles, de la reconnaissance contextuelle ou des fonctions liées à la réalité assistée, sans écran.

Avec ces lunettes connectées, Apple semble préparer le terrain pour une nouvelle génération de dispositifs portables, plus discrets que le casque Vision Pro mais toujours connectés à son écosystème. En misant d’abord sur la voix, l’audio et la reconnaissance environnementale, la marque adopte une approche progressive avant d’introduire des fonctionnalités de réalité augmentée plus poussées.

Le marché des lunettes intelligentes pourrait bien devenir le nouveau champ de bataille des géants de la tech, avec Apple, Meta, OpenAI, Google et Samsung, qui affûtent leurs armes pour 2026. Reste à savoir si ces appareils sauront convaincre le grand public… ou resteront un gadget de niche.

Lire plus
Réalité virtuelle et augmentée

Google I/O 2025 : Xreal et Google, le futur de la réalité étendue s’appelle Project Aura

Google I/O 2025 : Xreal et Google, le futur de la réalité étendue s'appelle Project Aura

Lors de la conférence Google I/O 2025, la firme de Mountain View a officialisé son retour dans l’univers des lunettes intelligentes. Et cette fois, elle ne le fait pas seule. En partenariat avec Xreal (anciennement Nreal), Google a présenté Project Aura, une nouvelle paire de lunettes XR immersives tournant sous Android XR et intégrant Gemini — son assistant IA maison.

Project Aura devient ainsi le deuxième appareil Android XR officiel après le casque Project Moohan développé avec Samsung. Mais contrairement à ce dernier, qui vise la réalité mixte haut de gamme à la façon d’un Apple Vision Pro, Project Aura adopte une approche plus légère, mobile et accessible.

Ces lunettes s’inscrivent dans la lignée des produits existants de Xreal, comme les Xreal One ou Xreal Air, qui permettent déjà de projeter l’écran d’un smartphone ou d’un ordinateur directement dans votre champ de vision, tout en contrôlant l’opacité pour s’isoler (ou non) de son environnement réel. Project Aura s’en inspire clairement… tout en marquant une nette évolution matérielle.

Un design affiné, pensé pour l’usage quotidien

Les rendus dévoilés laissent entrevoir un produit plus ambitieux que les générations précédentes :

  • Caméras intégrées dans les branches et le pont nasal, permettant une meilleure interaction avec l’environnement
  • Microphones intégrés, probablement pour les commandes vocales via Gemini
  • Boutons physiques sur les branches, signe d’un certain degré de contrôle direct
  • Grand champ de vision, annoncé comme un des points forts de l’appareil

Si le design reste assez proche de lunettes de soleil « tech », on sent une volonté de rendre l’appareil plus ergonomique, plus discret et plus immersif.

Gemini embarqué : l’IA de Google au cœur de l’expérience

Comme pour Project Astra (le modèle multimodal temps réel dévoilé récemment), Google fait de Gemini le cœur stratégique de ses futurs appareils personnels. Project Aura permettra ainsi :

  • Des interactions naturelles via la voix
  • Une compréhension contextuelle via les caméras
  • Une expérience mains libres assistée par l’intelligence artificielle

L’idée ? Un assistant proactif qui perçoit ce que vous voyez, comprend ce que vous dites, et vous répond dans le contexte de votre environnement. Une évolution logique de ce que Google propose déjà sur smartphone… en bien plus immersif.

Un OS Android XR, pensé pour la modularité

Comme avec Wear OS pour les montres, Google fournit ici la plateforme logicielle — Android XR — tandis que les partenaires s’occupent du matériel. Le modèle est clair : laisser des constructeurs comme Xreal proposer plusieurs formes et déclinaisons, tout en assurant une cohérence logicielle autour de Gemini et Android XR.

Google précise d’ailleurs que les applications conçues pour les casques XR (comme le Project Moohan) pourront être portées facilement vers Project Aura, avec des adaptations minimales pour le nouveau facteur de forme.

Une disponibilité encore floue, mais un AWE 2025 à surveiller

Les détails techniques restent pour l’instant limités :

  • Puce Qualcomm optimisée XR (pas encore précisée)
  • Fonctionnalités IA embarquées grâce au cloud Google
  • Expérience « optical see-through », donc avec vision directe de l’environnement, contrairement à la VR

Xreal promet de révéler plus d’informations lors du salon Augmented World Expo (AWE) en juin. On devrait notamment en apprendre davantage sur les spécificités matérielles, l’autonomie, la compatibilité applicative, et peut-être même une fenêtre de sortie pour les développeurs ou early adopters.

Avec Project Aura, Google revient dans la course aux lunettes intelligentes, mais avec une stratégie plus humble et plus mature qu’à l’époque des Google Glass. En confiant le matériel à des partenaires expérimentés comme Xreal, et en se concentrant sur l’IA embarquée et l’OS, la firme évite les écueils du passé tout en surfant sur la vague actuelle des agents intelligents, incarnée par Project Astra.

L’objectif semble clair : faire des lunettes XR le prochain terminal naturel pour l’IA de Google, et une porte d’entrée vers une informatique plus contextuelle, plus humaine, et plus assistée.

À suivre de près lors de l’AWE 2025, puis d’ici fin 2025 pour les premiers modèles grand public.

Lire plus
Réalité virtuelle et augmentée

Vision Pro : Défilez par la pensée ! Le contrôle oculaire arrive !

Vision Pro : Défilez par la pensée ! Le contrôle oculaire arrive !

Apple continue de miser gros sur son casque Vision Pro, et les rumeurs les plus récentes laissent penser que l’entreprise entend bien pousser plus loin l’expérience utilisateur.

D’après un rapport signé Mark Gurman, une nouvelle fonctionnalité de défilement oculaire est actuellement en test, et pourrait faire ses débuts avec visionOS 3, dès la WWDC 2025 prévue le 9 juin prochain.

Défilement oculaire : une interface pensée pour le regard

Le principe est simple, mais terriblement futuriste : grâce au système de suivi oculaire déjà intégré au Vision Pro, les utilisateurs pourront faire défiler des éléments simplement en les regardant. Il suffira ensuite de pincer les doigts pour valider une sélection.

Cette interaction minimaliste permettrait une navigation bien plus fluide, sans avoir à bouger les mains constamment ou à chercher des menus avec des gestes complexes.

Apple envisage de rendre cette fonctionnalité disponible dans toutes les applications natives de visionOS, mais aussi d’en ouvrir l’accès aux développeurs tiers, ce qui promet une adoption rapide au sein de l’écosystème.

Une interface visionOS en pleine évolution

Le défilement oculaire ne sera pas la seule nouveauté de visionOS 3. En parallèle, Apple a récemment présenté de nouvelles fonctionnalités d’accessibilité pour l’ensemble de ses plateformes, y compris le Vision Pro. Parmi les ajouts les plus notables :

  • Zoom automatique sur les objets regardés, grâce à la caméra principale.
  • VoiceOver enrichi, capable de décrire l’environnement, identifier des objets, lire des documents, et plus encore.

Ces mises à jour confirment la volonté d’Apple de rendre l’expérience Vision Pro plus intuitive, inclusive et immersive.

Une navigation intuitive, inspirée de notre propre comportement

Ce genre de nouveauté s’inscrit dans la tendance actuelle d’Apple à s’inspirer des interactions naturelles. Le suivi du regard couplé à des gestes simples représente une évolution logique dans les interfaces utilisateur immersives. Le but ? Réduire l’apprentissage de la navigation à son strict minimum, pour une prise en main quasi instantanée.

Ce système pourrait notamment s’avérer particulièrement utile dans des scénarios professionnels ou créatifs, où la précision et la rapidité sont essentielles — que ce soit pour le montage vidéo, la visualisation 3D ou la navigation dans un environnement d’entreprise virtuel.

WWDC 2025 : une keynote très attendue

La prochaine WWDC s’annonce particulièrement riche. En plus de visionOS 3 et du défilement oculaire, Apple pourrait également dévoiler :

  • Deux nouveaux modèles de Vision Pro, dont un plus accessible.
  • De nouvelles applications immersives compatibles Mac/Vision Pro.
  • Des améliorations système liées à l’IA générative sur l’ensemble de ses plateformes.

Toutes les annonces devraient être faites lors de la keynote du 9 juin 2025.

Apple n’a pas inventé le suivi oculaire, mais l’entreprise semble bien partie pour en faire un standard d’interaction dans l’univers de la réalité mixte. Avec ce système de navigation par les yeux, le Vision Pro pourrait franchir un cap majeur en matière d’ergonomie et d’accessibilité.

Reste à savoir si cette technologie sera aussi fluide et précise que promis, et surtout si elle pourra s’adapter à tous les usages. Une chose est sûre : l’avenir de la réalité mixte se jouera autant avec les yeux qu’avec les mains.

Lire plus
Réalité virtuelle et augmentée

Des lunettes qui vous reconnaissent ? Meta prépare sa « super vision » IA !

Des lunettes qui vous reconnaissent ? Meta prépare sa « super vision » IA !

Meta, déjà bien présent sur le marché de la réalité augmentée avec ses lunettes connectées Ray-Ban Meta, semble prêt à passer à la vitesse supérieure.

Selon des révélations de The Information, Meta travaillerait actuellement sur deux nouvelles paires de lunettes connectées, avec des capacités bien plus avancées que celles disponibles aujourd’hui. Leur nom de code ? Aperol et Bellini.

Une « super vision » basée sur l’IA

Ces nouveaux modèles embarqueront un logiciel de vision surpuissant, capable de reconnaître des visages, détecter des objets et comprendre le contexte de votre environnement. Grâce à ce système baptisé « super sensing », les lunettes pourront par exemple :

  • vous rappeler le nom d’une personne que vous croisez,
  • vous alerter si vous oubliez vos clés en quittant votre domicile,
  • ou vous suggérer de passer à la laverie en rentrant chez vous.

Pour y parvenir, les caméras et capteurs embarqués seront toujours actifs, créant une analyse continue de votre environnement. Cette capacité nécessite évidemment une grande puissance de traitement, mais aussi… un certain compromis sur la vie privée.

La vie privée repensée pour entraîner l’IA

Pour mettre en œuvre cette vision futuriste, Meta a mis à jour sa politique de confidentialité afin d’autoriser une collecte plus poussée de données personnelles, destinées à l’entraînement de ses modèles d’IA. Cette révision suscite déjà des inquiétudes, car elle implique que les lunettes pourraient potentiellement filmer ou enregistrer en continu, avec tout ce que cela implique en matière de surveillance et de respect des libertés individuelles.

L’autonomie, un obstacle encore non résolu

Meta teste actuellement certaines de ces fonctions sur les lunettes intelligentes déjà commercialisées, mais le constat est clair : la batterie chute drastiquement dès que la super vision est activée, limitant l’autonomie à environ 30 minutes.

Cela reste l’un des principaux défis techniques à relever avant un lancement grand public. Meta semble miser sur des avancées rapides en matière de miniaturisation, d’optimisation énergétique et de traitement embarqué pour corriger ce défaut d’ici la sortie.

hero

Des écouteurs avec caméra en développement

En parallèle des lunettes Aperol et Bellini, Meta travaillerait également sur des écouteurs intégrant une caméra, sans doute destinés à compléter l’expérience immersive de ses futurs appareils. L’objectif semble être de multiplier les points de capture de votre environnement pour renforcer les capacités d’analyse contextuelle de son IA embarquée.

À l’heure actuelle, Meta n’a communiqué aucune date officielle pour ces lunettes de nouvelle génération. Cependant, les sources évoquent une possible sortie fin 2025 ou début 2026, ce qui laisserait le temps au groupe de finaliser le hardware, de peaufiner l’expérience utilisateur… et d’anticiper les controverses éthiques à venir.

Date de sortie estimée : fin 2025 ?

Avec ses lunettes Aperol et Bellini, Meta ambitionne rien de moins que de révolutionner notre rapport au monde à travers des interfaces toujours plus contextuelles, proactives et invisibles. Mais cette vision soulève également de nombreuses questions de société : sommes-nous prêts à être assistés — et surveillés — en permanence par des appareils toujours actifs ?

Entre innovation radicale et préoccupations éthiques, ces lunettes de super vision pourraient bien devenir le symbole le plus clivant de la prochaine vague d’objets connectés.

Lire plus
Réalité virtuelle et augmentée

Apple : Ses lunettes connectées arrivent ! Puces maison et réalité augmentée ?

Apple : Ses lunettes connectées arrivent ! Puces maison et réalité augmentée ?

Apple intensifie ses efforts dans le domaine des lunettes connectées, avec des avancées notables dans le développement de puces spécialisées destinées à ses futurs modèles de lunettes connectées.

Selon Bloomberg, ces puces, dérivées de celles utilisées dans l’Apple Watch, sont conçues pour gérer plusieurs caméras tout en maintenant une faible consommation d’énergie. La production de masse est prévue pour la fin de 2026 ou 2027, suggérant un lancement potentiel des lunettes dans cette période.

Apple travaillerait sur deux versions de ses lunettes : une avec réalité augmentée (AR) et une sans. La version sans AR, portant le nom de code N401, serait analogue aux lunettes Ray-Ban Meta, offrant des fonctionnalités telles que la prise de photos, le contrôle des appels et l’assistance vocale. La version AR viserait à fournir une expérience immersive, bien que sa sortie soit prévue plus tard en raison de défis techniques.

Le principal défi pour Apple est de concevoir une puce capable de gérer de multiples entrées de caméras et capteurs, tout en restant légère et économe en énergie. Pour surmonter ces obstacles, Apple envisage de déporter une partie du traitement vers l’iPhone de l’utilisateur, réduisant ainsi la charge sur les lunettes elles-mêmes.

Intégration avec d’autres appareils Apple

Apple développe également des puces pour des versions équipées de caméras de l’Apple Watch et des AirPods, nommées respectivement “Nevis” et “Glennie”. Ces dispositifs pourraient collaborer avec les lunettes pour offrir une expérience utilisateur enrichie, en partageant des données et en améliorant la perception de l’environnement.

Bien qu’aucune date officielle n’ait été annoncée, les rapports suggèrent que les lunettes pourraient être commercialisées dès la fin de 2026. Apple semble viser une entrée sur le marché grand public avec un produit compétitif face aux lunettes Ray-Ban Meta, tout en poursuivant le développement de versions plus avancées à long terme.

Objectif de lancement et stratégie de marché

En résumé, Apple progresse dans le développement de ses lunettes connectées, en se concentrant sur des solutions techniques innovantes pour offrir une expérience utilisateur optimale. Avec des puces spécialisées et une intégration étroite avec son écosystème existant, Apple pourrait bien redéfinir le marché des lunettes intelligentes dans les années à venir.

 

Lire plus
Réalité virtuelle et augmentée

Concurrence pour Meta : Les lunettes connectées d’Apple arrivent en 2027 avec Apple Intelligence

Concurrence pour Meta : Les lunettes connectées d'Apple arrivent en 2027 avec Apple Intelligence

Alors que Meta rencontre un succès croissant avec ses lunettes connectées développées en partenariat avec Ray-Ban, Apple travaille activement sur sa propre alternative pour s’imposer dans ce nouveau marché prometteur. Selon Mark Gurman de Bloomberg, souvent bien informé sur les projets secrets de Cupertino, Apple continue de développer ses lunettes connectées connues en interne sous le nom de code N50.

Des lunettes propulsées par Apple Intelligence

Le concept derrière les futures lunettes d’Apple est clair : intégrer Apple Intelligence directement à portée de regard. Avec l’essor de l’intelligence artificielle générative et l’arrivée des fonctionnalités Apple Intelligence dans l’écosystème iOS, iPadOS et macOS, il est logique que la firme cherche à décliner cette technologie dans un accessoire portable ultra-léger.

L’objectif serait de fournir des informations contextuelles en temps réel : directions de navigation, accès à Siri, notifications de transport public, rappels importants… le tout sans avoir besoin de sortir son iPhone de sa poche.

Toutefois, il ne s’agira pas d’une expérience de réalité augmentée complète, précise Gurman. L’idée est de créer un assistant d’information portable, plus proche des lunettes Ray-Ban Meta actuelles que d’un véritable casque immersif, comme l’Apple Vision Pro.

Pas de lancement imminent

Si l’engouement est là, il faudra toutefois faire preuve de patience. Gurman indique que le projet n’est pas encore prêt pour la commercialisation. Actuellement, la fenêtre de lancement envisagée serait aux alentours de 2027. Cela laisse à Apple le temps d’affiner sa technologie et de peaufiner l’expérience utilisateur.

Apple n’est pas connue pour être la première à dégainer sur un nouveau marché — elle préfère souvent attendre et proposer une solution mûre et différenciante. Un pari qui a déjà porté ses fruits avec l’iPhone, l’Apple Watch et les AirPods.

S’inspirer du Vision Pro… sans tomber dans la complexité

Même si les lunettes intelligentes et la réalité augmentée restent des concepts distincts, il est probable que Apple reprenne certaines idées du Vision Pro pour enrichir l’expérience de ses lunettes connectées.

On peut ainsi imaginer des gestes de navigation simples, des commandes vocales intelligentes, voire des notifications discrètes intégrées directement dans le champ de vision. L’objectif serait de proposer une utilisation naturelle et fluide, fidèle à l’ADN de la marque.

La pression de la concurrence

Pendant ce temps, Meta continue de tracer sa route. Avec ses Ray-Ban Meta, qui misent sur un design séduisant et des fonctionnalités audio avancées, la firme de Mark Zuckerberg a su séduire un large public. Et dès 2025, une nouvelle génération de lunettes Meta intégrant un écran d’affichage devrait voir le jour.

Cela mettra une pression supplémentaire sur Apple, mais, fidèle à ses habitudes, la marque ne précipitera pas ses plans. Mieux vaut arriver plus tard avec un produit vraiment abouti que de se précipiter pour rattraper la concurrence.

Les lunettes connectées Apple restent un projet ambitieux, mais lointain. Tandis que Meta continue d’innover rapidement, Apple peaufine son approche en misant sur l’intégration de l’IA et l’expérience utilisateur. Le résultat final pourrait bien redéfinir une fois encore une catégorie de produits, comme Apple l’a déjà fait dans le passé. Mais pour l’instant, la patience est de mise.

Lire plus