fermer
Réalité virtuelle et augmentée

Meta ajoute un mode d’amplification des conversations à ses lunettes connectées

Meta ajoute un mode d’amplification des conversations à ses lunettes connectées
Meta ajoute un mode d’amplification des conversations à ses lunettes connectées

Meta continue d’affiner l’utilité concrète de ses lunettes connectées. Le groupe a annoncé une nouvelle mise à jour logicielle qui apporte deux fonctionnalités inédites à ses Ray-Ban Meta et Oakley Meta HSTN avec un mode de mise en avant des conversations pour mieux entendre son interlocuteur dans les environnements bruyants, et une intégration enrichie de Spotify, capable de lancer de la musique en fonction de ce que l’utilisateur regarde.

Dans un premier temps, la fonction d’amplification vocale sera disponible aux États-Unis et au Canada, tandis que la nouveauté Spotify sera déployée dans de nombreux pays.

Un mode « conversation » pour mieux entendre… sans écouteurs

La nouveauté la plus prometteuse est sans doute le Conversation Focus, un mode annoncé pour la première fois lors de la conférence Meta Connect plus tôt cette année.

Concrètement, les lunettes utilisent leurs haut-parleurs open-ear et des traitements audio pilotés par l’IA pour amplifier la voix de la personne en face, tout en atténuant les bruits environnants. L’objectif : faciliter les échanges dans des contextes difficiles comme un restaurant bondé, un bar ou un club, les transports en commun, ou tout autre lieu à forte pollution sonore.

Conversation Focus Thumbnail

Meta précise que l’utilisateur pourra ajuster le niveau d’amplification en faisant glisser le doigt sur la branche droite des lunettes, ou via les paramètres de l’app associée.

Cette granularité permet d’adapter finement le rendu sonore selon l’environnement réel.

Une approche qui rappelle celle d’Apple… sans être médicale

Reste à voir l’efficacité réelle de cette technologie dans des conditions du quotidien. Mais, l’idée n’est pas nouvelle dans l’univers des accessoires intelligents.

Apple, par exemple, propose déjà sur les AirPods une fonction Conversation Boost, destinée à mieux capter la voix d’un interlocuteur. Les AirPods Pro sont même allés plus loin récemment, avec l’ajout d’un mode aide auditive de niveau clinique, soumis à validation réglementaire.

Chez Meta, la promesse est différente : il ne s’agit pas d’un dispositif médical, mais d’un outil d’assistance contextuelle, intégré à des lunettes connectées grand public.

Spotify s’invite dans le champ de vision

Autre nouveauté, plus légère mais révélatrice de la stratégie de Meta : une interaction plus directe entre ce que l’utilisateur voit et ce qu’il peut faire.

Grâce à une mise à jour de l’intégration Spotify, les lunettes peuvent désormais lancer automatiquement de la musique en fonction de la scène observée :

  • regarder une pochette d’album → jouer un titre de l’artiste,
  • fixer un sapin de Noël et des cadeaux → lancer une playlist de fêtes,
  • observer un lieu ou une ambiance → suggérer une musique cohérente.

Cette fonctionnalité tient davantage du gadget expérimental, mais elle illustre la vision de Meta : connecter la perception visuelle à des actions instantanées dans les applications.

Disponibilité et déploiement progressif

Les deux nouveautés arrivent via la mise à jour logicielle v21 des lunettes Meta.

  • Le mode Conversation Focus est limité aux États-Unis et au Canada.
  • La fonctionnalité Spotify est proposée en anglais dans de nombreux pays, dont : Australie, Autriche, Belgique, Brésil, Canada, Danemark, Finlande, France, Allemagne, Inde, Irlande, Italie, Mexique, Norvège, Espagne, Suède, Émirats arabes unis, Royaume-Uni et États-Unis.

Dans un premier temps, la mise à jour sera accessible uniquement aux membres du Meta Early Access Program, sur inscription et validation. Un déploiement plus large est prévu ultérieurement.

Des lunettes de plus en plus « assistantes »

Avec ces ajouts, Meta poursuit une stratégie claire : faire de ses lunettes connectées autre chose qu’un simple gadget photo ou vidéo. En améliorant l’audition contextuelle et en reliant la vision à des actions intelligentes, le groupe cherche à transformer ces accessoires en compagnons discrets du quotidien, capables d’assister sans isoler.

Si la promesse est tenue sur le terrain, ces fonctionnalités pourraient marquer une étape importante dans l’adoption des lunettes connectées… à condition que l’expérience soit réellement convaincante, et non simplement spectaculaire.

Tags : MetaRay-Ban Meta
Yohann Poiron

The author Yohann Poiron

J’ai fondé le BlogNT en 2010. Autodidacte en matière de développement de sites en PHP, j’ai toujours poussé ma curiosité sur les sujets et les actualités du Web. Je suis actuellement engagé en tant qu’architecte interopérabilité.