Apple semble enfin sortir ses lunettes connectées du tiroir des « projets éternels ». D’après les informations de Bloomberg (Mark Gurman), la firme a accéléré le développement de trois wearables IA — des lunettes connectées, des AirPods avec caméras, et un pendentif/pin — tous pensés comme des extensions de Siri, capables d’utiliser le contexte visuel pour agir.
Deux caméras : le détail matériel qui change l’ambition
Le point le plus marquant dans le reporting, c’est l’idée d’une paire de lunettes avec deux caméras. Plusieurs reprises expliquent que l’une servirait à la capture photo/vidéo, tandis que l’autre serait dédiée aux tâches de computer vision (perception de profondeur, compréhension de scène, assistance « en temps réel »).
C’est cohérent avec la direction « Visual intelligence » évoquée depuis des mois : l’IA ne doit plus seulement répondre, elle doit voir ce que l’utilisateur voit — et transformer cette perception en actions utiles.
Bloomberg décrit des lunettes conçues comme un wearable léger et quotidien, plutôt qu’un casque. L’esthétique serait premium, avec des matériaux/finishes « haut de gamme » et plusieurs styles de montures testés. L’idée est stratégique : Apple ne cherche pas à remplacer Vision Pro, mais à installer un second produit, plus socialement acceptable, plus « invisible », et potentiellement plus mass market.
Un écosystème de capteurs : lunettes + AirPods caméra + pendentif
Le point clé du papier Bloomberg, c’est la logique d’ensemble : Apple assemblerait une constellation d’objets (lunettes, AirPods avec caméras, pendant) qui enrichissent Siri via des capteurs permanents — une sorte de réseau « yeux et oreilles » pour l’iPhone. Cette approche est plus intéressante qu’un gadget isolé : au lieu de parier sur un appareil magique, Apple parie sur une IA ambiante distribuée, où chaque objet apporte une partie du contexte.
Sur le calendrier, les sources qui reprennent Bloomberg évoquent une trajectoire vers 2027 (production/industrialisation avant, lancement après), ce qui cadre avec l’idée d’un produit avancé mais encore en maturation (poids, autonomie, confort, placement batterie).
Pourquoi ces lunettes pourraient compter plus que les « fonctionnalités IA » sur iPhone
Le smartphone a déjà une IA. Le problème, c’est qu’elle reste souvent enfermée dans des apps et des écrans. Les lunettes, elles, promettent une rupture d’interface : le contexte devient l’UI.
Si Apple réussit, les bénéfices sont évidents :
- navigation plus naturelle (repères réels plutôt que mètres)
- traduction et lecture de panneaux « dans le flux »
- accessibilité (reconnaissance d’objets/lieux)
- mémo/notes et actions rapides sans sortir le téléphone
Le risque est tout aussi clair : la caméra « toujours là » impose une exigence de confiance (contrôles physiques, indicateurs, traitement local, permissions). Apple sait jouer cette carte, mais sur des lunettes, la tolérance sociale est bien plus faible que sur un smartphone.



