Apple pourrait bien être en train de transformer ses écouteurs premium en quelque chose de plus vaste qu’un simple accessoire audio. Selon une nouvelle fuite partagée par Kosutami Ito, la prochaine génération d’AirPods Pro intégrerait de minuscules « caméras », ou plus précisément des capteurs infrarouges (IR) capables de « voir autour de vous ».
Et, le détail qui fait lever un sourcil : le prix resterait identique à celui du modèle actuel, d’après le même leaker.
Des « caméras » qui ne filment pas : pourquoi l’IR change tout
On parle ici d’IR, pas d’un module photo classique. L’objectif ne serait pas de capturer des images ou des vidéos, mais de récupérer des informations spatiales : distance, mouvement, position de la tête et des mains, éléments de contexte. C’est exactement le type de données qui nourrit la vision « spatial computing » d’Apple — et qui rappelle, dans l’esprit, certains capteurs utilisés pour le suivi et la perception sur Vision Pro.
Cette rumeur ne sort pas de nulle part : l’analyste Ming-Chi Kuo évoquait déjà des AirPods équipés de modules « caméra » entrant en production de masse en 2026, avec une logique de capteurs IR plutôt que de caméras grand public.
Next AirPods Pro can see around you. At same price avail.
— Kosutami (@Kosutami_Ito) February 8, 2026
À quoi serviraient ces capteurs dans la vraie vie ?
La fuite ne détaille pas toutes les fonctionnalités, mais plusieurs scénarios reviennent de manière cohérente dans les rapports et analyses :
- Spatial Audio plus précis : un suivi de tête et d’environnement plus fin, notamment en tandem avec Vision Pro (ou de futurs appareils « spatiaux »).
- Reconnaissance de gestes : capter des mouvements de main/doigts pour déclencher des actions sans toucher l’écouteur, avec une latence et une robustesse supérieures aux contrôles tactiles.
- Audio adaptatif « plus intelligent » : ajuster la transparence, l’ANC et le rendu en fonction du contexte (proximité, mouvement, changements d’environnement) avec plus de granularité que les heuristiques actuelles. (C’est une déduction logique du type de capteurs, pas une promesse confirmée.)
- Accessibilité/navigation : à terme, Apple pourrait croiser ces signaux pour proposer des aides contextuelles. Gurman a déjà décrit la direction générale : « caméras externes + IA » pour comprendre le monde et fournir des infos utiles.
Le point le plus surprenant : « au même prix »
Kosutami Ito affirme que ces AirPods Pro « qui voient » arriveraient au même prix que le modèle actuel. MacRumors rapporte même la référence explicite à 249 dollars dans cette assertion — ce qui contredit d’autres scénarios plus anciens où une variante « plus premium » aurait coexisté à un tarif supérieur.
Deux lectures possibles :
- Apple considère ces capteurs comme un pilier de la nouvelle expérience AirPods, pas comme une option luxe.
- Apple compense le coût ailleurs (optimisation BOM, volumes, marges sur services/écosystème).
Des AirPods qui deviennent une extension d’Apple Intelligence
Le mouvement est très « Apple 2026 » : déporter l’intelligence hors de l’iPhone et rendre les wearables plus contextuels. Des AirPods capables de capter l’environnement (même sans « voir » au sens photo) ouvrent une porte séduisante : moins de commandes, moins de frictions, plus d’automatismes — et une meilleure cohérence avec le récit « spatial computing ».
Reste l’obstacle majeur : la confiance. Même en IR, l’idée d’écouteurs « équipés de capteurs visuels » déclenchera forcément des questions de vie privée. Apple devra être très clair sur ce qui est mesuré, stocké, et traité localement.
Pour l’instant, on en est encore au stade rumeur — mais une rumeur qui s’aligne, pour une fois, avec des éléments plus anciens (Kuo, Gurman) et une trajectoire de produit crédible.



