Des chercheurs de POSTECH ont mis au point un wearable capable de convertir des mouvements infimes du cou en parole synthétisée. Le dispositif, publié dans Cyborg and Bionic Systems, repose sur un capteur souple porté au niveau du cou, combinant mini-caméra, silicone flexible et marqueurs visuels pour cartographier les micro-déformations de la peau.
Lire la voix avant qu’elle ne devienne un son
L’idée est aussi simple que fascinante : même lorsqu’une personne parle sans émettre de son, les muscles du cou bougent. Ces signaux invisibles deviennent une sorte d’empreinte mécanique du mot prononcé.
L’IA analyse ensuite ces motifs de tension, les décode, puis les associe à un modèle de synthèse vocale personnalisé. Résultat : le système peut générer une voix proche de celle de l’utilisateur, sans microphone ni vocalisation réelle.
Une alternative plus légère aux systèmes médicaux actuels
Contrairement aux approches basées sur l’EEG ou l’EMG, souvent lourdes et peu adaptées au quotidien, ce capteur optique se veut plus portable et confortable. Les premiers tests montrent une reconnaissance de 85,8 % sur 26 mots prédéfinis, même avec un bruit de fond élevé ; la précision chute toutefois fortement lorsque l’utilisateur est en mouvement, preuve que la technologie reste expérimentale.
Un potentiel immense pour la santé et les interfaces IA
Pour les personnes ayant perdu leur voix après une chirurgie du larynx ou des lésions vocales, cette technologie pourrait ouvrir une nouvelle voie de communication. Mais ses usages dépassent le médical : conversations silencieuses, environnements industriels bruyants, commandes discrètes pour assistants IA.
Ce wearable raconte surtout une évolution plus large : l’interface du futur ne passera pas toujours par l’écran, le clavier ou même la voix. Elle pourrait naître dans l’intention, avant le son.



