Apple fait actuellement l’objet d’une enquête criminelle en France concernant la collecte et l’utilisation d’enregistrements vocaux réalisés via son assistant vocal Siri.
Le parquet de Paris a confirmé, le 6 octobre 2025, avoir ouvert une procédure et confié le dossier à l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication (OCLCTIC).
Siri : Une plainte liée à la vie privée des utilisateurs
L’enquête fait suite à une plainte déposée plus tôt cette année par la Ligue des Droits de l’Homme (LDH). L’organisation accuse Apple d’avoir collecté et traité des données vocales sans consentement préalable des utilisateurs.
La plainte s’appuie notamment sur le témoignage de Thomas Le Bonniec, ancien sous-traitant d’Apple via Globe Technical Services en Irlande, qui avait révélé dès 2019 avoir eu accès à des milliers d’enregistrements Siri, dont certains contenaient des conversations privées et des informations sensibles.
Selon Le Bonniec, certaines voix étaient identifiables et les enregistrements comprenaient parfois des détails intimes, enregistrés à l’insu des utilisateurs.
Il avait déjà alerté les autorités européennes de protection des données, comme la CNIL en France et la Data Protection Commission en Irlande, sans qu’aucune enquête n’ait alors été ouverte.
Apple se défend et invoque le respect du consentement
Apple n’a pas souhaité commenter directement cette nouvelle affaire, mais a renvoyé vers un article de blog publié en janvier dernier.
Dans ce texte, la firme de Cupertino affirme que :
- aucun enregistrement Siri n’est conservé sans consentement explicite de l’utilisateur ;
- les données vocales sont utilisées uniquement pour améliorer les performances de Siri ;
- elles ne sont ni revendues ni partagées à des fins publicitaires.
Apple précise également avoir renforcé ses mesures de confidentialité en 2019, à la suite des premières révélations de Le Bonniec, puis à nouveau en 2025.
Une action collective déjà en cours
La plainte a également conduit au lancement d’une action collective en France contre Apple. Ce recours s’inscrit dans un contexte international : aux États-Unis, un procès similaire s’est soldé en 2024 par un accord à l’amiable de 95 millions de dollars, sans qu’Apple ne reconnaisse la moindre faute.
Cette affaire pourrait relancer le débat sur la protection des données générées par les assistants vocaux, souvent perçus comme des outils « toujours à l’écoute ».
L’enquête du parquet de Paris devra déterminer si Apple a enfreint le Règlement général sur la protection des données (RGPD) en collectant des enregistrements sans consentement clair ni base légale.
Si les faits étaient confirmés, l’entreprise risquerait de lourdes sanctions financières en Europe, où les régulateurs se montrent de plus en plus stricts sur les questions de vie privée et d’intelligence artificielle.



