Le paysage de l’intelligence artificielle évolue rapidement, et la question de la confidentialité des données reste au cœur des préoccupations. Cette semaine, Anthropic, la société derrière le modèle Claude, a annoncé une mise à jour majeure de ses conditions d’utilisation : vos données pourront désormais être utilisées pour entraîner ses IA, sauf si vous choisissez de vous y opposer.
L’entreprise impose à tous ses utilisateurs de faire un choix d’ici le 28 septembre 2025, sous peine d’acceptation automatique. Voici ce que cela signifie pour vous.
Concrètement, quelles données seront utilisées ?
À partir de la date indiquée, toutes les nouvelles conversations et sessions de codage sur Claude (y compris Claude Code) pourront être utilisées pour entraîner les modèles de l’entreprise. Cela concerne aussi bien les utilisateurs gratuits que ceux ayant souscrit aux formules Claude Pro ou Claude Max.
Attention : même si vous aviez démarré une conversation auparavant, le simple fait de la reprendre après le 28 septembre suffira pour que cette session soit incluse dans les données d’entraînement, sauf si vous avez refusé explicitement.
Les utilisateurs des offres commerciales — Claude Gov, Claude for Work, Claude for Education ou utilisations via API comme Amazon Bedrock ou Google Vertex AI — ne sont pas concernés par cette politique.
Une décision obligatoire avant le 28 septembre
Anthropic a commencé à afficher une fenêtre contextuelle (pop-up) sur son interface, intitulée « Mise à jour des conditions d’utilisation ». Le bouton principal, noir et bien visible, indique « Accepter ».
Juste en dessous, une ligne discrète mentionne : « Permettre l’utilisation de vos discussions et sessions de codage pour améliorer les modèles Claude ».

Et surtout : cette option est activée par défaut via un petit interrupteur déjà sur « On ». Autrement dit, si vous cliquez trop rapidement sur « Accepter » sans vérifier ce paramètre, vous donnez immédiatement votre accord.
Comment refuser l’utilisation de vos données ?
Si vous souhaitez protéger vos données :
- Attendez que le pop-up s’affiche.
- Avant de cliquer sur « Accepter », désactivez l’interrupteur « Permettre l’utilisation de vos données… » en le passant sur « Off ».
Si vous avez déjà cliqué trop vite, vous pouvez encore changer d’avis :
- Rendez-vous dans Paramètres > Confidentialité > Paramètres de confidentialité
- Basculez l’option « Aider à améliorer Claude » sur « Off »
Attention : cette modification n’affectera que les futures données. Celles déjà utilisées pour l’entraînement ne pourront pas être supprimées du modèle.
Qu’en est-il de la confidentialité ?
Anthropic assure que les données sont traitées avec soin :
- Un ensemble de filtres automatiques est mis en place pour masquer les données sensibles.
- Aucune revente des données n’est effectuée à des tiers.
Mais malgré ces garanties, le fait que la collecte soit activée par défaut soulève de nombreuses critiques, notamment sur la transparence réelle de l’entreprise vis-à-vis de ses utilisateurs.
Pourquoi cette décision ?
Comme d’autres acteurs majeurs de l’IA (OpenAI, Google, Meta), Anthropic cherche à accroître les capacités de ses modèles grâce à des données conversationnelles réelles. L’objectif affiché : améliorer la pertinence, la fluidité et la personnalisation des réponses.
Cependant, cette évolution place les utilisateurs devant un dilemme classique : accepter de partager leurs données pour une meilleure IA… ou préserver leur vie privée au détriment d’éventuelles améliorations fonctionnelles.
Lire avant de cliquer
Ce changement marque un tournant important dans la politique de confidentialité d’Anthropic. Tous les utilisateurs des services Claude doivent désormais faire un choix clair et éclairé. L’opt-out, bien que possible, est caché dans une interface peu explicite, ce qui pourrait induire de nombreuses personnes en erreur.
Avant de cliquer sur « Accepter », vérifiez attentivement les options et pensez aux conséquences de ce partage de données. La transparence commence par l’information.



