fermer
Intelligence Artificielle

Anthropic va utiliser vos données pour entraîner Claude : ce qu’il faut savoir (et comment refuser)

Anthropic va utiliser vos données pour entraîner Claude : ce qu’il faut savoir (et comment refuser)
Anthropic va utiliser vos données pour entraîner Claude : ce qu’il faut savoir (et comment refuser)

Le paysage de l’intelligence artificielle évolue rapidement, et la question de la confidentialité des données reste au cœur des préoccupations. Cette semaine, Anthropic, la société derrière le modèle Claude, a annoncé une mise à jour majeure de ses conditions d’utilisation : vos données pourront désormais être utilisées pour entraîner ses IA, sauf si vous choisissez de vous y opposer.

L’entreprise impose à tous ses utilisateurs de faire un choix d’ici le 28 septembre 2025, sous peine d’acceptation automatique. Voici ce que cela signifie pour vous.

Concrètement, quelles données seront utilisées ?

À partir de la date indiquée, toutes les nouvelles conversations et sessions de codage sur Claude (y compris Claude Code) pourront être utilisées pour entraîner les modèles de l’entreprise. Cela concerne aussi bien les utilisateurs gratuits que ceux ayant souscrit aux formules Claude Pro ou Claude Max.

Attention : même si vous aviez démarré une conversation auparavant, le simple fait de la reprendre après le 28 septembre suffira pour que cette session soit incluse dans les données d’entraînement, sauf si vous avez refusé explicitement.

Les utilisateurs des offres commerciales — Claude Gov, Claude for Work, Claude for Education ou utilisations via API comme Amazon Bedrock ou Google Vertex AI — ne sont pas concernés par cette politique.

Une décision obligatoire avant le 28 septembre

Anthropic a commencé à afficher une fenêtre contextuelle (pop-up) sur son interface, intitulée « Mise à jour des conditions d’utilisation ». Le bouton principal, noir et bien visible, indique « Accepter ».

Juste en dessous, une ligne discrète mentionne : « Permettre l’utilisation de vos discussions et sessions de codage pour améliorer les modèles Claude ».

0d48d7f71fe2b5ccc537b48394313a91636bb329 3840x2160 1 scaled

Et surtout : cette option est activée par défaut via un petit interrupteur déjà sur « On ». Autrement dit, si vous cliquez trop rapidement sur « Accepter » sans vérifier ce paramètre, vous donnez immédiatement votre accord.

Comment refuser l’utilisation de vos données ?

Si vous souhaitez protéger vos données :

  1. Attendez que le pop-up s’affiche.
  2. Avant de cliquer sur « Accepter », désactivez l’interrupteur « Permettre l’utilisation de vos données… » en le passant sur « Off ».

Si vous avez déjà cliqué trop vite, vous pouvez encore changer d’avis :

  • Rendez-vous dans Paramètres > Confidentialité > Paramètres de confidentialité
  • Basculez l’option « Aider à améliorer Claude » sur « Off »

Attention : cette modification n’affectera que les futures données. Celles déjà utilisées pour l’entraînement ne pourront pas être supprimées du modèle.

Qu’en est-il de la confidentialité ?

Anthropic assure que les données sont traitées avec soin :

  • Un ensemble de filtres automatiques est mis en place pour masquer les données sensibles.
  • Aucune revente des données n’est effectuée à des tiers.

Mais malgré ces garanties, le fait que la collecte soit activée par défaut soulève de nombreuses critiques, notamment sur la transparence réelle de l’entreprise vis-à-vis de ses utilisateurs.

Pourquoi cette décision ?

Comme d’autres acteurs majeurs de l’IA (OpenAI, Google, Meta), Anthropic cherche à accroître les capacités de ses modèles grâce à des données conversationnelles réelles. L’objectif affiché : améliorer la pertinence, la fluidité et la personnalisation des réponses.

Cependant, cette évolution place les utilisateurs devant un dilemme classique : accepter de partager leurs données pour une meilleure IA… ou préserver leur vie privée au détriment d’éventuelles améliorations fonctionnelles.

Lire avant de cliquer

Ce changement marque un tournant important dans la politique de confidentialité d’Anthropic. Tous les utilisateurs des services Claude doivent désormais faire un choix clair et éclairé. L’opt-out, bien que possible, est caché dans une interface peu explicite, ce qui pourrait induire de nombreuses personnes en erreur.

Avant de cliquer sur « Accepter », vérifiez attentivement les options et pensez aux conséquences de ce partage de données. La transparence commence par l’information.

Tags : AnthropicClaude
Yohann Poiron

The author Yohann Poiron

J’ai fondé le BlogNT en 2010. Autodidacte en matière de développement de sites en PHP, j’ai toujours poussé ma curiosité sur les sujets et les actualités du Web. Je suis actuellement engagé en tant qu’architecte interopérabilité.