À mesure que les modèles deviennent plus chers à entraîner, un autre terrain de bataille s’impose : la copie par « distillation », plus rapide, moins coûteuse… et très difficile à prouver publiquement.
Ce lundi, Anthropic affirme avoir détecté des campagnes « à l’échelle industrielle » menées par trois acteurs chinois — DeepSeek, MiniMax et Moonshot — visant à extraire des capacités de Claude pour améliorer leurs propres modèles.
Ce qu’Anthropic affirme avoir observé
Dans son article, Anthropic dit avoir identifié environ 24 000 comptes frauduleux, plus de 16 millions d’échanges avec Claude, le tout en violation de ses conditions d’utilisation et de restrictions d’accès régionales.
L’entreprise situe l’enjeu au-delà du simple « scraping » : il s’agirait d’une extraction structurée de compétences (raisonnement, code, usage d’outils agentiques, etc.) afin de les transférer à des systèmes concurrents.
La distillation : technique légitime, usage potentiellement illicite
Anthropic reconnaît que la distillation est une méthode courante et légitime : entraîner un modèle plus petit à reproduire les sorties d’un modèle plus puissant. Le problème, selon la société, n’est pas la technique en soi, mais son usage sans autorisation pour « acquérir des capacités » à moindre coût — et surtout sans embarquer les garde-fous et politiques de sécurité du modèle d’origine.
C’est le cœur du risque : des modèles « distillés » pourraient récupérer de la performance… sans récupérer la même robustesse en sécurité ni les mêmes filtres (ou en les contournant).
DeepSeek, MiniMax, Moonshot : volumes et objectifs mentionnés
Anthropic avance des éléments très concrets :
- DeepSeek aurait réalisé plus de 150 000 échanges avec Claude, ciblant notamment le raisonnement, et aurait aussi cherché à générer des formulations « compatibles censure » sur des sujets politiques sensibles.
- Moonshot : plus de 3,4 millions d’échanges.
- MiniMax : plus de 13 millions d’échanges.
Anthropic relie explicitement la distillation illicite à des risques de sécurité : si des capacités « frontier » sont récupérées sans garde-fous, elles pourraient alimenter des usages de surveillance, de désinformation ou cyberoffensifs.
Et, la société pousse un levier politique déjà au cœur du débat américain : l’accès aux puces avancées. Anthropic suggère que des restrictions plus strictes sur les chips pourraient limiter à la fois l’entraînement direct et l’industrialisation de la distillation.
OpenAI pointe aussi DeepSeek : une convergence de discours côté US
Cette sortie d’Anthropic s’inscrit dans une séquence plus large. Reuters rapporte qu’OpenAI a récemment accusé DeepSeek, dans un mémo adressé à des élus américains, de « free-riding » et d’efforts pour contourner des restrictions d’accès afin d’obtenir des sorties de modèles américains destinées à la distillation.
Ce dossier montre une transition nette : la compétition ne se joue plus uniquement sur « qui entraîne le plus gros modèle », mais aussi sur qui protège le mieux ses capacités. La distillation illégitime, si elle se banalise, réduit l’avantage des laboratoires qui financent les entraînements les plus coûteux. Elle met aussi les entreprises devant un dilemme : ouvrir (API, accès larges, essais) pour croître, ou verrouiller davantage au risque de freiner l’adoption. Enfin, elle renforce l’idée que l’IA est devenue un enjeu où la sécurité logicielle (anti-fraude, détection d’abus, empreintes comportementales) pèse autant que la recherche.
Pour Anthropic, l’objectif est double : protéger Claude — et installer une doctrine industrielle où l’extraction de capacités devient un « comportement hostile » traité comme tel. Reste la question qui fâche : quelles mesures concrètes (cloud, KYC, quotas, watermarking des sorties, contrôles d’usage) seront suffisantes sans casser l’accessibilité qui a fait exploser l’IA grand public ?



