La startup chinoise DeepSeek vient de déployer discrètement DeepSeek V3.1, une mise à jour majeure de son modèle de langage de nouvelle génération. Avec 685 milliards de paramètres et un contexte étendu à 128 000 tokens, ce modèle se positionne comme l’un des plus puissants disponibles en open source, rivalisant avec Claude Opus 4 et flirtant avec le niveau des modèles fermés comme GPT-5.
Un bond en avant pour le traitement de longs documents
DeepSeek V3.1 peut désormais gérer un contexte de 128k tokens, soit l’équivalent de 300 à 400 pages. Ce changement transforme son usage potentiel dans des cas comme :
- la génération de contenu long-format,
- l’analyse de documents techniques ou juridiques,
- les conversations multi-tours étendues,
- ou encore l’assistance IA dans des contextes métiers exigeants.
Ce support étendu était en fait déjà opérationnel dans la version précédente (V3), mais désormais activé par défaut sur toutes les interfaces.
Architecture Mixture-of-Experts (MoE) et précision flexible
Le modèle conserve son architecture MoE, n’activant que 37 milliards de paramètres par token, ce qui permet une meilleure efficacité énergétique. Il prend en charge plusieurs formats de précision : BF16, FP8 et F32.
Les développeurs peuvent accéder au modèle via API ou le télécharger librement sur Hugging Face sous licence open source MIT.
Benchmark: DeepSeek V3.1 surclasse Claude Opus 4 en code
- Score Aider (test de codage) : 71,6 %, au-dessus de Claude Opus 4
- Amélioration visible en mathématiques et logique
- Performances stables, mais sans gains majeurs en raisonnement par rapport à la version R1-0528
Ce positionnement en fait l’un des modèles open source les plus solides en code, avec un excellent rapport qualité/prix en déploiement local ou cloud.
Stratégie unifiée : fin de la gamme R1, place au tout-en-un V3.1
DeepSeek a supprimé toutes les références au modèle R1 sur son interface chatbot, signalant une transition vers un modèle hybride unique. V3.1 regroupe désormais toutes les capacités : génération, raisonnement, dialogue, code.
Une stratégie de consolidation qui rappelle l’approche unifiée de GPT chez OpenAI, mais en version open source.
Coût d’entraînement et infrastructure : un équilibre complexe
Bien que le coût exact de DeepSeek V3.1 ne soit pas public, son modèle V3 de base aurait nécessité :
- 2,788 millions d’heures GPU
- Sur des Nvidia H800
- Pour un coût estimé à 5,6 millions de dollars
DeepSeek V3.1 reprend cette base avec des ajustements, suggérant une optimisation sans repartir de zéro.
Quid du modèle R2 ? Entre ambitions techniques et réalités géopolitiques
Attendu comme la suite logique, le modèle R2 a été retardé. En cause :
- Difficultés avec les puces Ascend de Huawei
- Pression politique pour réduire la dépendance à Nvidia
- Problèmes de compatibilité, ralentissements en entraînement, retards dus à l’étiquetage des données
- Frustration exprimée par Liang Wenfeng, fondateur de DeepSeek
Résultat : DeepSeek a repris l’entraînement sur Nvidia et réservé l’inférence pour Ascend, un compromis complexe qui a ralenti le développement.
DeepSeek V3.1 s’impose aujourd’hui comme le modèle LLM open source chinois de référence. Mais le futur de DeepSeek se jouera sur la réussite (ou non) de R2, qui devra prouver la capacité de la Chine à se libérer des contraintes matérielles occidentales sans sacrifier la performance IA.



