fermer
Intelligence Artificielle

DeepSeek R2 : le nouveau modèle IA chinois prêt à rivaliser avec GPT-5

DeepSeek R2 : le nouveau modèle IA chinois prêt à rivaliser avec GPT-5
DeepSeek R2 : le nouveau modèle IA chinois prêt à rivaliser avec GPT-5

La course mondiale à l’intelligence artificielle s’accélère. DeepSeek s’apprête à lancer son modèle de nouvelle génération, DeepSeek R2, entre le 15 et le 30 août 2025, soit quelques jours seulement après la sortie de GPT-5, inclut dans son chatbot ChatGPT.

Les premiers détails, révélés lors d’une interaction avec le propre modèle IA de la société, laissent entrevoir une avancée technologique majeure.

DeepSeek R2 : Une architecture Mixture of Experts encore plus poussée

DeepSeek R2 adoptera une architecture Mixture of Experts (MoE) de nouvelle génération, associée à un gating network plus intelligent pour mieux gérer les charges lourdes d’inférence.

Selon des sources proches du développement, le modèle pourrait atteindre 1,2 trillion de paramètres, presque le double de DeepSeek R1 (671 milliards), tout en restant en deçà des 1,8 trillion+ de ChatGPT-4 et GPT-5.

100 % entraîné sur des puces chinoises Huawei

Dans le cadre de la stratégie chinoise d’autosuffisance en IA, DeepSeek R2 a été entièrement entraîné sur les puces Huawei Ascend 910B. Le cluster Huawei, affichant 512 PFLOPS de performance FP16 à 82 % d’utilisation, atteindrait 91 % des performances d’un cluster Nvidia A100.

Le gain stratégique est de se libérer de la dépendance aux GPU américains et réduire considérablement les coûts d’entraînement. Résultat : 97 % de réduction du coût de formation par rapport à GPT-4, grâce à l’utilisation de matériel local et de techniques d’optimisation avancées.

Des prix agressifs pour bousculer OpenAI et Anthropic

Avec des coûts réduits, les analystes s’attendent à ce que DeepSeek propose un accès API à prix cassés, de quoi perturber les modèles économiques actuels dominés par OpenAI et Anthropic.

L’annonce a déjà eu un effet immédiat sur les marchés : l’action du fabricant chinois de puces Cambricon a bondi de 20 %, propulsant sa capitalisation boursière à 355 milliards de yuans (≈ 49,7 milliards de dollars).

Huawei dévoile aussi son framework UCM

En parallèle, Huawei lance Unified Cache Manager (UCM), un nouveau framework d’inférence IA optimisant la gestion des KV Cache sur différents niveaux de mémoire (HBM, DRAM, SSD). Testé avec China UnionPay, UCM a permis 90 % de réduction de la latence et un gain en débit de 22 fois.

Huawei prévoit de publier UCM en open source dès septembre 2025.

Le duo DeepSeek R2 + UCM illustre l’ambition de Pékin : bâtir et exécuter des systèmes d’IA hautes performances sans recourir à des puces ou outils occidentaux.

Si les promesses sont tenues, DeepSeek pourrait devenir un acteur incontournable sur le marché mondial des modèles LLM, avec un rapport puissance/coût très agressif.

Tags : DeepSeekDeepSeek-R2GPT-5
Yohann Poiron

The author Yohann Poiron

J’ai fondé le BlogNT en 2010. Autodidacte en matière de développement de sites en PHP, j’ai toujours poussé ma curiosité sur les sujets et les actualités du Web. Je suis actuellement engagé en tant qu’architecte interopérabilité.