fermer
Périphériques

Meta signe un méga-accord avec Nvidia : Grace, Blackwell et Rubin pour « verrouiller » l’ère des datacenters IA

Meta signe un méga-accord avec Nvidia : Grace, Blackwell et Rubin pour « verrouiller » l’ère des datacenters IA
Meta signe un méga-accord avec Nvidia : Grace, Blackwell et Rubin pour « verrouiller » l’ère des datacenters IA

Meta vient d’officialiser un virage qui résume à lui seul la nouvelle hiérarchie de la tech : l’IA ne se gagne plus seulement avec de bons modèles, mais avec la capacité industrielle de les faire tourner partout, tout le temps.

Meta a conclu un accord pluriannuel avec Nvidia pour déployer des millions de puces — des CPU Grace et Vera jusqu’aux GPU Blackwell et Rubin — afin d’étendre ses data centers dédiés à l’IA.

Un détail qui compte : la première « grande » implantation chez Meta

Meta utilise Nvidia depuis longtemps, mais l’accord marque un jalon côté processeurs : Nvidia présente ce partenariat comme le premier déploiement à grande échelle de CPU Grace « seuls » dans des datacenters Meta, avec une promesse claire : des gains de performance par watt (l’obsession énergétique du moment).

Et, la feuille de route est déjà écrite : la prochaine génération de CPU, Vera, doit entrer dans les datacenters Meta à partir de 2027.

Le point le plus révélateur n’est pas la quantité, c’est la dépendance assumée. Meta travaille bien sur des puces maison pour l’inférence et certains workloads IA, mais plusieurs articles signalent des difficultés techniques et retards de déploiement sur cette stratégie, ce qui renforce mécaniquement le recours à Nvidia.

En parallèle, les rumeurs de diversification (jusqu’à envisager des puces Google) ont aussi montré que le marché scrute la moindre fissure dans l’hégémonie Nvidia : un rapport de The Information avait suffi à faire reculer le titre.

Le sous-texte : l’IA devient une bataille d’efficacité énergétique et de réseau

Nvidia ne vend pas seulement des GPU. Dans son communiqué, l’entreprise insiste sur une « stack » complète : CPU (Grace/Vera), GPU (Blackwell/Rubin), mais aussi réseau (Spectrum-X) et intégrations dans le datacenter. L’enjeu est de livrer une architecture cohérente, pensée autant pour l’entraînement que pour l’inférence à grande échelle.

C’est exactement ce que cherchent les géants : des infrastructures capables d’absorber des agents, des assistants et des services IA qui tournent en continu — et qui font exploser les besoins de calcul, de mémoire et de bande passante.

Le montant de l’accord n’est pas public. Mais, le contexte l’est : plusieurs médias notent que les dépenses IA cumulées de Meta, Microsoft, Google et Amazon en 2026 sont estimées à un niveau qui dépasserait le coût total du programme Apollo — une façon frappante d’illustrer que l’IA est désormais une course d’infrastructure, pas un simple cycle produit.

Tags : BlackwellGPUMetaNvidia
Yohann Poiron

The author Yohann Poiron

J’ai fondé le BlogNT en 2010. Autodidacte en matière de développement de sites en PHP, j’ai toujours poussé ma curiosité sur les sujets et les actualités du Web. Je suis actuellement engagé en tant qu’architecte interopérabilité.