Comme attendu, OpenAI vient d’annoncer un partenariat stratégique majeur avec Broadcom afin de concevoir et produire ses propres puces dédiées à l’IA.
Cette collaboration marque une nouvelle étape dans la stratégie de l’entreprise : réduire sa dépendance vis-à-vis de Nvidia et sécuriser la puissance de calcul nécessaire à ses modèles les plus exigeants, de ChatGPT à Sora, en passant par les futurs projets de superintelligence artificielle.
Objectif : intégrer l’intelligence directement dans le silicium
Dans son communiqué, OpenAI explique que la conception de ses propres processeurs permettra de « transposer l’expérience acquise dans le développement de modèles avancés directement au cœur du matériel », ouvrant la voie à de nouvelles formes de performance et d’efficacité énergétique.
Cette approche vise à rapprocher le logiciel et le matériel, une tendance déjà amorcée par des géants comme Apple avec ses puces de séries M, ou Google avec ses Tensor Processing Units (TPU).
En d’autres termes, OpenAI veut construire un écosystème matériel sur mesure pour ses modèles d’IA — capable de s’adapter à leurs besoins plutôt que l’inverse.
Un plan colossal : 10 gigawatts d’accélérateurs IA
Le partenariat avec Broadcom prévoit le déploiement de 10 gigawatts d’accélérateurs personnalisés, une capacité énergétique comparable à dix réacteurs nucléaires. Les premiers équipements devraient être installés au second semestre 2026, pour une mise en production complète avant la fin de 2029.
Selon Sam Altman, PDG et cofondateur d’OpenAI, « Cet accord est une étape essentielle pour construire l’infrastructure nécessaire afin de libérer le potentiel de l’IA et d’en faire bénéficier les entreprises et les utilisateurs du monde entier ».
Ce partenariat s’ajoute à deux accords déjà signés par OpenAI : un contrat de 6 gigawatts avec AMD, et un autre de 10 gigawatts avec Nvidia,
destinés à renforcer la capacité de calcul de ses data centers mondiaux. Jusqu’à récemment, OpenAI dépendait presque exclusivement des infrastructures Microsoft Azure pour son calcul IA. La révision de cet accord a permis à l’entreprise de diversifier ses partenaires et d’étendre sa souveraineté matérielle.
Un mouvement global contre la dépendance à Nvidia
OpenAI n’est pas seul dans cette démarche. Google, Meta, Amazon et Microsoft développent également leurs propres puces IA afin de sécuriser leurs chaînes d’approvisionnement face à la pénurie mondiale de GPU et à la flambée des coûts.
Si Nvidia reste aujourd’hui le leader incontesté avec ses GPU H100 et B200, la multiplication de ces projets personnalisés favorise l’émergence d’un nouvel écosystème industriel où des acteurs comme Broadcom jouent un rôle clé.
Ces collaborations permettent aux entreprises d’optimiser les performances pour des cas d’usage spécifiques — génération de texte, création vidéo, simulation, ou entraînement de modèles multimodaux — tout en réduisant les coûts et la consommation énergétique.
Vers une infrastructure d’IA souveraine
En investissant dans ses propres puces, OpenAI cherche à construire une infrastructure d’IA intégrée, allant du modèle jusqu’au matériel, afin d’accélérer le développement de ses futurs systèmes dits « superintelligents ».
Ce virage stratégique illustre la nouvelle phase de maturité du secteur de l’IA, où l’enjeu ne réside plus seulement dans la taille des modèles, mais dans la maîtrise complète de la chaîne technologique.



