Dans la course effrénée à l’intelligence artificielle, OpenAI franchit un nouveau cap. Selon des informations de Reuters, la société derrière ChatGPT collabore avec Broadcom pour concevoir des processeurs maison dédiés à l’IA, dont la production de masse est prévue pour 2026.
La fabrication sera assurée par TSMC, géant taïwanais des semi-conducteurs.
Contrairement à Nvidia, qui vend massivement ses GPU à l’ensemble du marché, OpenAI devrait réserver ses puces à un usage interne. L’objectif : alimenter ses propres modèles comme GPT-5 et les services ChatGPT, réduire les coûts et sécuriser ses approvisionnements face à la forte demande mondiale.
Des puces taillées pour l’IA
Inspiré des TPU de Google (eux aussi développés avec Broadcom), ce futur processeur OpenAI devrait être optimisé pour :
- les calculs massifs de matrices et le parallélisme, essentiels aux réseaux neuronaux,
- une mémoire à large bande passante pour gérer d’énormes flux de données,
- une efficacité énergétique accrue pour réduire l’empreinte carbone des data centers,
- des interconnexions sur mesure afin de relier efficacement plusieurs serveurs et contourner les goulets d’étranglement liés à Nvidia.
Il pourrait être orienté autant vers l’entraînement de modèles que vers l’inférence en temps réel (chatbots, assistants, etc.), avec des compromis de vitesse et de consommation via le mixed-precision computing.
Une stratégie à 10 milliards de dollars
Les analystes estiment que OpenAI aurait signé un ordre de 10 milliards de dollars avec Broadcom, un pari audacieux qui a déjà dopé l’action Broadcom (+9 % après l’annonce).
Objectif : réduire la dépendance aux GPU Nvidia H100, rares et coûteux, qui dominent aujourd’hui le marché.
Ce mouvement rappelle les stratégies d’Amazon et Meta, qui développent eux aussi leurs propres puces pour mieux maîtriser leurs coûts et leurs performances.
Enjeux pour l’écosystème IA
- Pour OpenAI : plus d’autonomie, une réduction des coûts de cloud GPU et une infrastructure plus prévisible.
- Pour Broadcom : un pied encore plus solide dans le secteur stratégique de l’IA, après avoir déjà percé dans les interconnexions réseau et le HPC.
- Pour le marché : une remise en cause du quasi-monopole de Nvidia et une accélération de la tendance vers des puces verticalement intégrées, conçues sur mesure pour les besoins de chaque géant technologique.
Mais les risques sont réels : concevoir et produire des semi-conducteurs est long, complexe et capitalistique. Tout retard pourrait freiner OpenAI, tandis qu’une dépendance unique à Broadcom pourrait aussi devenir un talon d’Achille.
Reste à voir si OpenAI restera concentré sur ses besoins internes ou s’il envisagera un jour de commercialiser ses puces IA, à l’image de Google qui loue ses TPU via le cloud.



