fermer
Intelligence Artificielle

IA : Samsung et AMD signent une alliance historique pour contrer Nvidia

Adobe Firefly : Créez votre propre IA qui imite votre style artistique

Samsung et AMD viennent de franchir une nouvelle étape dans leur relation industrielle. Les deux groupes ont signé un memorandum of understanding (MOU) pour étendre leur partenariat autour des mémoires et technologies de calcul destinées à la prochaine vague d’infrastructures IA. La cérémonie s’est tenue sur le site semi-conducteurs de Samsung à Pyeongtaek, en Corée du Sud, en présence de Lisa Su et de Young Hyun Jun.

Au fond, ce rapprochement dit quelque chose de plus large sur le marché actuel : dans l’IA, la bataille ne se joue plus seulement sur les GPU, mais sur toute la pile matérielle, de la mémoire au rack.

Samsung fournira la HBM4 du futur AMD Instinct MI455X

Le point central de l’accord est clair : Samsung devient le fournisseur principal de HBM4 pour le futur AMD Instinct MI455X, le prochain accélérateur IA du groupe américain.

Les deux entreprises vont aussi travailler sur des solutions DDR5 optimisées pour les processeurs AMD EPYC de 6e génération, connus sous le nom de code “Venice”. Ces composants doivent alimenter des systèmes IA de nouvelle génération, y compris des architectures à l’échelle du rack comme AMD Helios.

Ce n’est pas un détail technique secondaire. La mémoire HBM est devenue l’un des véritables goulots d’étranglement du marché IA, parce qu’elle conditionne directement la bande passante disponible pour l’entraînement et l’inférence sur des modèles toujours plus lourds. Cette dernière phrase est une analyse fondée sur le rôle attribué à la HBM4 dans les annonces officielles de Samsung et AMD.

Une HBM4 que Samsung présente comme déjà industrialisée

Samsung met aussi en avant la maturité de sa propre feuille de route. Sa HBM4 est décrite comme déjà entrée en production de masse, construite sur son procédé DRAM 1c de 6e génération en classe 10 nm avec un logic base die en 4 nm. Le groupe annonce des vitesses pouvant aller jusqu’à 13 Gbps et une bande passante maximale de 3,3 To/s. Samsung avait déjà présenté cette HBM4 comme sa première solution commerciale du genre le mois dernier.

Autrement dit, Samsung ne vend pas seulement une promesse de co-développement futur. Il s’appuie sur une mémoire qu’il considère déjà prête pour les besoins les plus exigeants des datacenters IA.

AMD veut relier mémoire, CPU, GPU et rack dans un même récit

Côté AMD, l’intérêt stratégique est évident. Le MI455X doit servir de brique centrale de l’architecture Helios, pensée pour des systèmes IA à grande échelle. Dans leur communication commune, Lisa Su et Samsung insistent tous deux sur la nécessité d’une intégration de bout en bout, du silicium jusqu’au rack, pour soutenir la croissance des charges IA modernes.

C’est probablement l’un des aspects les plus importants de l’annonce. AMD ne veut plus seulement être vu comme un concurrent de Nvidia sur les accélérateurs. Le groupe essaie de construire un récit plus complet, où CPU EPYC, GPU Instinct, mémoire HBM4 et architecture Helios fonctionnent comme un ensemble cohérent. Cette conclusion relève d’une analyse, mais elle découle directement du périmètre de l’accord annoncé.

Un possible partenariat de fonderie en arrière-plan

Samsung Semiconductors HBM4 AMD MOU Next Generation AI Memory Solutions main3

L’autre point intéressant du MOU, plus discret mais potentiellement majeur, est l’ouverture à une coopération foundry. Samsung et AMD indiquent qu’ils vont aussi explorer la possibilité que Samsung fournisse à l’avenir des services de fabrication de puces pour certains produits AMD. À ce stade, il ne s’agit pas d’un engagement ferme, mais bien d’un champ de discussion explicitement inclus dans l’accord.

Si cette piste se concrétise, elle élargirait considérablement la relation entre les deux groupes. Samsung ne serait plus seulement un fournisseur de mémoire avancée, mais un partenaire potentiel de fabrication pour une partie de la feuille de route AMD.

Une alliance qui s’inscrit dans une relation déjà ancienne

Cette annonce ne part pas de zéro. Samsung et AMD rappellent que leur collaboration s’étend déjà sur près de deux décennies, à travers la mobilité, le graphisme et le calcul. Plus récemment, Samsung fournissait déjà de la HBM3E pour les accélérateurs Instinct MI350X et MI355X.

Cela donne à l’accord actuel une portée différente : il ne s’agit pas d’un rapprochement opportuniste né de la seule fièvre autour de l’IA, mais d’une montée en intensité d’une relation industrielle déjà installée.

Pourquoi cet accord compte vraiment

Dans l’immédiat, ce partenariat renforce la position de Samsung sur un terrain où la concurrence est féroce, celui de la mémoire IA avancée, alors que la demande mondiale en HBM reste sous tension. Samsung cherche encore à combler l’écart avec SK hynix sur ce marché.

Pour AMD, l’intérêt est tout aussi net : sécuriser un approvisionnement mémoire critique pour la prochaine génération de ses plateformes IA, au moment où la bataille contre Nvidia se joue aussi sur la capacité à livrer à grande échelle. Cette dernière phrase est une analyse fondée sur le rôle stratégique attribué à la HBM4 et sur le contexte concurrentiel.

Au fond, cette signature raconte une chose simple : dans l’ère de l’IA industrielle, la performance ne dépend plus d’un seul composant vedette. Elle dépend de la qualité d’assemblage entre mémoire, calcul, packaging et infrastructure. Et sur ce terrain, Samsung et AMD veulent désormais avancer côte à côte.

Tags : AMDIANvidiaSamsung
Yohann Poiron

The author Yohann Poiron

J’ai fondé le BlogNT en 2010. Autodidacte en matière de développement de sites en PHP, j’ai toujours poussé ma curiosité sur les sujets et les actualités du Web. Je suis actuellement engagé en tant qu’architecte interopérabilité.