Analyse fondamentale

HBM (High Bandwidth Memory)

Mémoire haute performance empilée en 3D, conçue pour les GPU d'IA et les accélérateurs — à la croissance la plus forte du secteur mémoire.

Le HBM (High Bandwidth Memory) est une architecture mémoire haute performance qui empile plusieurs couches de mémoire DRAM verticalement (en 3D), connectées via des microfils traversant chaque couche (TSV — Through Silicon Via). Cette architecture multiplie par 10 à 20 la bande passante mémoire par rapport à la DRAM standard, au prix d'un coût unitaire bien plus élevé.

Le HBM est devenu indispensable pour les GPU de calcul IA (Nvidia H100, H200, Blackwell) et les accélérateurs spécialisés (Google TPU, AMD MI300X). La quantité de HBM embarquée dans un GPU détermine directement ses performances pour l'entraînement de grands modèles de langage — c'est pourquoi la disponibilité du HBM est devenue un goulot d'étranglement dans la course à l'infrastructure IA.

SK Hynix est le leader du marché HBM, fournisseur privilégié de Nvidia. Samsung et Micron accélèrent leurs capacités. La qualification HBM chez un client majeur comme Nvidia est un processus long et technique — ce qui crée des avantages de premier entrant durables.

Termes liés

Retour au glossaireExplorer l'Académie