HBM 技术详解

科技百科

HBM

/ˌeɪtʃ.biːˈem/
名词 计算机术语

基本释义:高带宽内存(High Bandwidth Memory)

技术特点:3D堆叠、TSV硅通孔、宽总线设计

📚 核心含义

内存技术

一种3D堆叠的高性能DRAM内存技术

HBM provides higher bandwidth than GDDR6.
高带宽内存比GDDR6提供更高带宽。
硬件

显存标准

高端显卡使用的显存解决方案

The GPU uses HBM for AI computing.
该GPU使用高带宽显存进行AI计算。
显卡

JEDEC标准

由JEDEC制定的内存技术规范

HBM3 was released in 2022.
HBM3标准于2022年发布。
标准

"HBM"是高性能计算领域的重要技术,主要用于GPU、AI加速器和高端服务器。相比传统内存,具有带宽高、功耗低的优势。

🔄 用法对比

技术文档

HBM achieves 1024-bit bus width.

The HBM stack contains 8 DRAM dies.

HBM3 provides 819GB/s bandwidth.

中文解释

高带宽内存实现1024位总线宽度。

HBM堆栈包含8个DRAM芯片。

HBM3提供819GB/s带宽。

🔧 技术特点

堆叠结构
3D Stacking

垂直堆叠DRAM芯片

硅通孔
TSV技术

通过硅通孔连接各层

关键技术:

技术演进

  • HBM1(2013): 128GB/s
  • HBM2(2016): 256GB/s
  • HBM3(2022): 819GB/s

🎯 应用场景

GPU显存

高端显卡的核心配置

NVIDIA H100 uses HBM3
NVIDIA H100使用HBM3显存
显卡

AI加速

深度学习训练首选

AI servers adopt HBM
AI服务器采用高带宽内存
人工智能

超级计算机

高性能计算需求

Supercomputers need HBM
超级计算机需要HBM
HPC

市场现状

主要厂商: SK海力士、三星、美光
应用产品: NVIDIA Tesla/AMD Instinct系列

⚠️ 技术局限

不足之处:

• 制造成本高于GDDR

• 容量扩展性受限

• 需要先进封装技术

⚖️ 技术对比

HBM vs GDDR

参数 HBM3 GDDR6X
带宽 819GB/s 936GB/s
位宽 1024bit 384bit
功耗

技术优势

• 带宽密度比GDDR高3-5倍
• 功耗降低30-50%
• 占用面积减少50%以上

发展趋势

1. HBM3E:2024年量产
2. HBM4:2026年推出
3. 3D堆叠层数将增至16层