토픽 98 / 111·프로세서·반도체 트렌드 (Processor & Semiconductor Trends)
HBM (High Bandwidth Memory)
HBM (High Bandwidth Memory)
여러 DRAM 다이를 수직으로 적층하고 TSV(Through-Silicon Via) 기술로 연결하여 초고대역폭 메모리 인터페이스를 제공하는 3D 적층 메모리 기술
목적: 초고대역폭, GPU/AI 가속기 성능 향상, 메모리 병목 해소, 전력 효율
특징: 3D 적층, TSV 연결, 초광대역폭, 낮은 전력, 인터포저 패키징
구조
- •수직 적층: 4-16개 DRAM 다이 적층
- •TSV: 다이 관통 실리콘 비아, 수천~수만 개 연결
- •인터포저: 실리콘 기판 위에 HBM+GPU 배치, 2.5D 패키징
- •넓은 버스: 1024비트 인터페이스(GDDR6 32비트 대비)
세대별 성능
- •HBM1(2013): 128GB/s 스택
- •HBM2(2016): 256GB/s, AI/HPC
- •HBM2E(2020): 460GB/s, 고용량(24GB 스택)
- •HBM3(2022): 819GB/s, AI 최적화
- •HBM3E(2023): 1.15TB/s, 차세대 AI
장점: 초고대역폭(1TB/s+), 낮은 전력, 작은 풋프린트, 지연시간 감소
단점: 매우 높은 비용, 제조 복잡도, 수율 문제, 발열 관리
적용사례: NVIDIA H100(80GB HBM3), AMD MI300X(192GB HBM3), AI 가속기, HPC, 슈퍼컴퓨터
비교: HBM(1TB/s/적층/고비용) vs GDDR6(640GB/s/평면/저비용) vs DDR5(50GB/s/범용)
연관: GPU, AI 가속기, TSV, 3D 패키징, 메모리 대역폭