Learning
토픽 98 / 111·프로세서·반도체 트렌드 (Processor & Semiconductor Trends)

HBM (High Bandwidth Memory)

HBM (High Bandwidth Memory)

여러 DRAM 다이를 수직으로 적층하고 TSV(Through-Silicon Via) 기술로 연결하여 초고대역폭 메모리 인터페이스를 제공하는 3D 적층 메모리 기술

목적: 초고대역폭, GPU/AI 가속기 성능 향상, 메모리 병목 해소, 전력 효율

특징: 3D 적층, TSV 연결, 초광대역폭, 낮은 전력, 인터포저 패키징

구조

  • 수직 적층: 4-16개 DRAM 다이 적층
  • TSV: 다이 관통 실리콘 비아, 수천~수만 개 연결
  • 인터포저: 실리콘 기판 위에 HBM+GPU 배치, 2.5D 패키징
  • 넓은 버스: 1024비트 인터페이스(GDDR6 32비트 대비)

세대별 성능

  • HBM1(2013): 128GB/s 스택
  • HBM2(2016): 256GB/s, AI/HPC
  • HBM2E(2020): 460GB/s, 고용량(24GB 스택)
  • HBM3(2022): 819GB/s, AI 최적화
  • HBM3E(2023): 1.15TB/s, 차세대 AI

장점: 초고대역폭(1TB/s+), 낮은 전력, 작은 풋프린트, 지연시간 감소

단점: 매우 높은 비용, 제조 복잡도, 수율 문제, 발열 관리

적용사례: NVIDIA H100(80GB HBM3), AMD MI300X(192GB HBM3), AI 가속기, HPC, 슈퍼컴퓨터

비교: HBM(1TB/s/적층/고비용) vs GDDR6(640GB/s/평면/저비용) vs DDR5(50GB/s/범용)

연관: GPU, AI 가속기, TSV, 3D 패키징, 메모리 대역폭