AI나루

고대역폭 메모리 / HBM (High Bandwidth Memory)

대용량 데이터 처리를 위해 대역폭과 속도를 극대화한 메모리 반도체

Key points

  • 여러 개의 D램 칩을 수직으로 적층해 데이터 전송 경로를 넓히고, 기존 메모리 대비 월등히 높은 속도와 에너지 효율을 구현한 고성능 메모리 기술
  • AI 반도체, GPU, 데이터센터 등에서 대규모 병렬 연산 성능을 뒷받침하는 핵심 인프라 기술

HBM 개요

고대역폭 메모리(HBM)는 AI 학습·추론 과정에서 방대한 데이터를 빠르게 처리하기 위해 개발된 고성능 메모리 반도체입니다. 기존 D램은 데이터 전송 속도와 병렬 처리 능력에 한계가 있어, 이를 보완하기 위해 HBM은 여러 D램 칩을 수직으로 쌓아 연결하는 구조를 채택했습니다. 이렇게 다층으로 결합된 구조는 데이터 이동 통로를 넓혀 대역폭을 크게 높이고, 전력 효율도 개선합니다. 그 결과 GPU와 NPU 등 고성능 연산 칩의 처리 속도와 에너지 효율을 좌우하는 핵심 부품으로 자리 잡았으며, 자율주행·클라우드·고성능 컴퓨팅(HPC) 등 다양한 분야의 성능 향상을 이끌고 있습니다.

HBM의 구조

HBM은 여러 개의 D램을 수직으로 쌓고 미세한 전극으로 연결해 병렬 통신을 가능하게 하며, 데이터 전송 속도는 기존 GDDR 메모리 대비 수 배 이상 빠릅니다. 또한 메모리와 프로세서를 근접 배치하는 2.5D 또는 3D 패키징 구조를 통해 데이터 이동 거리를 단축 하고, 전력 소모를 크게 줄입니다. 이런 설계 덕분에 HBM은 고속·저전력·소형화를 모두 달성해, AI 칩과 고성능 컴퓨팅(HPC)의 핵심 메모리로 자리매김했습니다.

HBM의 활용

HBM은 AI 반도체 성능을 실질적으로 결정하는 기술로, 대규모 연산이 필요한 GPU, 데이터센터 등에 필수적으로 탑재되어 학습과 추론 속도를 높입니다. 메모리 대역폭이 높을수록 AI 처리 효율이 향상되기 때문에, HBM의 성능은 곧 AI 연산 능력의 척도로 평가됩니다. 글로벌 반도체 기업들은 속도·용량 경쟁을 통해 기술 주도권을 확보하려 하고 있으며, HBM은 앞으로 AI 중심 컴퓨팅 구조의 표준 메모리가 될 전망입니다.