이강욱 SK하이닉스 패키징(PKG)개발 담당 부사장은 "응용 제품에 따라 다르지만 고대역폭 메모리(HBM) 세대가 발전하면서 훈련, 추론 인공지능(AI) 서버에 탑재되는 평균 채택 숫자는 더 늘어날 것"으로 전망했다.
이강욱 부사장은 3일 대만 타이베이 난강전시장에서 열린 '이종집적 글로벌 서밋(Heterogeneous Integration Global Summit) 2024'에서 'AI 시대를 위한 HBM과 어드밴스드 패키징 기술'이란 주제의 발표에서 이같이 밝혔다. 이번 행사는 4일 개막하는 '세미콘 타이완 2024'의 세션 중 하나로 열렸다.
HBM은 AI 칩의 필수 반도체로 늘어나는 데이터 트래픽과 이로 인한 메모리의 시스템 병목 현상을 극복하기 위한 현존 최고 사양의 D램이다. HBM은 AI 서버와 고성능 컴퓨팅용 메모리로 광범위하게 채택되고 있다.
이 부사장은 "현재 HBM3E 8단·12단은 초당 1.18TB(테라바이트) 이상의 데이터를 처리하며 최대 36GB(기가바이트)의 용량을 지원한다"며 "HBM4는 12·16단으로 공급되며 용량은 최대 48GB까지, 데이터 처리 속도는 초당 1.65TB 이상으로 성능이 발전한다"고 소개했다. 그러면서 "HBM4부터는 베이스 다이에 로직 공정을 적용해 성능 및 에너지 효율 향상을 기대하고 있다"고 덧붙였다.
그는 HBM 성능 발전에 따라 HBM에 대한 수요는 AI 시장에서 더 늘어날 것으로 내다봤다. 업계에 따르면 지난해부터 2032년까지 생성형 AI 시장이 연평균 27% 성장할 것으로 예상되는 가운데 HBM 시장은 2022년부터 2025년까지 연평균 109% 성장할 것으로 전망된다.
이 같은 성장세에 맞춰 HBM 시장 1위 업체인 SK하이닉스는 지난 3월 메모리업체 중 최초로 5세대 HBM인 HBM3E 8단 제품을 엔비디아에 납품하기 시작했다. 맞춤형 HBM인 6세대 HBM4도 준비 중이다.
SK하이닉스는 어드밴스드 MR-MUF 기술을 적용한 HBM4 12단 제품을 2025년 출하하고, 2026년 수요 발생 시점에 맞춰 HBM4 16단 제품 출시를 준비하는 것이 목표다. 이와 관련해 엔비디아를 비롯한 M7(애플·마이크로소프트·구글 알파벳·아마존·엔비디아·메타·테슬라) 등 글로벌 빅테크 기업과 협력을 지속하고 있다.