투자자들의 신뢰는 삼성전자의 기술 리더십을 되찾기 위한 노력을 반영하고 있다.

삼성의 12층 HBM3E 칩이 고성능 AI 가속기용 Nvidia 인증 테스트를 통과했습니다. 이 소식에 힘입어 삼성전자의 주가는 즉각 5% 이상 급등했으며, 이는 삼성전자가 이미 SK hynix와 Micron 등 경쟁사들이 Nvidia에 HBM3E 칩을 공급하고 있는 상황에서 격차를 줄이고 있음을 의미합니다.
이번 긍정적인 발전은 HBM3E 개발 완료 시점으로부터 약 18개월이 지난 시점이며, 여러 차례의 인증 지연을 겪은 끝에 이루어졌습니다. 보고서에 따르면, 현재 HBM3E의 주문 물량은 SK hynix와 Micron을 통해 충족되고 있어, 삼성전자가 Nvidia에 대량으로 HBM3E를 공급하는 것은 2026년이 되어야 가능할 것으로 알려졌습니다.
보고서에 따르면, 삼성의 HBM3 메모리는 조만간 Nvidia DGX B300 카드에 탑재될 것으로 예상되며, 블룸버그의 업계 소식통들은 이 칩이 곧 최종 Nvidia 인증을 받을 것으로 전망하고 있습니다. AMD 분야에서는 삼성전자가 이미 Micron과 함께 Instinct MI350 카드용 HBM3E 칩을 판매하고 있었습니다. HBM3는 현재 사용 가능한 최고 사양 메모리 칩으로, 기존 표준 HBM3의 8층에서 증설된 12층 구조를 갖추고 있으며, 이 구성을 통해 스택당 1.2 TB/s라는 높은 대역폭을 구현합니다.
참고로 메모리 시장은 올해 하이퍼스케일 데이터 센터 지출에서 30%를 차지할 것으로 예상되며, 이는 2023년 대비 4배 증가한 수치입니다.
HBM3E가 출시된 지 1년이 채 되지 않았지만, AI 기술 발전 속도는 매우 빠릅니다. 업계의 관심은 이미 칩의 버스 폭을 두 배로 늘려 스택당 약 2 TB/s의 대역폭을 제공하는 사양인 HBM4에 집중되어 있습니다. 주목할 점은, JEDEC HBM4 표준이 핀당 8 Gbps를 요구하지만, 세 주요 메모리 제조사 모두 Nvidia의 요구에 힘입어 양산 칩에서는 핀당 10~11 Gbps를 목표로 하고 있다는 점입니다. 또한, 10nm 공정에서 3~4nm 공정으로 제조가 가능해지면서, HBM4는 칩당 용량이 48 GB에서 64 GB로 대폭 증가하고 전력 소비는 20~30% 감소하는 것으로 예측됩니다.
삼성은 곧 출시될 HBM4 제품에 대해 조기 인증을 확보하기 위해 거의 모든 AI 칩 제조사들과 협의 중이며, 2026년 상반기부터 양산 가동을 목표로 하고 있습니다. 현재 이 경쟁은 2주도 채 되지 않아 HBM4 개발 완료를 선언한 SK hynix가 선두 주자로 나섰습니다. 하지만 삼성전자의 주가 급등세를 고려할 때, 투자자들은 삼성전자가 곧 뒤처진 격차를 성공적으로 따라잡을 것이라는 강한 자신감을 내비치고 있는 것으로 분석됩니다.
구글 뉴스에서 Tom's Hardware를 팔로우하여 최신 뉴스, 분석 및 리뷰를 받으시고, '팔로우' 버튼을 클릭해 주세요.