엔비디아 축제에 총성 없는 韓 반도체 전쟁

데일리안
|
2024.03.19 오후 01:00
|

엔비디아 축제에 총성 없는 韓 반도체 전쟁

GTC 2024서 삼성·SK·마이크론 전시관 통해 HBM3E 과시

엔비디아 물량 잡으려면 HBM3E서 어느 정도 성과 나야

SK가 가장 먼저 공급…삼성·마이크론 물량도 관심

엔비디아 CEO 젠슨 황ⓒ엔비디아 엔비디아 CEO 젠슨 황ⓒ엔비디아

엔비디아가 18일(현지시간) 열린 ‘AI 개발자 콘퍼런스(GTC 2024)’에서 차세대 AI(인공지능)칩을 선보이며 AI 시장에서 입지를 확고히 하겠다는 포부를 드러냈다. 아마존, 구글, 메타, 마이크로소프트, 오픈AI, 테슬라 등 미 IT 기업들은 일제히 신규 AI칩을 도입하겠다며 엔비디아 독주에 힘을 실었다.

이 자리에서 삼성전자, SK하이닉스, 마이크론 등 메모리 제조사들은 나란히 최신 HBM(고대역폭메모리)을 선보이며 기술력 과시에 나섰다. 엔비디아의 화려한 축제 속 메모리 업체들은 총성없는 전쟁에 돌입했다.

엔비디아의 창립자 겸 CEO인 젠슨 황(Jensen Huang)는 이날 미국 캘리포니아주 새너제이 SAP 센터에서 ‘AI 개발자 콘퍼런스(GTC 2024)’를 열고 차세대 AI칩 아키텍처(프로세서 작동방식)인 ‘블랙웰(Blackwell)’을 비롯해 이를 기반으로 한 칩 ‘B200’을 공개했다.

블랙웰은 게임 이론과 통계학을 전공한 수학자이자 흑인으로는 최초로 미국국립과학원에 입회한 데이비드 헤롤드 블랙웰(David Harold Blackwell)을 기리기 위해 붙여진 이름이다. 이 아키텍처는 2년 전 출시된 엔비디아 호퍼(Hopper) 아키텍처의 후속 기술이다.

블랙웰 아키텍처 GPU(그래픽처리장치)는 2080억개의 트랜지스터를 탑재했다. 기존 H100이 800억개의 트랜지스터를 적용한 점을 고려하면 2.5배 많다. AI 가속기인 ‘GB200’은 B200을 엔비디아 그레이스 CPU와 연결한 것으로, 기존 H100 보다 성능은 30배 높은 반면 비용과 에너지 소비는 최대 25배 낮은 것이 특징이다.

엔비디아의 최신 AI칩 로드맵에 발맞춰 국내 대표 반도체 기업인 삼성전자와 SK하이닉스도 GTC에 부스를 설치하고 AI용 초고성능 D램 신제품인 HBM3E 어필에 나섰다. 양사는 엔비디아 AI 가속기에 탑재되는 HBM을 제조하고 있다.

HBM은 여러 개의 D램 칩을 TSV(실리콘 관통 전극)로 쌓아 올려 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치 제품을 말한다. 현재 제조사들은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E) 순으로 개발·양산중이다.

HBM3E는 HBM3의 확장형 모델로, 속도부터 발열 제어, 고객 사용 편의성 등 모든 측면에서 현존 최고 수준이라는 평가를 받는다. 가격도 기존 제품 보다 5~7배 비싸기 때문에 팔수록 이득이다.

삼성전자·SK하이닉스·마이크론은 올 상반기 HBM3E를 모두 내놓으며 HBM 경쟁을 펼친다. 이 과정에서 HBM ‘큰 손’으로 꼽히는 엔비디아가 누구의 손을 들어줄지 관심이다.

엔비디아가 18일(현지시간) 차세대 AI(인공지능)칩 '블랙웰(Blackwell)'을 공개했다.ⓒ엔비디아 엔비디아가 18일(현지시간) 차세대 AI(인공지능)칩 ‘블랙웰(Blackwell)’을 공개했다.ⓒ엔비디아
SK하이닉스, HBM3E 엔비디아에 가장 먼저 공급

먼저 움직인 것은 마이크론이다. 지난달 26일(현지시간) 홈페이지를 통해 HBM3E를 올 2분기부터 출하한다고 발표했다. 특히 이 회사는 HBM3를 건너뛰고 HBM3E로 직행하는 승부수를 띄웠다.


실제 공급은 SK하이닉스가 가장 빠른 것으로 나타났다. 이 회사는 마이크론 보다 한 발 앞선 3월 말부터 HBM3E를 공급하다고 밝혔다. 회사측은 “HBM3에 이어 현존 D램 최고 성능이 구현된 HBM3E 역시 가장 먼저 고객에 공급하게 됐다”며 “HBM3E 양산도 성공적으로 진행해 AI 메모리 시장에서의 경쟁우위를 이어 가겠다”고 했다.

이에 삼성은 한 발 앞선 기술력으로 HBM3E 승부를 예고했다. 경쟁사가 8단으로 D램을 쌓아 24GB 용량을 구현하는 것과 달리 삼성은 12단까지 적층해 업계 최대 용량인 36GB를 구현했다. 삼성은 HBM3E 샘플을 고객사에게 제공중으로, 상반기 내 양산에 돌입하겠다고 했다.

HBM3E 전쟁을 시작한 이들은 나란히 엔비디아 GTC 부스에서도 AI칩 라인업을 선보이며 여러 글로벌 고객·협력사를 맞이한다. 삼성전자는 홈페이지를 통해 HBM3E 외에 DDR5, GDDR7, PM1743, CMM-D, LPDDR5X, AutoSSD 차세대 반도체를 소개했다.

다양한 연사도 세운다. 윤석진 삼성전자 상무는 GTC2024’에서 엔비디아의 ‘반도체 산업을 위한 옴니버스 기반 디지털 트윈 플랫폼’이라는 주제로 연설을 한다. 삼성전자 반도체 미국법인의 데이비드 매킨타이어 디렉터는 ‘데이터 중심 컴퓨팅을 위한 CXL’를, 사라 피치 시니어디렉터는 ‘AI/ML 및 데이터 분석을 위한 서비스로서의 스토리지 가치’ 등을 설명한다.

SK하이닉스의 HBM3E.ⓒSK하이닉스 SK하이닉스의 HBM3E.ⓒSK하이닉스

SK하이닉스는 TL(테크 리더)급 2명을 세웠다. 이들은 ‘전세계 AI 폭발 속 HBM 시장 전망’, ‘생성형 AI 시스템과 HPC를 위한 5세대 HBM 가치 제안’ 등을 다룰 예정이다.

이 같은 자사 HBM 로드맵을 통해 메모리 삼총사가 얼마나 엔비디아 물량을 따낼 수 있을지 관심이다. 엔비디아는 이날 발표한 B200 외에도 H100, H200 등 AI칩을 출시했거나 출시를 준비중이다.

연말까지 순차 출시되는 이들 라인업에는 HBM3, HBM3E가 탑재된다. 블랙웰 기반 칩은 차세대 D램인 HBM4가 적용될 가능성이 있는 만큼, 앞으로도 엔비디아와 쉽게 손 잡으려면 이번 HBM3E 수주전에서 어느 정도 성과가 나야 한다.

현재 주력 제품인 HBM3 시장점유율은 SK하이닉스가 90% 이상을 점유하는 것으로 알려졌다. 올해는 삼성전자와 SK하이닉스가 가장 공격적으로 HBM 생산에 나설 것으로 트렌드포스는 예상했다. 삼성의 경우 경우 전체 HBM 생산능력이 연말까지 13만대(TSV 포함)이며, SK는 12만대 수준이나 검증 진행 상황과 고객 주문에 따라 달라질 수 있다고 했다.

이에 따라 D램 시장에서 HBM 매출 비중이 2023년 8.4%에서 2024년 말에는 20.1%를 기록, 2배 이상 늘어날 것으로 트렌드포스는 전망했다.

HBM3E 12H D램 제품 이미지ⓒ삼성전자 HBM3E 12H D램 제품 이미지ⓒ삼성전자
늘어나는 HBM 시장…수율 경쟁에서 유리한 자가 승기

엔비디아의 확고한 선택을 받으려면 수율(양품 비율) 개선이 우선순위로 꼽힌다. HBM은 수율(TSV 패키징 포함)이 DDR5 보다 20~30% 낮은 반면, 생산 주기는 1.5~2개월 더 걸리기 때문에 손실을 줄이려면 다각도로 공정 개선이 필요하다.

수율을 좌우하는 건 디테일이다. D램 칩을 쌓는 과정에서 밑으로 압력이 가해지면 웨이퍼 휨(Warpage) 현상이 생기는 데, 이를 극복하면서 D램 칩을 안정적으로 쌓는 기술이 필요하다. 이 적층 방식은 MR-MUF(매스리플로우-몰디드언더필), TC-NCF(열압착-비전도성 접착 필름) 등으로 나뉜다.

현재 SK하이닉스가 전자를, 삼성전자와 마이크론이 후자의 방식을 택하고 있다. HBM4·5·6 등 차세대 HBM에서는 제한된 높이에서 더 많은 D램을 쌓아 올려 칩 사이 두께가 더욱 얇아질 것으로 예상된다. 이 때 발생하는 휨 현상을 막고 불량을 줄이는 것이 관건이 될 전망이다.

이 기사에 대해 어떻게 생각하시나요?
+1
0
+1
0
+1
0
+1
0
+1
0

Leave a Comment

랭킹 뉴스

실시간 급상승 뉴스 베스트 클릭