고대역폭 메모리 선두주자 SK하이닉스, 2023년 시장점유율 53% 전망

▲ SK하이닉스가 HBM(고대역폭메모리) 양산에 가장 앞서 있어 인공지능 서버 시장 성장에 가장 큰 수혜를 입을 것으로 분석됐다. < SK하이닉스 뉴스룸 >

[비즈니스포스트] SK하이닉스가 HBM(고대역폭메모리)에서 가장 앞서 있으며 2023년 시장점유율이 53%까지 높아질 것으로 전망됐다.

대만 시장조사기관 트렌드포스는 18일 “2022년 상위 3개 HBM 공급업체는 SK하이닉스, 삼성전자, 마이크론으로 각각 50%, 40%, 10%의 시장점유율을 차지했다”며 “현재 HBM3 제품을 양산하는 공급사는 SK하이닉스가 유일하며 HBM3 채택 고객이 늘어나면 시장점유율이 53%까지 높아질 것”이라고 전망했다.

HBM은 램을 여러 층으로 쌓아올린 형태로 구현돼 인공지능처럼 수많은 데이터를 빠르게 처리해야 하는 분야에서 활용되는 고성능 메모리반도체다. 현재 HBM3까지 개발됐는데 SK하이닉스만이 현재 HBM3 양산을 하고 있다.

HBM3은 최대 819GB/s의 속도로 1초에 FHD(Full HD) 영화 163편을 전송할 수 있다. 

엔비디아는 최근 인공지능(AI) 서버용 그래픽처리장치(GPU)인 H100을 출시했고 AMD도 MI300 출시를 앞두고 있는데 여기에는 HBM3이 활용된다. SK하이닉스는 2022년부터 HBM3를 양산해 엔비디아에 제품을 공급하기 시작했다.

삼성전자와 마이크론도 HBM3를 개발하고 있으나 양산은 2024년부터 가능할 것으로 전망됐다. 이에 따라 SK하이닉스가 인공지능 서버 시장 확대 초기에 가장 많은 수혜를 입을 것으로 분석된다.

인공지능 서버 출하량은 매년 큰 폭으로 성장할 것으로 보인다.

H100과 같은 하이엔드 인공지능용 그래픽카드가 장착된 서버의 2022년 출하량은 전년보다 9% 늘어났으며 2023년에는 15.4% 늘어날 것으로 전망됐다. 2024년~2027년에도 각각 10%, 12.7%, 11.3%. 15%씩 증가해 연평균 성장률이 12.2%에 이를 것으로 예상됐다.

인공지능 서버는 서버용 D램, SSD(솔리드스테이트드라이브), HBM의 수요를 동시에 자극한다.

일반 서버에는 500~600GB의 D램이 필요하지만 인공지능 서버에는 모듈당 64~128GB로 평균 1.2~1.7TB의 훨씬 더 많은 서버 D램이 요구된다.

트렌드포스는 “인공지능 서버 출하량의 강력한 성장은 HBM(고대역폭메모리)에 대한 수요를 주도하고 있다”며 “2023년에는 마이크로소프트, 메타, 바이두 등이 생성 인공지능 제품 및 서비스를 출시해 인공지능 서버 출하량이 더욱 늘어날 것”이라고 내다봤다. 나병현 기자