[테크Talk]“AI가 대세” 삼성·SK, AI솔루션 시장 선점 경쟁 치열

by최영지 기자
2023.04.02 09:30:35

1Q 적자 전망에도 차세대 메모리로 업황 반등 예상
삼성, HBM-PIM 등 고성능 차별성 언급
SK하이닉스. ''챗GPT 적용'' HBM3 경쟁력 강조

[이데일리 최영지 기자] 삼성전자와 SK하이닉스 등 국내 반도체기업이 반도체 불황 속 실적부진을 이어가고 있음에도 중장기 전망이 어둡지 않다는 게 전반적인 업계 관측이다. 인공지능(AI) 챗봇인 챗GPT 열풍으로 연산 기능이 더해진 메모리 수요가 늘어날 수밖에 없다는 분석 때문이다. AI 프로세서와 적층형 고성능 메모리 등 복합형 반도체 패키지 경쟁력을 갖추기 위한 업계 경쟁이 더욱 치열해질 것으로 보인다.

최진혁 삼성전자 반도체 미주 메모리연구소장 부사장이 28일(현지시간) 미국 캘리포니아 마운틴뷰에서 열린 ‘MemCon 2023’에서 발표하는 모습. (사진=삼성전자)
삼성전자(005930)는 지난 28일(현지시간) 미국 캘리포니아 마운틴뷰에서 열린 ‘MemCon 2023’에서 HBM-PIM(프로세싱 인 메모리)과 CXL-PNM 등 AI 관련 메모리 솔루션을 소개했다. HBM-PIM의 경우 AI 응용처에 적용했을 때 기존 솔루션 대비 GPU(그래픽처리장치) 가속기의 성능을 획기적으로 향상시킬 수 있다고 설명했다. 또, 2세대 스마트SSD는 1세대 대비 크게 향상된 성능을 바탕으로 데이터 연산처리 시간과 에너지 소모량을 줄일 수 있다고 했다.

HBM-PIM은 삼성전자가 2021년 발표한 제품으로, 3D D램과 함께 차세대 메모리로 불린다. 메모리에 시스템반도체의 영역인 연산 기능을 더한 지능형 반도체로 AI 시장의 게임 체인저로 꼽히기 때문이다.

삼성전자는 해당 제품이 기존 HBM 제품보다 우수하다는 점을 재차 강조하며 챗GPT 등 AI 응용처에서 고성능을 발휘할 수 있다는 점을 강조했다. 챗GPT와 같은 대규모 모델의 경우, 메모리 병목현상으로 지연되는 부분이 80% 이상으로 추정되기에 문장 생성 속도가 지연되는 점을 개선할 수 있다는 것이다. HBM-PIM 기술을 적용해 가속화할 경우, 기존 HBM이 탑재된 GPU 가속기에 비해 AI 모델의 생성 성능이 약 3.4배 이상 개선될 것이라는 게 삼성전자 분석이다.



또, CXL 기반의 PNM 기술을 적용한다면 기존 GPU 가속기 대비 D램 용량은 4배 증가하고, AI 모델의 로딩 속도는 2배 이상 빨라질 것으로 예상했다. PNM은 PIM처럼 메모리에 데이터 연산 기능을 활용해 그래픽처리장치(CPU)와 메모리 간 데이터 이동을 줄여주는 기술로, 연산기능을 메모리 내부에 두는 PIM과 달리 메모리 옆에 연산 기능을 둔다.

(사진=삼성전자)
SK하이닉스(000660)도 공식석상에서 연일 자사 제품 HBM3와 챗GPT를 언급하며 시장경쟁력을 강조하는 모양새다. HBM3가 챗GPT에 활용되는 엔비디아 GPU에 탑재돼 몸값을 올리고 있어서다. 박정호 SK하이닉스 부회장도 최근 “SK하이닉스가 세계 최초로 개발한 최고속 D램인 HBM은 AI 시대 기술 진화에 큰 역할을 할 것으로 기대된다”고 말했다.

다른 SK하이닉스 임원들도 학회 등을 통해 챗GPT 사용량이 늘수록 HBM3도 많이 팔릴 것이라고 언급하고 있다.

현재로선 업계는 HBM 시장의 주도권을 쥔 게 SK하이닉스라고 보고 있다. SK하이닉스는 2013년 미국 AMD와 함께 세계 최초 HBM을 개발, 양산했으며 60~70% 수준의 시장 점유율을 확보한 것으로 알려졌다.

SK하이닉스가 업계 최초로 개발한 HBM3 D램. 사진=SK하이닉스