|
신제품은 24Gb로 업계 최고 용량을 구현했다. 전작의 용량은 16Gb였다. 속도는 40Gbps(초당 40기가비트)이며 최대 42.5Gbps까지 동작해 업계 최고 수준이다. 그래픽카드에 탑재하면 최대 초당 1.8TB(테라바이트)의 데이터를 처리할 수 있다. 저전력 특성이 중요한 모바일 제품에 적용하는 기술도 도입해 전력 효율 역시 30% 이상 개선했다. 삼성전자는 연내 주요 그래픽처리장치(GPU) 고객사의 차세대 AI 컴퓨팅 시스템에서 신제품 검증을 시작하고 내년 초 상용화할 계획이다.
GDDR은 그래픽을 빠르게 처리하는 데 특화된 제품이다. 병렬 연산 처리를 하는 GPU를 지원하며 그래픽을 넘어 AI 분야까지 쓰임새가 커지고 있다.
고성능 AI 서버에 탑재하는 고성능 AI 가속기에는 보통 HBM을 사용한다. 그러나 모든 AI 가속기가 HBM을 쓰는 건 아니다. 높은 가격 때문이다. 중저사양 AI 가속기에는 HBM 외에 GDDR이나 저전력(LPDDR) D램을 사용하는 경우도 있다. 데이터 추론을 위한 AI칩에도 GDDR이 쓰인다. 실제 반도체 거장으로 꼽히는 짐 켈러가 최고경영자(CEO)로 있는 캐나다 AI 반도체 스타트업 텐스토렌트는 HBM 대신 GDDR6를 사용한다.
이에 SK하이닉스 역시 GDDR 개발에 적극적이다. SK하이닉스가 지난 7월 공개한 GDDR7 신제품은 32Gbps 동작속도를 구현하되 최대 40Gbps까지 속도를 낼 수 있다. 당시엔 SK하이닉스 제품이 업계에서 가장 빨랐는데 삼성전자가 이를 넘어서는 신제품으로 맞섰다.
|
삼성전자 입장에서는 거듭 거론되는 삼성 위기론을 불식시키기 위해서라도 전망이 밝은 GDDR로 AI 메모리 리더십을 확보해야 하는 상황이다. HBM ‘큰 손’인 엔비디아에 공급하기 위한 5세대 HBM3E는 품질 검증 통과가 늦어지고 있고 범용 메모리에서도 중국 공세에 수익 확보가 어려워진 실정이다.
김형준 차세대지능형반도체사업단장(서울대 명예교수)은 “중저사양 AI 가속기를 만드는 반도체 기업에서는 HBM 대신 GDDR을 쓰려는 수요가 있다”며 “GDDR 역시 AI 메모리 리더십을 높이는 데에는 일부 도움이 될 것”이라고 설명했다. 그러면서 “GDDR뿐 아니라 엔비디아 HBM3E 퀄 통과도 시급하다”고 덧붙였다.