삼성, 'MemCon'서 구글·MS 등에 AI 메모리기술 선봬

by최영지 기자
2023.03.29 12:16:17

28일 캘리포니아서 메모리솔루션 관련 학회 열려
"HBM-PIM 탑재시 챗GPT 등 AI모델 성능 개선"
"시장 요구 부응해 메모리 패러다임 변화 주도"

[이데일리 최영지 기자] 삼성전자는 28일(현지시간) 미국 캘리포니아 마운틴뷰에서 처음 개최된 ‘MemCon 2023’에 참가해 인공지능(AI) 시스템에 활용되는 첨단 메모리 기술 트렌드를 선보였다고 29일 밝혔다.

최진혁 삼성전자 반도체 미주 메모리연구소장 부사장이 28일(현지시간) 미국 캘리포니아 마운틴뷰에서 열린 ‘MemCon 2023’에서 발표하는 모습. (사진=삼성전자)
삼성전자(005930)는 AI 관련 메모리 솔루션을 공유하는 학회로 올해 처음 개최된 MemCon 2023에 참여했다. 이날 구글과 마이크로소프트 등 글로벌 IT 기업을 비롯해 메모리, 디바이스 및 서버 업체들도 대거 참여했다.

최진혁 삼성전자 반도체 미주 메모리연구소장 부사장은 이번 학회에서 ‘데이터 중심 컴퓨팅 시대의 메모리 혁신’을 주제로 D램과 낸드플래시의 메모리 월(Memory Wall·프로세서와 메모리 간 병목현상) 문제를 해결할 혁신적인 솔루션과 함께, 업계를 선도할 삼성전자 반도체 메모리 기술의 비전을 제시했다.

최 부사장은 이어 △고성능 메모리에 연산 기능을 내장한 ‘HBM-PIM(Processing-in-memory)’ △연산 기능을 메모리 옆에 위치시킨 ‘PNM(Processing-near-memory)’ △시스템의 메모리 용량을 테라바이트급까지 확장할 수 있는 ‘CXL(Compute Express Link) D램’ △SSD 내부 연산 기능을 강화한 ‘2세대 스마트SSD(솔리드 스테이트 드라이브)’ 등을 소개했다.



이번 학회에서 발표한 제품 중 HBM-PIM 와 CXL-PNM 은 AI 응용처에 적용했을 때 기존 솔루션 대비 GPU(그래픽처리장치) 가속기의 성능을 획기적으로 향상시킬 수 있다. 또, 2세대 스마트SSD는 1세대 대비 크게 향상된 성능을 바탕으로 데이터 연산처리 시간과 에너지 소모량을 줄일 수 있다.

특히 챗GPT와 같은 대규모 모델의 경우, 메모리 병목현상으로 지연되는 부분이 80% 이상으로 추정되기에 문장 생성 속도가 지연된다는 문제가 있다. 이를 극복하기 위해 해당 모델에 HBM-PIM 기술을 적용해 가속화할 경우, 기존 HBM이 탑재된 GPU 가속기에 비해 AI 모델의 생성 성능이 약 3.4배 이상 개선될 것이라는 게 삼성전자 분석이다.

또, CXL 기반의 PNM 기술을 적용한다면 기존 GPU 가속기 대비 D램 용량은 4배 증가하고, AI 모델의 로딩 속도는 2배 이상 빨라질 것으로 예상했다.

삼성전자는 “시장의 요구에 부응하고, 메모리 산업의 지속적 발전을 위해 다양한 차세대 메모리 솔루션을 개발하고 있다”며 “글로벌 IT기업들과 협력을 강화해 메모리 패러다임 변화를 지속 주도해 나갈 것”이라고 했다.