구글 클라우드, 카카오브레인에 ‘초거대AI’ 용 맞춤형 프로세서 제공

by김현아 기자
2021.11.28 09:13:17

클라우드 TPU(신경망 학습과 추론 연산에 적합한 ASIC)제공
대규모 데이터에 최적화된 모델 학습 프로세스 구축
모델 개발 시간 단축 및 비용 절감

[이데일리 김현아 기자]



구글 클라우드가 카카오의 인공지능(AI) 연구 자회사 카카오브레인이 구글 클라우드의 맞춤형 머신러닝 하드웨어(ASIC)인 ‘클라우드 TPU(Tensor Processing Unit)’를 공급했다.

TPU는 신경망 학습과 추론 연산에 적합한 ‘애플리케이션특화직접회로(ASIC)’다. 구글이 자체 데이터센터에서 머신러닝기반 서비스를 구동하는 데 쓰이고 있다. 구글의 퍼블릭클라우드 서비스 형태로 외부 개발자나 연구자들도 빌려 쓸 수 있다.

카카오브레인이 이를 빌린 것은 초거대 AI 언어 모델 ‘KoGPT’의 연구개발 역량을 강화하기 위해서다.

KoGPT는 미국의 AI 연구기관 오픈AI(OpenAI)가 개발한 딥러닝 기반 자연어처리(NLP) AI 모델 ‘GPT-3’의 한국어 특화 버전이다. 카카오브레인은 최근 오픈소스 커뮤니티 깃허브(GitHub)에 KoGPT를 공개했다.

KoGPT 모델을 학습시키는 데에는 수십억 이상의 데이터와 모델 파라미터(Parameter; 매개변수)가 활용됐다. 카카오브레인은 대규모 데이터 및 모델 학습에 적합한 리소스를 확보하기 위해 기존의 GPU 서버 환경에 구글 클라우드 TPU를 추가로 도입했다.

클라우드 TPU는 구글 클라우드 AI와 맞춤형 고속 네트워크를 기반으로 기업의 혁신을 가속화한다. 카카오브레인은 클라우드 TPU를 도입해 대규모 모델 학습 시 발생하는 네트워크 병목 현상을 해결하고 60억 개의 파라미터와 2000억 개 토큰(token)에 달하는 한국어 데이터를 빠르게 처리했다. 이를 통해 언어 모델 연구 및 개발에 소요되는 시간을 단축하고 효율적인 모델 학습 프로세스를 구축할 수 있다.

뛰어난 사용 편의성과 확장성 역시 카카오브레인이 클라우드 TPU를 선택한 중요한 요소였다.



클라우드 TPU는 팟(Pod) 단위로 할당 및 관리가 가능하며 최소한의 코드 변경으로 최대 2048개의 연산 노드까지 손쉽게 확장할 수 있다. 별도의 인프라를 설치할 필요 없이 퍼블릭 클라우드 환경에서 모든 시스템을 사용할 수 있기 때문에 KoGPT의 개발 시간과 비용을 동시에 절감할 수 있었다.

구글 클라우드는 TPU의 차세대 모델인 ‘클라우드 TPU V4’를 이미 내부 머신러닝 워크로드에 광범위하게 사용 중이며 가까운 미래에 국내 시장에도 선보일 예정이다.

카카오브레인은 클라우드 TPU V4의 대규모 데이터 학습 테스트에 참여해 클라우드 TPU V4의 상용화를 앞당기는 데 기여하고 있다.

카카오브레인은 향후 클라우드 TPU를 활용해 텍스트, 이미지, 오디오 등 다양한 의사소통 채널을 활용한 멀티모달(Multi-modal) 모델을 연구개발할 계획이다.

기억의 저장 및 학습된 지식 갱신 등 기존 딥러닝 모델의 한계를 극복하는 연구를 통해 사회 문제 해결에 노력할 예정이다.

김일두 카카오브레인 대표는 “구글 클라우드에서 제공하는 클라우드 TPU는 딥러닝에 최적화돼 짧은 기간 안에 고효율의 학습 파이프라인을 구축할 수 있었다”라며 “구글 클라우드와 지속적으로 협력해 초거대 AI 모델의 연구 효율을 한층 끌어올릴 예정”이라고 밝혔다.

최기영 구글 클라우드 코리아 사장은 “새로운 시대를 여는 한국어 초거대 AI 모델 개발에 구글 클라우드가 함께 할 수 있어 의미 있게 생각한다”라며 “구글 클라우드의 강력한 AI 및 머신러닝 인프라를 기반으로 한국 기업과 연구 기관이 다양한 분야에서 혁신을 가속화할 수 있도록 지원하겠다”라고 강조했다.