엔비디아-구글, 'AI 개발 스타트업' 지원 프로그램 통합

김현아 기자I 2024.04.12 10:30:41

엔비디아 인셉션(NVIDIA Inception)과
구글포스타트업 클라우드(Google for Startups Cloud)통합
클라우드와 협력 강화로 AI 개발 엔진 가속
생성형 AI 서비스 빠른 구축 위한 수천 개 스타트업 지원
GPU+클라우드 생태계 주도 의지

[이데일리 김현아 기자]AI서비스와 앱 개발을 위해 엔비디아와 구글이 뭉쳤다.

GPU의 강자 엔비디아의 스타트업 지원 프로그램과 구글 클라우드의 스타트업 지원 프로그램을 통합한 것이다.

양사는 이 같은 사실을 발표하면서 수 천개의 스타트 업들이 생성형 AI 서비스를 빠르게 구축할 수 있을 것으로 기대했다. AI 개발 비용 절감과 개발 장벽 완화를 기대했다. GPU 공급사와 클라우드 서비스 회사간 시너지를 기대했다.



어떤 일인데?

9일(현시시간) 미국 라스베이거스에서 개최된 ‘구글 클라우드 넥스트(Google Cloud Next) 2024’에서 스타트업을 위한 엔비디아 인셉션(NVIDIA Inception) 프로그램과 구글 포 스타트업 클라우드(Google for Startups Cloud) 프로그램을 통합한다는 협업 소식이 발표됐다.이번 협업으로 엔비디아와 구글 클라우드는 클라우드 크레딧, 시장 진출 지원, 그리고 기술 전문 지식에 대한 접촉 기회 확대를 통해 스타트업을 지원한다.

우선 1만8000개 정도 되는 엔비디아 인셉션 글로벌 프로그램의 회원은, AI에 중점을 둔 스타트업의 경우, 최대 35만 달러의 구글 클라우드 크레딧을 제공받고 구글 클라우드 인프라 사용 가속화 경로를 확보할 수 있다.

아울러 구글 포 스타트업 클라우드 프로그램 멤버는 엔비디아 인셉션에 가입해 기술 전문 지식, 엔비디아 딥 러닝 인스티튜트(Deep Learning Institute) 과정 크레딧, 엔비디아 하드웨어와 소프트웨어 등을 이용할 수 있다.

구글 포 스타트업 클라우드 프로그램의 스타트업 회원은 해당 분야에 관심이 있는 벤처 투자 기관에 노출될 기회를 주는 엔비디아 인셉션 캐피탈 커넥트(Inception Capital Connect) 플랫폼에도 참여할 수 있다.

아울러 두 프로그램 모두에서 급성장한 신생 소프트웨어 제조업체는 구글 클라우드 마켓플레이스(Marketplace) 등록, 공동 마케팅, 제품 개발 가속화 지원을 우선적으로 받을 수 있다.

GPU+클라우드 생태계 주도 의지

양사는 이번 프로그램은 스타트업들이 생성형AI 애플리케이션을 개발하는데 드는 비용을 줄이고 장벽을 완화하기 위한 조치라고 했다.

하지만, 인터넷을 통해 확장성이 뛰어난 컴퓨팅 리소스를 서비스로 제송하는 ‘서비스형 인프라(IaaS)’ 시장 확대를 겨냥한 측면도 있다.

구글클라우드는 엔비디아의 GPU 시리즈들을 서비스형인프라(IaSS)로 제공하고 있기 때문이다. 양사의 거대언어모델(LLM) 관련 협력은 지속돼 왔다.

구글의 오픈소스 LLM 모델인 ‘젬마(Gemma)’는 엔비디아 GPU로 실행되고 있다. 젬마 7B(Gemma 7B), 리커런트젬마(RecurrentGemma), 코드젬마(CodeGemma)를 포함한 젬마 모델 제품군은 엔비디아 API 카탈로그에서 사용 가능하다.

아울러 구글 클라우드를 사용하면 플랫폼 전반에 엔비디아 ‘네모(NeMo)’ 프레임워크를 배포하기 쉬워진다. ‘네모’는 슈퍼컴퓨팅 규모를 가진 대형 생체분자 언어 모델의 훈련과 배포를 위한 프레임워크다.

이를 통해 개발자는 생성형 AI 모델의 훈련과 제공을 확장하고 자동화할 수 있으며, 개발 과정에 맞춤형 청사진을 통해 신속히 구축할 수 있다. 엔비디아 AI 기업용 제품의 일부인 엔비디아 네모는 구글 클라우드 마켓플레이스에서도 이용 가능하다.

신제품 출시도 협력

한편 구글 클라우드는 엔비디아 생성형 AI 가속 컴퓨팅의 가용성 확대를 위해 다음 달 A3 메가(Mega)의 정식 출시를 발표했다.

아울러 엔비디아의 차세대 AI반도체 블랙웰(Blackwell) 플랫폼에 기반한 엔비디아의 최신 그래픽처리장치(GPU)는 내년 초에 두 가지 버전으로 구글 클라우드에 출시될 예정이다.

엔비디아의 신작 AI칩은 ‘B(블랙웰·Blackwell)100’과 ‘B200’ 두 종류인데, 기존의 H100(800억개)보다 2.5배 많은 2080억개 트랜지스터로 구성됐다. B200은 B100에 고대역폭메모리(HBM)를 강화하여 성능을 높였다.

엔비디아는 ‘GB200’이란 파생상품도 선보였는데, B200 2개와 엔비디아 그레이스 CPU를 연결한 슈퍼칩이다. 기존 H100에 비해 최대 30배 성능이 향상됐다. GB200이 탑재된 플랫폼은 2025년 구글클라우드에서도 제공된다.







주요 뉴스

ⓒ종합 경제정보 미디어 이데일리 - 상업적 무단전재 & 재배포 금지