"1위 지킨다"…AWS, 모델부터 칩·서버까지 'AI 올인 전략'[AWS리인벤트24]

임유경 기자I 2024.12.04 16:56:08

연례 최대 행사 리인벤트서 신기능·신기술 쏟아내
오픈AI GPT와 겨루는 자체 AI 모델 '노바' 출시
AI 학습·추론 특화 단일 인스턴스·대형 서버 선봬
성능 2배 높인 차세대 AI칩 트레이니엄3 공개

[라스베이거스(미국)=이데일리 임유경 기자] 세계 최대 클라우드 플랫폼 아마존웹서비스(AWS)가 폭발하는 생성형 인공지능(AI) 수요에 대응하기 위한 신기술·신제품을 쏟아냈다. 오픈AI GPT, 구글 제미나이 등과 경쟁하는 자체 AI 모델 ‘노바’를 전격 출시했고, 매개변수(파라미터)가 수 조개에 이르는 초거대 AI까지 구동 가능한 ‘울트라 서버’를 선보였다. 내년 말엔 기존 AI칩 대비 성능을 2배 높인 ‘트레이니엄3’를 출시한다. 클라우드는 물론이고 AI 칩과 AI 모델까지 자체 역량으로 구축해, AI 시대 1위 업체로 위치를 다지겠다는 전략이다.

동영상 생성 모델 까지 포함한 ‘노바’ 출시

앤디 재시 아마존 최고경영자(CEO)는 3일(현지시간) 라스베이거스에서 열린 AWS 연례 기술 콘퍼런스 ‘AWS 리인벤트 2024’ 기조연설을 통해 “진보된 지능을 갖춘 최신 파운데이션 모델 노바를 출시한다”고 발표했다.

[이데일리 이미나 기자]
아마존 노바는 한국어를 포함해 200개 언어를 지원하는 텍스트 전용 모델 1종(마이크론), 텍스트와 이미지, 비디오를 인식할 수 있는 멀티모달 모델 3종(라이트, 프로, 프리미어), 이미지 생성이 가능한 모델 1종(캔버스), 동영상 생성이 가능한 모델 1종(릴) 등 총 6 종으로 구성됐다. 내년 1분기 출시할 프리미어 모델을 제외하고, 모두 이날 전격적으로 정식 버전을 내놨다. 아마존이 오픈AI GPT, 구글 제미나이, 메타 라마, 앤트로픽 클로드 등과 직접 경쟁할 만한 수준의 성능을 갖춘 AI 모델을 출시한 건 처음이다.

재시 CEO는 노바의 장점이 ‘가격 대비 성능(가성비)’에 있다고 강조했다. 주요 AI 모델과 비교해 성능은 뒤지지 않고, 비용 절감과 고속처리 능력은 우위에 있다는 설명이다. 그는 “자체 벤치마크에서 노바 라이트는 동급인 GPT-4o 미니와 비교해 19개 항목에서 17개가 동등하거나 더 우수한 것으로 나타났다. 또 캔버스는 경쟁 모델 DALL-E3, 스테이블 디퓨전3.5와 비교해 이미지 품질·명령어 준수 측면에서 우수한 성능을 보였다. 그러면서도 노바 모델들은 같은 수준의 여타 모델보다 평균적으로 약 75% 더 저렴하고 지연 시간이 더 짧다”고 강조했다.

아마존은 노바를 빠르게 발전시켜 AI 모델 분야에서 영향력을 강화한다는 방침이다. 재시 CEO는 “현재 6초 가량의 스튜디오 품질 동영상을 만들 수 있는 노바 릴은 향후 몇 달 안에 영상 길이를 최대 2분으로 늘릴 예정이며, 내년 1분기에는 음성을 입력하면 음성 답변이 제공되는 ‘스피치-투-스피치’ 모델을, 내년 중반에는 ‘애니-투-애니’ 모델을 선보여 텍스트, 음성, 이미지, 비디오 등 다양한 형태의 입출력이 가능하게 할 것”이라고 밝혔다.

맷 거먼 AWS CEO가 3일(현지시간) 미국 네바다주 라스베이거스에서 열린 AWS 리인벤트 2024에서 기조연설을 하고 있다.(사진=AWS)
83.2페타플롭스 울트라서버 공개

기조연설에선 생성형 AI 학습과 추론을 지원하는 괴물급 컴퓨팅 제품군(EC2)도 줄줄이 발표됐다. AWS는 작년 리인벤트에서 신형 자체 AI 칩 ‘트레이니엄2’를 공개했는데, 1년 만에 이 칩이 탑재된 인스턴스(가상 서버) 제품 ‘EC2 트레이니엄2(Trn2)’를 정식 출시했다. Trn2 인스턴스는 16개의 트레이니엄2 칩을 초저지연 네트워크 기술인 ‘뉴런링크’로 연결해 최대 20.8 페타플롭스(FP· 초당 1000조 연산)의 연산 성능을 제공한다. 현재 그래픽처리장치(GPU) 기반 인스턴스보다 가성비는 30-40% 더 뛰어나다.

Trn2 인스턴스 4개를 뉴런링크로 연결해 하나의 대형 서버로 만든 ‘Trn2 울트라서버’도 공개했다. 매개변수가 수 조개에 이르는 AI 모델의 추론을 실시간으로 처리하고자 하는 수요에 대응하기 위해서다. 울트라서버는 총 64개의 트레이니엄2 칩이 탑재돼, 83.2FP의 연산 성능을 자랑한다. AWS는 수십만 개의 트레이니엄2 칩으로 구성된 EC2 울트라클러스터 구축 프로젝트 ‘레이니어’도 진행 중이다. AI 모델 훈련 속도를 획기적으로 높이는 것이 목표다. 이를 위해 누적 80억달러(약 11조원)을 투자한 앤트로픽과 협력하고 있다.

트레이니엄3가 내년 말 출시 되면 서버 제품들의 성능은 더 향상될 전망이다. 맷 거먼 AWS CEO는 “트레이니엄3는 전작보다 컴퓨팅 성능이 2배 더 향상되고, 에너지효율성은 40% 더 개선될 것”이라면서 “이제 더 큰 모델을 더 빠르게 구축하고 실시간 처리 능력은 극대화될 것”이라고 강조했다.

AI 개발 플랫폼 베드락 대규모 업데이트

AWS는 이외에도 AI 개발 플랫폼 베드락에 다양한 기능 업데이트를 발표했다. 먼저, 생성형 AI의 태생적 한계인 환각 문제를 획기적으로 해결할 ‘자동 추론 검증’ 기능이 도입됐다. 모델을 배포하기 전에 설정한 사실관계에 맞게 작동하는지 수학적 추론을 통해 검증해주는 기능이다. 멀티 에이전트 협업 기능도 추가됐다. 에이전트는 사용자를 대신해 스스로 행동까지 취할 수 있는 AI 솔루션으로, 각각 다른 기능을 하는 에이전트 간 협업이 중요해졌다는 점에 주목한 것이다. 작업을 세분화하고 각 에이전트들에 할당하는 역할을 하는 수퍼바이저 에이전트 기능도 도입했다. 원래 모델을 개량해 특정 용도에 가장 적합한 모델을 만들 수 있는 ‘모델 증류(Model Distillation) 기능도 선보였다. 이 기능을 통하면 원래 모델보다 실행은 최대 500% 빠르고 비용은 75%까지 절감하면서 정확도 손실은 2% 미만으로 유지할 수 있다.

주요 뉴스

ⓒ종합 경제정보 미디어 이데일리 - 상업적 무단전재 & 재배포 금지