◇동영상 생성 모델 까지 포함한 ‘노바’ 출시
앤디 재시 아마존 최고경영자(CEO)는 3일(현지시간) 라스베이거스에서 열린 AWS 연례 기술 콘퍼런스 ‘AWS 리인벤트 2024’ 기조연설을 통해 “진보된 지능을 갖춘 최신 파운데이션 모델 노바를 출시한다”고 발표했다.
|
재시 CEO는 노바의 장점이 ‘가격 대비 성능(가성비)’에 있다고 강조했다. 주요 AI 모델과 비교해 성능은 뒤지지 않고, 비용 절감과 고속처리 능력은 우위에 있다는 설명이다. 그는 “자체 벤치마크에서 노바 라이트는 동급인 GPT-4o 미니와 비교해 19개 항목에서 17개가 동등하거나 더 우수한 것으로 나타났다. 또 캔버스는 경쟁 모델 DALL-E3, 스테이블 디퓨전3.5와 비교해 이미지 품질·명령어 준수 측면에서 우수한 성능을 보였다. 그러면서도 노바 모델들은 같은 수준의 여타 모델보다 평균적으로 약 75% 더 저렴하고 지연 시간이 더 짧다”고 강조했다.
아마존은 노바를 빠르게 발전시켜 AI 모델 분야에서 영향력을 강화한다는 방침이다. 재시 CEO는 “현재 6초 가량의 스튜디오 품질 동영상을 만들 수 있는 노바 릴은 향후 몇 달 안에 영상 길이를 최대 2분으로 늘릴 예정이며, 내년 1분기에는 음성을 입력하면 음성 답변이 제공되는 ‘스피치-투-스피치’ 모델을, 내년 중반에는 ‘애니-투-애니’ 모델을 선보여 텍스트, 음성, 이미지, 비디오 등 다양한 형태의 입출력이 가능하게 할 것”이라고 밝혔다.
|
기조연설에선 생성형 AI 학습과 추론을 지원하는 괴물급 컴퓨팅 제품군(EC2)도 줄줄이 발표됐다. AWS는 작년 리인벤트에서 신형 자체 AI 칩 ‘트레이니엄2’를 공개했는데, 1년 만에 이 칩이 탑재된 인스턴스(가상 서버) 제품 ‘EC2 트레이니엄2(Trn2)’를 정식 출시했다. Trn2 인스턴스는 16개의 트레이니엄2 칩을 초저지연 네트워크 기술인 ‘뉴런링크’로 연결해 최대 20.8 페타플롭스(FP· 초당 1000조 연산)의 연산 성능을 제공한다. 현재 그래픽처리장치(GPU) 기반 인스턴스보다 가성비는 30-40% 더 뛰어나다.
Trn2 인스턴스 4개를 뉴런링크로 연결해 하나의 대형 서버로 만든 ‘Trn2 울트라서버’도 공개했다. 매개변수가 수 조개에 이르는 AI 모델의 추론을 실시간으로 처리하고자 하는 수요에 대응하기 위해서다. 울트라서버는 총 64개의 트레이니엄2 칩이 탑재돼, 83.2FP의 연산 성능을 자랑한다. AWS는 수십만 개의 트레이니엄2 칩으로 구성된 EC2 울트라클러스터 구축 프로젝트 ‘레이니어’도 진행 중이다. AI 모델 훈련 속도를 획기적으로 높이는 것이 목표다. 이를 위해 누적 80억달러(약 11조원)을 투자한 앤트로픽과 협력하고 있다.
트레이니엄3가 내년 말 출시 되면 서버 제품들의 성능은 더 향상될 전망이다. 맷 거먼 AWS CEO는 “트레이니엄3는 전작보다 컴퓨팅 성능이 2배 더 향상되고, 에너지효율성은 40% 더 개선될 것”이라면서 “이제 더 큰 모델을 더 빠르게 구축하고 실시간 처리 능력은 극대화될 것”이라고 강조했다.
◇AI 개발 플랫폼 베드락 대규모 업데이트
AWS는 이외에도 AI 개발 플랫폼 베드락에 다양한 기능 업데이트를 발표했다. 먼저, 생성형 AI의 태생적 한계인 환각 문제를 획기적으로 해결할 ‘자동 추론 검증’ 기능이 도입됐다. 모델을 배포하기 전에 설정한 사실관계에 맞게 작동하는지 수학적 추론을 통해 검증해주는 기능이다. 멀티 에이전트 협업 기능도 추가됐다. 에이전트는 사용자를 대신해 스스로 행동까지 취할 수 있는 AI 솔루션으로, 각각 다른 기능을 하는 에이전트 간 협업이 중요해졌다는 점에 주목한 것이다. 작업을 세분화하고 각 에이전트들에 할당하는 역할을 하는 수퍼바이저 에이전트 기능도 도입했다. 원래 모델을 개량해 특정 용도에 가장 적합한 모델을 만들 수 있는 ‘모델 증류(Model Distillation) 기능도 선보였다. 이 기능을 통하면 원래 모델보다 실행은 최대 500% 빠르고 비용은 75%까지 절감하면서 정확도 손실은 2% 미만으로 유지할 수 있다.