by정병묵 기자
2017.06.22 14:31:04
[이데일리 정병묵 기자] “일렉트릭 기타가 등장했을 때처럼 음악의 혁신이 다가왔습니다”
인공지능(AI)이 그림, 음악 등 ‘인간의 영역’인 창의성을 이해하면서 창작물을 직접 만드는 시대가 도래하는 것일까.
22일 구글코리아는 대치동 구글 캠퍼스 서울에서 AI 포럼을 열고 예술 분야 AI 머신 러닝 현황을 발표했다. 구글 본사의 더글러스 에크 연구원이 원격 화상 통화를 통해 구글의 예술 창작 학습 AI 알고리즘을 설계하는 ‘마젠타 프로젝트(magenta.tensorflow.org)’를 한국 언론에 소개했다.
구글은 우선 음악 분야에서 ‘알파고’의 딥마인드와 협력해 만든 ‘엔신스(NSynth)’를 선보였다. 이는 1000여개 악기와 30여만개 음이 담긴 데이터베이스를 구축하고 AI에 학습시켜 새로운 소리와 음악을 만들어 내는 것이다. 베이스기타와 플루트, 하프와 클라리넷을 합치는 식으로 이전까지 없던 새로운 소리를 만든다.
단순한 소리 합성이 아니라 기존 음악가들이 연주했던 곡을 학습해 짧고 기초적인 수준의 자체 연주곡을 내놓는 단계에 이르렀다. 구글 측은 일렉트릭 기타의 등장처럼 새로운 음악의 지평을 만들어낼 수 있는 계기가 될 수 있다고 강조했다.
에크 연구원은 “새로운 악기를 만드는 것이 궁국적인 목표”라며 “사람들이 좋아하는 특성을 가진 음색을 만들 수 있을 것”이라고 말했다.
|