|
◇ 타깃 된 국방AI융합연구센터…57명 석학 공동 성명
파이낸셜타임즈 등 외신은 지난 4일 AI 전문가인 토비 월시 호주 뉴사우스웨일스대 교수 등 전 세계 AI 및 로봇분야 석학 57명이 공동성명을 통해 KAIST와의 공동연구 프로젝트 등에 참여하지 않겠다고 선언했다고 보도했다.
이들이 문제 삼은 것은 지난 2월 KAIST와 방산 전자 기업인 한화시스템 손잡고 문을 연 ‘국방인공지능(AI)융합연구센터’다. 석학들은 성명을 통해 “센터의 목표는 AI을 기술을 개발해 세계적 경쟁에 뛰어드는 것”이라며 “AI 무기는 이전 전쟁보다 더 빠르고 더 대규모로 싸우게 하고 테러무기가 될 수 있다”고 중단을 촉구했다.
현재 국방AI융합센터에는 김정호 센터장을 포함해 AI 및 AI 알고리즘을 전공한 교수 5명이 포진하고 있다. 올해 연구과제로는 △AI 기반 지휘결심지원체계 △대형급 무인 잠수정 복합항법 알고리즘 △AI 기반 지능형 항공기 훈련시스템 △AI 기반 지능형 물체추적 및 인식 기술개발 등이다. KAIST와 한화시스템은 연구기간을 10년으로 잡고 있다.
사태가 일파만파로 퍼지자 KAIST는 보이콧 참여한 석학들에게 직접 메일을 보내 설득하는 한편 “대량살상무기, 공격무기 등 인간 윤리에 위배되는 연구를 수행하지 않을 것”이라고 공식 해명했다. 한화시스템 관계자 역시 “센터에서 개발하고 있는 AI 기술은 살상용 무기를 만들기 위한 기술이 아니다”고 밝혔다.
KAIST는 “통제력이 결여된 자율무기를 포함한 인간 존엄성에 어긋나는 연구 활동을 수행하지 않겠다”고 선언했지만 향후 논란이 될 불씨는 여전하다. AI 국방기술이 비살상 용도로 사용될지 살상 용도로 사용될지는 종이 한 장 차이기 때문이다.
올해 연구과제 중 하나인 AI 기반 지휘결심지원체계는 전쟁 발생 시 병력 또는 무기를 어떻게 배치를 할 것인지를 사람이 아닌 AI가 결정토록 한다는 게 핵심이다. KAIST는 방어 관련기술만 개발한다고 설명하지만 한발 짝만 더 나아가면 어디를 타격하는 것이 가장 적의 인명피해가 심할지를 감정 없는 AI가 결정할 수 있다.
또 AI 기반 지능형 물체추적 및 인식 기술이 살상용 무기에 적용될 경우 종전보다 타격의 정확도가 높아져 결국 인명피해 확률이 높아지게 된다. 과학기술 전반이 군사용도로 사용되는 것처럼 AI 기술을 살상용 무기에 적용한다는 논란은 언제든지 나올 수 있는 셈이다.
KAIST 관계자는 “AI 기술이 공격에 사용될지 방어에 사용될지를 명확하게 구분하기는 어려울 것 같다”며 “하지만 총을 든 살상용 로봇은 개발하지 않고, AI 알고리즘도 공격과 관련된 부분은 가능한 회피할 것”이라고 말했다.