세계 AI 석학 보이콧에 놀란 KAIST…살상무기 논란 불씨 남아

by조용석 기자
2018.04.05 19:53:20

57명 세계AI 석학, KAIST 연구 참여 전면 보이콧
KAIST·한화시스템 “살상무기 개발 안 해” 적극 해명
선 긋기 애매한 살상·비살상 AI 기술…불씨는 남겨

지난 2월20일에 열린 국방인공지능융합센터 개소식 모습(사진 = 한화시스템)
[이데일리 조용석 기자] 세계 인공지능(AI) 석학들이 KAIST가 AI 기술을 살상용 무기 개발에 사용하려 한다며 공동 연구를 거부하는 사태가 발생했다. KAIST는 “AI 기술을 살상무기에 사용하지 않는다”며 수습에 나섰지만 불씨는 여전히 남은 분위기다.

파이낸셜타임즈 등 외신은 지난 4일 AI 전문가인 토비 월시 호주 뉴사우스웨일스대 교수 등 전 세계 AI 및 로봇분야 석학 57명이 공동성명을 통해 KAIST와의 공동연구 프로젝트 등에 참여하지 않겠다고 선언했다고 보도했다.

이들이 문제 삼은 것은 지난 2월 KAIST와 방산 전자 기업인 한화시스템 손잡고 문을 연 ‘국방인공지능(AI)융합연구센터’다. 석학들은 성명을 통해 “센터의 목표는 AI을 기술을 개발해 세계적 경쟁에 뛰어드는 것”이라며 “AI 무기는 이전 전쟁보다 더 빠르고 더 대규모로 싸우게 하고 테러무기가 될 수 있다”고 중단을 촉구했다.

현재 국방AI융합센터에는 김정호 센터장을 포함해 AI 및 AI 알고리즘을 전공한 교수 5명이 포진하고 있다. 올해 연구과제로는 △AI 기반 지휘결심지원체계 △대형급 무인 잠수정 복합항법 알고리즘 △AI 기반 지능형 항공기 훈련시스템 △AI 기반 지능형 물체추적 및 인식 기술개발 등이다. KAIST와 한화시스템은 연구기간을 10년으로 잡고 있다.

사태가 일파만파로 퍼지자 KAIST는 보이콧 참여한 석학들에게 직접 메일을 보내 설득하는 한편 “대량살상무기, 공격무기 등 인간 윤리에 위배되는 연구를 수행하지 않을 것”이라고 공식 해명했다. 한화시스템 관계자 역시 “센터에서 개발하고 있는 AI 기술은 살상용 무기를 만들기 위한 기술이 아니다”고 밝혔다.



KAIST는 “통제력이 결여된 자율무기를 포함한 인간 존엄성에 어긋나는 연구 활동을 수행하지 않겠다”고 선언했지만 향후 논란이 될 불씨는 여전하다. AI 국방기술이 비살상 용도로 사용될지 살상 용도로 사용될지는 종이 한 장 차이기 때문이다.

올해 연구과제 중 하나인 AI 기반 지휘결심지원체계는 전쟁 발생 시 병력 또는 무기를 어떻게 배치를 할 것인지를 사람이 아닌 AI가 결정토록 한다는 게 핵심이다. KAIST는 방어 관련기술만 개발한다고 설명하지만 한발 짝만 더 나아가면 어디를 타격하는 것이 가장 적의 인명피해가 심할지를 감정 없는 AI가 결정할 수 있다.

또 AI 기반 지능형 물체추적 및 인식 기술이 살상용 무기에 적용될 경우 종전보다 타격의 정확도가 높아져 결국 인명피해 확률이 높아지게 된다. 과학기술 전반이 군사용도로 사용되는 것처럼 AI 기술을 살상용 무기에 적용한다는 논란은 언제든지 나올 수 있는 셈이다.

KAIST 관계자는 “AI 기술이 공격에 사용될지 방어에 사용될지를 명확하게 구분하기는 어려울 것 같다”며 “하지만 총을 든 살상용 로봇은 개발하지 않고, AI 알고리즘도 공격과 관련된 부분은 가능한 회피할 것”이라고 말했다.