세계 AI 석학 보이콧에 놀란 KAIST…살상무기 논란 불씨 남아

조용석 기자I 2018.04.05 19:53:20

57명 세계AI 석학, KAIST 연구 참여 전면 보이콧
KAIST·한화시스템 “살상무기 개발 안 해” 적극 해명
선 긋기 애매한 살상·비살상 AI 기술…불씨는 남겨

지난 2월20일에 열린 국방인공지능융합센터 개소식 모습(사진 = 한화시스템)
[이데일리 조용석 기자] 세계 인공지능(AI) 석학들이 KAIST가 AI 기술을 살상용 무기 개발에 사용하려 한다며 공동 연구를 거부하는 사태가 발생했다. KAIST는 “AI 기술을 살상무기에 사용하지 않는다”며 수습에 나섰지만 불씨는 여전히 남은 분위기다.

◇ 타깃 된 국방AI융합연구센터…57명 석학 공동 성명

파이낸셜타임즈 등 외신은 지난 4일 AI 전문가인 토비 월시 호주 뉴사우스웨일스대 교수 등 전 세계 AI 및 로봇분야 석학 57명이 공동성명을 통해 KAIST와의 공동연구 프로젝트 등에 참여하지 않겠다고 선언했다고 보도했다.

이들이 문제 삼은 것은 지난 2월 KAIST와 방산 전자 기업인 한화시스템 손잡고 문을 연 ‘국방인공지능(AI)융합연구센터’다. 석학들은 성명을 통해 “센터의 목표는 AI을 기술을 개발해 세계적 경쟁에 뛰어드는 것”이라며 “AI 무기는 이전 전쟁보다 더 빠르고 더 대규모로 싸우게 하고 테러무기가 될 수 있다”고 중단을 촉구했다.

현재 국방AI융합센터에는 김정호 센터장을 포함해 AI 및 AI 알고리즘을 전공한 교수 5명이 포진하고 있다. 올해 연구과제로는 △AI 기반 지휘결심지원체계 △대형급 무인 잠수정 복합항법 알고리즘 △AI 기반 지능형 항공기 훈련시스템 △AI 기반 지능형 물체추적 및 인식 기술개발 등이다. KAIST와 한화시스템은 연구기간을 10년으로 잡고 있다.

사태가 일파만파로 퍼지자 KAIST는 보이콧 참여한 석학들에게 직접 메일을 보내 설득하는 한편 “대량살상무기, 공격무기 등 인간 윤리에 위배되는 연구를 수행하지 않을 것”이라고 공식 해명했다. 한화시스템 관계자 역시 “센터에서 개발하고 있는 AI 기술은 살상용 무기를 만들기 위한 기술이 아니다”고 밝혔다.

◇ 선 긋기 애매한 살상·비살상 기술…불씨는 남겨

KAIST는 “통제력이 결여된 자율무기를 포함한 인간 존엄성에 어긋나는 연구 활동을 수행하지 않겠다”고 선언했지만 향후 논란이 될 불씨는 여전하다. AI 국방기술이 비살상 용도로 사용될지 살상 용도로 사용될지는 종이 한 장 차이기 때문이다.

올해 연구과제 중 하나인 AI 기반 지휘결심지원체계는 전쟁 발생 시 병력 또는 무기를 어떻게 배치를 할 것인지를 사람이 아닌 AI가 결정토록 한다는 게 핵심이다. KAIST는 방어 관련기술만 개발한다고 설명하지만 한발 짝만 더 나아가면 어디를 타격하는 것이 가장 적의 인명피해가 심할지를 감정 없는 AI가 결정할 수 있다.

또 AI 기반 지능형 물체추적 및 인식 기술이 살상용 무기에 적용될 경우 종전보다 타격의 정확도가 높아져 결국 인명피해 확률이 높아지게 된다. 과학기술 전반이 군사용도로 사용되는 것처럼 AI 기술을 살상용 무기에 적용한다는 논란은 언제든지 나올 수 있는 셈이다.

KAIST 관계자는 “AI 기술이 공격에 사용될지 방어에 사용될지를 명확하게 구분하기는 어려울 것 같다”며 “하지만 총을 든 살상용 로봇은 개발하지 않고, AI 알고리즘도 공격과 관련된 부분은 가능한 회피할 것”이라고 말했다.

주요 뉴스

ⓒ종합 경제정보 미디어 이데일리 - 상업적 무단전재 & 재배포 금지