"AI로 범죄 예측·예방…미래 형사·법무정책 AI가 만든다"[만났습니다]

성주원 기자I 2024.07.31 05:10:00

■만났습니다-하태훈 한국형사·법무정책연구원장
개원 35주년 맞은 연구원…미래 비전은 ''AI''
"통계-AI 접목하면 범죄예방시스템 구축 가능"
"AI 활용 수사 위험성 등 연구도 연구원 역할"
"재판과정 AI 도입은 아직…양형 참고 정도만"

[이데일리 성주원 백주아 기자] “인공지능(AI)을 활용하면 형사정책과 법무정책을 연구하는 것에도 큰 도움이 될 것이다. 새로운 유형의 범죄들에 대한 예방법 마련뿐만 아니라 수사 과정에도 활용 가능하다고 생각한다.”

하태훈 한국형사·법무정책연구원장은 30일 이데일리와의 인터뷰에서 AI 기술의 발전이 우리나라 형사·법무정책 연구에 큰 영향을 미칠 것이라며 이같이 전망했다.

하태훈 한국형사·법무정책연구원장이 포즈를 취하고 있다. (사진= 방인권 기자)
한국형사·법무정책연구원이 올해 개원 35주년을 맞은 가운데 하 원장은 ‘AI’를 연구원의 미래 비전으로 제시했다. 그는 “세상이 AI로 가고 있다”며 “AI는 연구대상이면서, 연구를 하는데 도움이 되는 도구도 될 것”이라고 내다봤다.

하 원장은 AI의 활용 가능성과 관련해 “인공지능 로봇의 무인 순찰이 가능해지고 지능화된 CCTV가 화면 속 이상 징후를 포착해 알려줄 수 있다. 개인의 범죄 위험성, 재범 위험성 등을 예측하거나 범죄 지도도 만들 수 있을 것”이라며 구체적인 예시를 들어 설명했다.

연구원이 보유한 방대한 통계와 AI를 접목하면 효과적인 범죄예방 시스템 구축도 가능할 것으로 기대된다. 그는 “엄청나게 많은 범죄 통계와 범죄 피해 조사 데이터를 가지고 있기 때문에 범죄 예측이 가능하고 이를 토대로 예방이 가능하다”고 말했다. 그러면서 “이를 바탕으로 형사정책 뿐만아니라 법무정책을 적절하게 수립할 수 있다”고 덧붙였다.

다만 무분별한 AI 활용은 부작용을 낳을 수 있다고도 지적했다. 그는 “사생활 침해, 개인정보 침해, 알고리즘 편향성 등의 문제가 발생할 수 있다”며 “AI로 인한 윤리적인 문제나 수사 과정에서의 위험성은 없는지 등을 연구하고, 이를 막을 수 있는 기술적 장치는 무엇인지 등을 살피는 것이 우리 연구원의 역할”이라고 강조했다.

AI 관련 법규 제정에 대해서는 “유럽연합(EU)에서 만든 AI 기본법이 모델이 될 수 있다”며 “AI 시스템의 위험도를 눠어 규제 강도를 달리하는 방식을 고려해야 한다”고 제안했다. 또한 “AI 기술 개발에 있어서 인문사회학자들이 함께 참여하는 것이 중요하다”고도 했다.

재판과정에 AI 기반 의사결정 시스템을 도입하는 것에 대해서는 신중한 입장을 보였다. 하 원장은 “아직까지는 편향성도 있고 오류 가능성도 있다”며 “AI에 전적으로 의존하는 것은 문제가 있을 것”이라고 지적했다. 다만 양형을 위한 참고 자료로는 활용 가능하다는 입장을 밝혔다.

다음은 하태훈 원장과의 일문일답.

-개원 35주년을 맞아 연구원의 미래비전을 ‘AI’로 제시했다.

△세상이 AI로 가고 있다. AI 시대에는 AI가 연구대상이 될 수 있고, 연구를 하는데 도움이 되는 도구도 될 수 있다. 문제는 AI를 이용한 범죄가 많아지는 것이다. 딥페이크 등 오남용의 문제를 연구할 필요가 있다고 생각했고, 그걸 넘어서 AI를 활용하는 방법까지도 우리가 생각해야 하는 것 아닐까 생각해서 AI를 강조하게 됐다.

-AI 기술의 발전이 형사·법무정책 연구에 어떤 영향을 미칠 것으로 예상하나.

△AI를 활용하면 정책 연구에 도움을 받을 수 있다. 예컨대, 통계 같은 것도 학습을 시키면 그 의미를 분석한 자료가 나올 것이다. 새로운 유형의 범죄들에 대한 예방법뿐만 아니라 수사에도 활용 가능하다. 인공지능 로봇의 무인 순찰이 가능해지고 지능화된 CCTV가 화면 속 이상 징후를 포착해 알려줄 수 있다. 개인의 범죄 위험성, 재범 위험성 등을 예측한다든지 아니면 범죄 지도 같은 것을 만들 수 있을 것이다. 그러면 위험 지역을 해소할 수 있는 정책들을 만들거나 주민들에게 알려서 예방할 수 있도록 하는 것이 가능해진다. AI가 형사·법무정책 연구에 굉장한 영향을 미칠 것이다.

-AI 활용으로 발생할 수 있는 부작용도 있는데…

△예를 들어 사생활 침해, 개인정보 침해, 알고리즘 편향성 등이 있을 수 있다. AI로 인한 윤리적인 문제나 수사 과정에서의 위험성은 없는지 등을 연구하고, 이를 막을 수 있는 기술적 장치는 무엇인지 등을 살피는 것 등이 연구원으로서 할 수 있는 일이다.

-AI를 통한 범죄현상 트렌드 분석 및 예측 계획이 눈에 띈다.

△엄청나게 많은 범죄 통계를 가지고 있기 때문에 가능한 부분이다. 범죄 통계뿐만 아니라 범죄 피해 조사를 수십년째 계속하고 있기 때문에 관련 통계를 가지고 범죄 예측이 가능하고 이를 토대로 예방이 가능하다. 또는 법무정책을 수립할 수 있다.

-AI와 통계 DB를 결합한 언어모델(GPT) 서비스 개발 계획도 세운 것으로 안다.

△통계는 찾아보기 어려운데 AI를 활용해서 쉽게 찾고 이해할 수 있도록 하는 것이다. 이제 출발 단계다. 연구자뿐만 아니라 일반 국민도 쉽게 접근할 수 있도록 하려는 것이다.

-AI 관련 법규 제정의 필요성과 방향성에 대해 어떻게 생각하나.

△유럽연합(EU)에서 만든 AI 기본법이 모델이 될 수 있다. AI 시스템의 위험도를 4가지로 나눠서 규제 강도가 달라진다. 우리도 비슷하게 해야 하지 않을까 생각한다. AI 개발에 있어서 인문사회학자들이 함께 개발하는 것이 중요하다. 사회가 어떻게 변하고 어떤 문제가 발생할 것인가 등을 논의하면서 개발·활용과 조화를 이뤄내야 한다. 그런 것을 고려해서 법을 만들 필요가 있다.

-AI 시대에 개인정보 보호와 범죄 수사 효율성 사이의 균형은 어떻게 맞추나.

△오늘날 개인정보, 사생활은 굉장히 중요해졌지만 절대적 보호를 받는 것은 아니다. 이익교량을 해야 한다. 사생활·개인정보 침해와 그걸 통해 얻을 수 있는 이익을 비교하도록 만드는 것이다. 예를 들어, 테러 범죄를 예방할 수 있다면 이익이 훨씬 크기 때문에 허용할 수 있을 것이다. 우리 사회에서 논쟁이 되는 게 자유와 안전의 문제다. 안전을 추구하다보면 개인의 자유가 제한될 수밖에 없는 것이고 자유를 무한대로 보장하면 안전이 침해될 수 있다. 9·11 테러 이후로 안전 쪽에 우위를 두는 사람들이 많아졌다. 안전 문제가 생기면, 국민 개개인은 자신이 피해자라고 생각하는 경향이 있다. 그렇게 가서는 안 되고 자유와 안전을 조화시키는 노력이 필요하다. 굉장히 어려운 문제다. AI 기본법이 제정되지 못하는 것도 같은 이유다.

-AI 기반 의사결정 시스템을 재판에 도입하는 것은 어떻게 생각하나.

△아직까지는 편향성도 있고 오류 가능성도 있다. 전적으로 의존하는 것은 문제가 있다. 양형을 위한 참고 자료 쯤은 될 수 있을 것이다. 윤리적인 문제도 충분한 논의가 필요하고 위험성을 막을 수 있는 장치들이 마련돼야 한다. AI 시스템의 의사결정 과정상 투명성, 책임성 등이 확보돼야 한다.

■하태훈 한국형사·법무정책연구원장은…

△1958년 충남 서천 출생 △고려대 법대(법학사) △고려대 대학원(법학석사) △독일 쾰른대 대학원(법학박사) △홍익대 법학과 교수 △고려대 법대 및 법학전문대학원 교수 △대법원 양형위원회 위원(1~3기) △한국비교형사법학회장 △한국형사법학회장 △참여연대 공동대표 △국가인권위원회 혁신위원장 △(현)한국형사·법무정책연구원장

하태훈 한국형사·법무정책연구원장이 이데일리와 인터뷰를 하고 있다. (사진= 방인권 기자)


주요 뉴스

ⓒ종합 경제정보 미디어 이데일리 - 상업적 무단전재 & 재배포 금지