|
지인이나 사회관계망서비스(SNS) 이용자의 사진을 합성해 만든 ‘딥페이크’(Deepfake; AI를 이용해 인물의 신체부위나 목소리를 영상에 합성하는 것) 성범죄가 급속히 확산하면서 이날 방송통신심의위원회는 주요 온라인 플랫폼 사업자들과 협의체를 구성, 영상 삭제 및 차단에 나서기로 했다. 특히 딥페이크 범죄 확산의 중심에 있는 텔레그램과 면대면 핫라인 개설을 추진하고, 주요 온라인 플랫폼 모니터링 인원을 두 배 이상 늘리기로 했다.
이는 AI 영상편집 앱으로 딥페이크 영상 제작이 손쉬워지면서 허위 성범죄 영상 제작을 원천적으로 막기보다 삭제·차단이 현실적인 대안으로 부상하자 대응 수위를 높인 것으로 해석된다. 방심위에 따르면 딥페이크 성적 허위영상물 심의 요청은 2021년 총 1900여 건(하루 평균 5건)에서 지난해 7200여 건으로 늘었고, 올 들어선 7월 말까지 6400여 건(하루 평균 30건)으로 3년 새 6배 이상 폭증했다. 특히 최근 딥페이크 불법영상이 대규모로 퍼지면서 관련 피해사례는 급증했다.
임 특별보좌관은 딥페이크 불법영상 유포와 관련해 “피해자들의 상처가 너무 큰 상황”이라면서 “미성년자 등을 중심으로 피해 규모가 커지고 있는 만큼 성폭력특별법을 조속히 마련해야 한다”고 주장했다. 그는 “기술중립성에 의거해 나쁜 목적으로 기술을 사용하는 경우 이를 가중처벌해야 한다. 따라서 처벌 범위 등을 명백하게 규정한 특별법을 만들어야 한다. 가령 허위 불법영상이 사회 질서를 해칠 경우에 이를 처벌하는 방향”이라고 부연했다. 해당 불법영상으로 경제적 이득을 취한 경우 이를 모두 몰수해야 하는 등의 강력 조치도 언급했다.
다만 사전규제에 대해서는 ‘감시, 검열, 언론의 자유를 침해한다’는 등의 논란이 생길 수 있다고 짚었다. 임 특별보좌관은 미성년자 학생들의 딥페이크 불법 영상 제작은 학교와 가정에서 AI 윤리교육이 필요한 부분이라고 봤다.