방심위, 연예인 얼굴합성 성적 허위영상물 4700건 시정의결
by임유경 기자
2024.05.02 18:05:48
1~4월 모니터링한 결과…전년 동기 대비 400% 폭증
[이데일리 임유경 기자] 유명 연예인의 얼굴을 딥페이크 기술로 합성해 유포한 성적 허위영상물이 올 1월부터 4월까지 4700건 발견됐다. 이는 전년 같은 기간 대비 400% 폭증한 것이다. 방송통신심의위원회는 딥페이크 허위영상물 유통 차단을 위해 해외 음란 사이트를 집중 모니터링하고 신속히 차단 조치를 내려 확산을 최소화한다는 방침이다.
방통심의위는 연예인의 얼굴을 딥페이크 기술을 이용해 포르노 영상과 합성, 유포된 ‘성적 허위영상물’ 총 4691건에 대해 시정요구를 의결했다고 2일 밝혔다.
방통심의위는 해외 음란 사이트 등에서 K-POP 아이돌 등 연예인의 ‘성적 허위영상물’ 유포가 증가함에 따라, 올해 1월부터 4월까지 중점 모니터링을 실시했다. 그 결과 4691건을 시정요구 의결했다. 이는 전년 동기 대비 약 400% 폭증(3745건 증가)한 것이다.
방통심의위는 “유명 연예인뿐만 아니라 청소년과 일반인을 대상으로 한 ‘성적 허위영상물’도 확인되는 등 딥페이크 기술을 악용한 영상물 유포 증가가 심각하게 우려되는 상황”이라고 경고했다.
특히, 일상에서 SNS 등에 공개되는 사진·동영상 등 개인정보 유출에 각별히 주의하고, ‘성적 허위영상물’ 유포를 발견한 경우 즉시 방통심의위로 신고(디지털성범죄 원스톱 신고 ARS, 국번없이 ‘1377’ 누르고 3번)하여 줄 것을 당부했다.
방통심의위 관계자는 “향후에도 해외 음란 사이트 등의 중점 모니터링과 심의를 통해 성적 허위영상물과 이를 유통시키는 사이트 등을 신속히 차단하여 피해 확산을 최소화하는 데 더욱 주력할 계획”이라고 했다.