X

'그것이 알고싶다' 아이돌→일반인 '딥페이크 성착취' 추적

이 기사 AI가 핵심만 딱!
애니메이션 이미지
정시내 기자I 2021.02.27 00:01:56
[이데일리 정시내 기자] ‘그것이 알고 싶다’ 27일 방송에서는 인공지능의 발전으로 나타난 ‘딥페이크’ 기술의 현주소를 살펴보고, 이 기술을 악용한 범죄를 분석하고 그 예방책을 알아본다.

그것이 알고 싶다. (사진=SBS ‘그것이 알고 싶다’)
어느 날 SNS 메시지를 통해 낯선 이에게서 자신의 성관계 영상을 받았다는 A씨. 분명 직접 촬영한 영상도 아니었고, 실제 있었던 일도 아니었지만, 영상 속 인물은 자신의 얼굴과 닮아있었다.

놀란 마음을 가라앉히고 영상을 자세히 보기 시작한 A씨는 영상이 본인의 얼굴 사진과 다른 사람의 몸을 합성해 만든 가짜 동영상인 것 같았다고 했다. 평범한 사람으로 지내온 자신이 어떻게 본인도 모르는 사이 성 착취 동영상의 주인공이 된 것인지 알 수 없다는 A 씨. 문제는 이런 메시지를 받은 사람이 A씨뿐만이 아니었다.

인공지능의 한 분야인 딥러닝(Deep learning)을 활용해, 사람의 얼굴이나 특정 부위를 합성한 가짜 동영상을 만들어내는 기술 ‘딥페이크(Deepfake)’. 최근, 세계적인 인기를 얻고 있는 K-POP 연예인들의 얼굴을 이용한 딥페이크 영상물이 만들어지고 있는데 대부분 성 착취 동영상의 형태로 악용되고 있어 사회적으로 큰 이슈가 되고 있다.

제작진이 만난 제보자들 역시 이 딥페이크 기술에 자신들의 사진을 이용당한 피해자였다. 유명 연예인을 넘어 일반인에게까지 뻗치고 있는 딥페이크 범죄의 피해는 어느 정도일까.

IT 산업은 물론 엔터테인먼트 산업까지 다양한 분야에 쓰이고 있는 인공지능 기술! 그중의 하나인 ‘딥페이크’는 이미 사망한 사람의 얼굴을 재현해 가족들을 위로하기도 하고, 과거의 추억을 소환해 새로운 감동을 만들어 내며, 신원 보호가 필요한 사람들을 위한 안전장치도 될 수 있는 등, 제대로만 쓰인다면 긍정적인 부분이 많은 기술이다.

전문가들은 인공지능 기술, ‘딥페이크’가 성착취 동영상 제작의 사례처럼 범죄에 악용될 경우, 이제는 보이는 것을 보이는 대로 믿을 수 없는, 가짜와 진짜를 구분하기 어려운, 치명적인 사회적 위험을 발생시킬 수 있다고 경고한다.

제작진은 전문가들의 자문을 받아 ‘딥페이크’ 기술을 이용한 범죄 실험을 진행했다. 대상은 부모와 자녀. 자녀의 ‘딥페이크’ 영상을 받아본 부모님들은 과연 어떤 반응을 보였을까.

또한 제작진은 ‘딥페이크’ 기술을 이용해 성 착취 동영상과 같은 불법 영상을 제작, 판매하고 있는 사람들을 만났다. 과연 그들은 누구이며 무슨 이유로 딥페이크 영상을 만드는 것일지 추적한다.

한편 ‘그것이 알고 싶다’는 매주 토요일밤 11시10분에 방송한다.

이 기사 AI가 핵심만 딱!
애니메이션 이미지지

주요 뉴스

ⓒ종합 경제정보 미디어 이데일리 - 상업적 무단전재 & 재배포 금지

Failed to fetch