“페이스북 추천 알고리즘 따라갔더니 참수당한 시체 사진”

by김무연 기자
2021.10.24 15:20:43

NYT 등 페이스북 2019년 가계정 연구 보고서 인용 보도
21세 인도 여성 설정 계정, 극단적 콘텐츠 범람
하우겐 “페북, 해로운 콘텐츠 유통 알고도 방치” 고발
유해 정보 분류 예산 중 87%, 사용자 10% 美에 투입

[이데일리 김무연 기자] 페이스북의 알고리즘이 가짜 뉴스 및 폭력적 사진을 걸러내는 데 큰 도움을 주지 못한다는 내부 문건이 확인됐다. 그나마 부적절한 게시물을 필터링하는 알고리즘도 미국 위주로 작동할 뿐 인도 등지에서는 참수당한 시체, 테러리즘에 대한 가짜 뉴스가 버젓이 추천된 것으로 드러났다.

23일(현지시간) 뉴욕타임스(NYT) 등 외신은 페이스북의 내부 문건을 인용, 회사가 2019년 주요 시장인 인도에서의 알고리즘 실험을 위해 3주간 가계정을 사용한 결과 상당한 양의 폭력 콘텐츠가 추천되는 것을 확인했다고 보도했다.

페이스북 로고(사진=AFP)
블룸버그에 따르면 당시 페이스북은 인도 서부 도시 자이푸르에 거주하는 21세 여성이라는 허구 인물을 설정해 가계정을 만들었다. 페이스북은 이용자만 3억4000만명에 달하는 자사 최대 시장인 인도에서 알고리즘을 점검하기 위해 실험을 진행했다고 설명했다. 해당 가계정은 페이스북 알고리즘이 추천한 친구나 페이지 또는 그룹만 팔로우했다.

실험 3주 뒤 해당 가계정엔 잔인한 시체 사진은 물론 테러리즘, 시위에 대한 다양한 가짜 뉴스 콘텐츠가 공유됐다. 추천된 콘텐츠에는 △참수당한 시체 사진 △파키스탄에 대한 인도 공습의 조작된 이미지가 포함됐다. ‘당신을 웃게 만드는 것들’이란 그룹의 콘텐츠 가운데는 파키스탄에서 폭탄 테러로 사망한 300명의 테러리스트에 대한 가짜 뉴스도 포함됐다.

실험에 참가했던 한 페이스북 직원은 보고서에 “이 테스트 사용자의 뉴스피드를 관찰하는 지난 3주 동안 죽은 사람의 사진을 평생 본 것보다 더 많이 봤다”라고 기술했다. 보고서는 테스트 사용자 계정이 “노골적인 증오심을 담은 콘텐츠와 잘못된 정보로 가득 찼다”라고 결론지었다.



NYT는 해당 실험이 페이스북이 이용자들에 큰 악역향을 미칠 것이라는 인권 운동가와 정치인의 비판을 뒷받침해주는 근거라고 꼬집었다. 앞서 페이스북에서 일했던 프랜시스 하우겐은 페이스북 자회사 인스타그램이 10대 소녀들의 정신 건강에 해롭다는 것을 인지하고도 이를 방치하는 등 알고리즘에 문제가 있다고 내부고발한 바 있다.

페이스북 내부 고발자 프랜시스 하우겐(사진=AFP)
보고서에 따르면 인도는 페이스북의 최대 시장임에도 불구하고 가짜 뉴스 등을 걸러내는 데 투입한 예산은 극히 적은 것으로 나타났다. 페이스북의 알고리즘 문제는 미국보다 기타 국가에서 더 큰 부작용을 초래할 수 있다는 분석이다.

NYT는 “유해 정보를 분류하는 데 소요되는 회사의 글로벌 예산 중 87%는 사용자가 10% 수준인 미국에 할당됐고, 세계 다른 모든 지역은 나머지 예산 13%로 충당해야 했다”라고 지적했다.

이에 대해 페이스북 측은 “미국을 제외한 다른 나라에서는 가짜 뉴스를 가려내는 별도의 파트너가 존재한다”라며 “해당 수치는 잘못됐다”라고 해명했다. 앤디 스톤 페이스북 대변인은 “페이스북은 가장 널리 사용되는 두 언어인 힌디어와 벵골어를 포함해 다양한 언어에서 증오심 표현을 찾기 위한 기술에 상당히 투자했다”라며 “올해 페이스북에서 혐오 콘텐츠 양을 절반으로 줄었다”라고 강조했다.

한편, 페이스북은 마약 카르텔과 인신매매 집단이 페이스북을 악용하고 있다는 점을 알고도 대처하지 않았다고 내부 고발자 하우겐은 주장했다. 마크 저커버그 페이스북 최고경영자(CEO)는 사실무근이라고 선을 그은 상태다. 최근 페이스북이 사명 변경을 추진하는 것도 이같은 폭로로 추락한 이미지를 바꾸려는 것 아니냐는 지적도 나오고 있다.