애플, 아이폰서 ‘아동 성학대’ 사진 적발한다…사생활 침해 논란
by장영은 기자
2021.08.06 07:36:09
아동에 대한 성적학대 이미지 식별하는 SW 개발
문제 사진 감지되면 검토 후 사법당국에 알릴 계획
다음달 美서 업데이트시 적용…사생활 침해 논란
[이데일리 장영은 기자] 애플이 아이폰에 아동에 대한 성적 학대를 감시할 수 있는 기능을 탑재할 것이라고 밝히면서 논란이 일고 있다. 아동을 극악한 범죄로부터 보호하겠다는 의지이지만 일종의 ‘검열’ 기능으로 사생활 침해라는 지적도 나온다.
| 애플은 iOS15 업데이트를 통해 아동에 대한 성적 학대 이미지를 감별할 수 있는 SW를 도입할 계획이다. (사진= 애플) |
|
5일(현지시간) 파이낸셜타임즈(FT) 등에 따르면 애플은 다음달 미국 사용자들에게 제공될 업데이트를 통해 아동에 대한 성(性) 학대 이미지를 담은 사진을 식별할 수 있는 소프트웨어(SW)를 도입할 계획이다.
이 SW의 이름은 ‘뉴럴 매치’로 다음달 출시되는 아이폰 운영체제(OS) 최신 버전인 ‘iOS 15’의 새로운 기능으로 추가된다. 인공지능(AI) 기능을 통해 아이폰에 저장된 이미지 중에서 아동에 대한 성적 학대로 의심되는 이미지를 포착하고, 검토팀에서 위법성을 적발하면 비영리 민간단체 아동실종학대방지센터(NCMEC)에 통보한다. 해당 기능은 이미지에만 적용되며 동영상은 스캐닝하지 못 한다.
애플은 “시간이 지남에 따라 진화하고 확장하는 새로운 아동 보호 시스템의 일부”라고 설명했다. 애플은 이번주 초 화상회의를 통해 이 프로그램을 일부 미국 학자들에게 상세히 설명했다고 FT는 전했다.
다만, 새로운 기능이 사생활 침해 여지가 있다는 비판도 제기되고 있다. 애플은 사생활 보호를 최우선 가치로 내세우며 경쟁사들과 차별화 되는 브랜드 이미지를 구축하고 있다.
애플측은 AI와 암호화 기술을 통해 이미지를 스캐닝하고 불법 이미지로 알려진 데이터 베이스와 일치하는지 여부를 판독해 내는 것이라며 사생활 검열과는 다르다는 입장이다.
월스트리트저널(WSJ)는 “애플이 불법 콘텐츠를 감지할 수 있는 SW를 개발함으로써 지난 10년간 거대 기술기업과 사법 당국이 대립각을 세우고 있는 암호화를 통한 데이터 보호에 대한 강경한 입장에서 다소 물러난 것이 아니냐는 우려가 나오고 있다”고 지적했다.