|
3일(현지시간) 월스트리트저널(WSJ)에 따르면 애플은 이용자의 아이폰에 있는 아동 포르노를 스캔하는 소프트웨어를 개선하는데 시간이 더 필요하다며 이를 연기하겠다고 밝혔다. 애플은 “고객과 시민단체, 연구자 등의 피드백을 바탕으로 앞으로 몇 달간 의견을 듣고 기능을 개선하기 위해 도입을 연기하기로 결정했다”고 말했다.
당초 애플은 올해중 운영체제(OS)인 iOS 업데이트를 통해 아동을 성적으로 착취한 음란물 사진을 포착해 비영리 민간단체 아동실종학대방지센터(NCMEC)에 통보하는 자동 탐지시스템을 개발했다고 발표한 바 있다.
이에 대해 프라이버시 보호론자들은 이 기능이 이용자에게 더 큰 위험을 안길 수 있다고 우려했고, 일부는 이용자가 보유한 콘텐츠를 스캔하는 기능을 정부가 정치적인 목적 등 다른 용도로 전용할 수 있다며 반대했다. 일부 부모들은 아기의 목욕사진 등에도 부적절한 사진이라는 딱지가 붙지 않을까 염려했다.
이에 대해 애플은 다른 클라우드 서비스 제공자들이 이용자 데이터 전체를 스캔하는 반면 애플은 불법으로 판명된 사진만 걸러서 보는 방법을 고안했다며 반박해왔다.
디지털 인권 보호단체인 전자프런티어재단(EEF)은 “애플의 개인 정보 보호 및 보안을 신뢰해온 사용자에게 충격적인 소식”이라며 “철저하게 설계된 시스템이더라도 결국 개인 정보가 유출될 수 있는 백도어(뒷문)”라고 우려했다.
한편 애플은 이번에 도입을 미룬 아동 포르노 스캔 기능과 관련해 향후 일정도 발표하지 않았다.