짧은 댓글에서부터 롱폼 동영상에 이르기까지, 어린이가 접근할 수 있는 콘텐츠를 호스팅하는 모든 플랫폼은 사용자가 생성하는 콘텐츠를 모더레이션(탐지·관리)해 폭력적이거나 불법적이고, 연령에 부적절한 콘텐츠로부터 시청자를 보호할 수 있어야 한다. 사용자를 유해한 콘텐츠에 노출시킨 기업에는 명예 훼손, 법적 조사, 서비스 정지, 운영 금지, 벌금 등이 부과될 수 있다.
하지만 사용자 제작 동영상 콘텐츠의 기하급수적 증가로 사람이 유해하고 불법적인 콘텐츠를 직접 식별해 내기는 어렵다. 모더레이터가 따라가지 못 할만큼의 많은 양으로 과부하가 걸리거나, 비용이 과도하게 발생하거나, 비효율적인 운영으로 인해 위반사항을 놓치거나 합법적인 콘텐츠의 게시가 지연되기도 한다.
‘지코어 AI 콘텐츠 모더레이션 솔루션’은 동영상 콘텐츠 스트림의 검토를 자동화해 부적절한 콘텐츠를 표시하고, 필요한 경우 사람 모더레이터에게 경고를 보낸다. 이 솔루션은 최첨단 기술을 통합해 동영상 또는 라이브 스트림이 게시된 후 몇 초 내에 검토를 시작한다.
지코어의 동영상 스트리밍 책임자인 알렉세이 페트로브스키(Alexey Petrovskikh)는 “엄청난 양의 콘텐츠를 모더레이션하기 위해 충분한 인력을 배치하고 비용을 통제하는 것은 불가능에 가깝다”며 “이번에 선보인 지코어 AI 콘텐츠 모더레이션 솔루션은 기업이 글로벌 규모로 콘텐츠를 탐지 및 관리할 수 있는 권한과 역량을 부여하는 동시에 사람이 플래그로 지정된 콘텐츠를 검토할 수 있도록 해준다. 이러한 강점은 기업이 규정을 준수하면서 사용자, 커뮤니티, 더 나아가 기업 평판을 보호하는데 필수적인 역할을 한다”고 밝혔다.