페이스북의 유해 콘텐츠 검열 기준이 21일(현지시간) 가디언에 의해 처음 공개됐다. 입수한 문서를 살펴본 결과 자해 영상의 생중계가 허용된다는 내용이 담겨 있어 논란이 불거질 것으로 보인다.
페이스북은 최근 유해 콘텐츠 탓에 곤욕을 치렀다. 지난 15일 미국 테네시 주에서 30대 남성이 분신자살을 기도하는 장면이 페이스북에 생중계되기도 했다. 앞서 마크 저커버그 최고경영자(CEO)는 자살, 성폭행 등 잔혹한 동영상이 계속 노출돼 사회 문제로 번지자 3000명을 추가 고용해 모니터링을 강화하겠다고 밝혔다. 분신자살 생중계는 그 뒤 일어난 일이어서 더 논란이 됐다. 현재 페이스북은 잔혹하거나 인종 혐오 내용이 포함된 콘텐츠를 걸러내기 위해 4500여 명으로 구성된 모니터링 팀을 운영하고 있다.
가디언이 처음으로 입수해 공개한 페이스북의 유해 콘텐츠 기준 문서는 예제를 포함해 수천 페이지 분량에 달한다. 명시된 매뉴얼만 100개다. 이 문서에 따라 모니터링 팀은 유해 신고가 들어온 콘텐츠를 ‘충격적(disturbing)’ 표시로 분류하거나 삭제할 수 있다. 그런데 자해와 관련한 콘텐츠는 유해성을 판별하기 어려워 쉽게 삭제되지 않는다고 가디언은 지적했다. 가디언에 따르면 자해와 관련한 콘텐츠는 증가하는 추세다. 지난여름 2주 동안 자해 관련 콘텐츠는 4531건이었다. 올해 같은 기간에는 5431건으로 늘어났다. 페이스북 관계자는 “현재 페이스북에서는 자살을 포함해 유해한 동영상이 늘어나고 있다”며 “그러나 단순히 자살을 암시하는 사람들을 검열하거나 처벌하기 원치 않는다”고 밝혔다.
정보·기술(IT) 전문매체 씨넷은 페이스북의 생중계 기능이 특히 유해 콘텐츠를 생산하기 쉽다고 지적했다. 생중계 기능이 작년부터 서비스된 이래로 적어도 50여 건의 폭력적인 생중계 방송이 있었다는 분석이다.
모니터링 요원들은 페이스북이 정한 정책이 모순되고 혼란스러운 면이 있다고 토로했다. 익명의 제보자는 “페이스북은 제대로 유해 콘텐츠를 관리할 수 없다”며 “유해 콘텐츠는 너무 빨리 급속하게 번지고 있다”고 설명했다.
페이스북의 코니카 비커트 글로벌 정책 관리 책임자는 “우리는 지역 사회를 안전하게 지킬 수 있는 도구를 구축하고 있다”며 “유해 콘텐츠를 보고하는 절차를 간소화할 것이며 관리자가 더 빨리 위반 여부를 결정할 수 있게 개선할 것”이라고 밝혔다.