在不確定疑似CSAM中某人的年齡時FB指示審查員“站在成年人一邊”
據The Verge報導,科技公司的一項主要責任是監測其平台上的內容是否存在兒童性虐待材料(CSAM),如果發現任何內容,他們必須依法向美國國家失踪和被剝削兒童中心(NCMEC)報告。許多公司都有內容審查員,負責審查被標記為可能是CSAM的內容,並決定是否應將該內容報告給NCMEC。
然而,根據《紐約時報》的一份新報告,Facebook有一項政策,可能意味著它對兒童性虐待內容的報告不足。報導稱,Facebook的一份培訓文件指示內容審查員,當他們不知道疑似CSAM照片或視頻中某人的年齡時,要“站在成年人一邊”。
該政策是為在埃森哲(Accenture)工作的Facebook內容審查員制定的,並在《加利福尼亞法律評論》8月的一篇文章中討論過。
受訪者還描述了一項名為“bumping up”的政策,他們每個人都不同意這項政策。該政策適用於內容審查員無法輕易確定疑似CSAM照片中的主體是未成年人(”B”)還是成年人(”C”)。在這種情況下,內容審查員被指示假定該對像是成年人,從而使更多的圖像沒有被報告給NCMEC。
據《紐約時報》報導,以下是Facebook公司製定該政策的理由:
Meta公司的安全主管Antigone Davis在接受采訪時證實了這一政策,並說這是出於對那些發布成人性圖像的人的隱私考慮。Davis女士說:“網上的兒童性虐待材料是令人憎惡的,”她強調,Meta公司採用了多層次、嚴格的審查程序,標記的圖片遠遠多於其他科技公司。她說,錯誤地標記兒童性虐待材料的後果可能會改變用戶的生活。
在徵求意見時,Facebook(現在屬於Meta 公司旗下)指出了Davis在《紐約時報》上的引述。埃森哲沒有立即回復置評請求。埃森哲拒絕對《紐約時報》發表評論。