TikTok第三方內容審核員稱公司在培訓期間向其展示兒童性虐待材料
《福布斯》的一份報告對TikTok的審核團隊如何處理兒童性虐待材料(CSAM)提出了質疑–稱其為非法照片和視頻提供了廣泛而不安全的訪問權限。
一家名為Teleperformance的第三方審核機構的員工稱,該機構與TikTok及其他公司合作,要求他們審查一份被稱為DRR或TikTok審核標準的每日必讀的令人不安的電子表格。據稱,該電子表格包含違反TikTok準則的內容,包括“數百張”兒童裸體或受虐待的圖片。這些員工說,TikTok和Teleperformance的數百人可以從辦公室內外獲取這些內容–這為更廣泛的洩漏打開了大門。
Teleperformance向《福布斯》否認向員工展示了性虐待的內容,TikTok說其培訓材料有“嚴格的訪問控制,不包括CSAM的視覺例子”,儘管它沒有確認所有第三方供應商都符合這一標準。
員工們講述了一個不同的故事,正如《福布斯》所描述的,這是一個法律上很危險的故事。內容審核員經常被迫處理髮佈在許多社交媒體平台上的CSAM。但虐待兒童的圖像在美國是非法的,必須小心處理。公司應該向美國國家失踪和被剝削兒童中心(NCMEC)報告這些內容,然後將其保存90天,但盡量減少看到這些內容的人數。
這裡的指控遠遠超出了這個限制。它們表明,Teleperformance公司向員工展示了圖片和視頻,作為在TikTok上標記內容的例子,同時對這些內容的訪問權進行了快速和寬鬆的處理。一名員工說,她聯繫了聯邦調查局,詢問這種做法是否構成了傳播CSAM的犯罪行為,儘管不清楚是否已經立案。