Facebook再出醜聞WhatsApp被曝涉兒童色情內容傳播
兩家以色列非政府組織在一份報告中聲稱,Facebook旗下聊天應用WhatsApp涉嫌傳播幼童色情內容:在WhatsApp的端到端加密技術掩蓋下,WhatsApp的聊天群正被用來傳播非法兒童色情內容。除了WhatsApp的機器自動化審核系統,Facebook未能提供足夠的版主進行必要的人工審核,令這些非法內容在WhatsApp上廣泛傳播。
這份由兩家以色列非政府組織撰寫的報告,詳細介紹瞭如何使用第三方應用程序,發現了在WhatsApp的一些群組當中含有提供邀請鏈接的“成人”板塊,加入這些“成人”板塊的用戶可以交換兒童色情圖片。資料顯示,目前這些群組有許多處於活躍狀態。
由Lisa工作室的群組發現應用“Group Links For Whats”,發現在WhatsApp上存在“child porn only no adv(兒童色無廣告)”和“child porn xvideos(兒童色情)”等群組,而防漏洞初創企業AntiToxin則發現了WhatsApp上一些含有兒童色情的群組名稱,像“videos cp(cp視頻)”,很顯然,“cp”是“child pornography(兒童色情)”的縮寫。
調查顯示,Facebook可以採取更多措施來監管WhatsApp,並刪除這類非法內容。即使在不需要削弱加密技術的前提下,WhatsApp的版主也應該能夠找到這些群組,並阻止它們傳播色情內容。
零容忍政策
針對上述問題,WhatsApp自身應進行更好調查,本應立即刪除這些群組並禁言其成員。2018年,Facebook負責內容審核的員工數量增加了一倍,從1萬名增至2萬名,以打擊選舉干擾、欺凌和其他政策違規行為,但這些員工並不干預WhatsApp的內容。WhatsApp只有300名員工,而且是半獨立運營。儘管WhatsApp表示未來其將對網絡群組進行自我管理,不過事實證明,這不足以對擁有15億用戶的WhatsApp社區進行監管。
初創公司“AntiToxin技術”對上述問題進行了調查研究,該公司聲稱已確認WhatsApp群組中有1300多名未成年人參與性行為的視頻和照片。鑑於Tumblr應用最近因為涉嫌含有兒童色情內容而被蘋果應用商店暫時下架,當被問及“是否考慮暫時下架WhatsApp”時,蘋果沒有立即作出回應。
Facebook發言人表示,“保證人們在Facebook上的安全是我們全球團隊工作的基礎。我們已經與以色列警方展開合作與調查,從而製止這種虐待行為。”
WhatsApp發言人則表示,雖然WhatsApp允許合法的成人色情內容,但該公司在最近10天內禁言了13萬個賬戶,理由是這些賬戶違反了禁止傳播兒童色情內容的政策。
WhatsApp在一份聲明中稱,“WhatsApp對兒童性虐待採取零容忍政策。我們使用最先進的技術,包括人工智能,掃描個人檔案照片和圖像的報告內容,並積極禁言了涉嫌分享這一惡劣內容的賬戶。我們還響應世界各地的執法要求,立即向國家失踪和受剝削兒童中心報告虐待情況。遺憾的是,由於應用程序商店和通信服務都被濫用於傳播侮辱性內容,科技公司必須齊心協力,來共同製止這種行為。”