Facebook稱新冠大流行使其更難控制平台上的內容
據外媒CNET報導,Facebook週二表示,新冠大流行影響了為其審查社交網絡上的帖子是否違反了禁止宣傳自殺或自殘內容規則的員工的工作。COVID-19大流行也影響了可以監控Facebook旗下的Instagram是否有兒童裸體和性剝削情況的工作人員。
Facebook在一篇博文中表示,從4月到6月,該公司對這類令人反感的內容採取了較少的行動,因為多數內容審查人員都在居家辦公。用戶也不能總是對內容審核決定提出上訴。
Facebook依靠人類審查員和技術的組合來標記攻擊性內容。但有些內容的調控比較棘手,包括與自殺和性剝削有關的帖子,所以Facebook更多的是依靠人類審查員來做這些決定。該公司曾面臨內容版主的批評和訴訟,他們稱自己在反複審查暴力圖片後患上了創傷後應激障礙症狀。
負責監督Facebook在安全和誠信方面工作的Guy Rosen在新聞電話會議上表示,關於自殺和兒童裸體的內容不能在家裡審查,因為它的視覺形象。這對內容審核人員來說非常具有挑戰性,因為當他們在家工作時,家人可能會在他們身邊。
“我們希望確保在一個更可控的環境中進行審核,這就是為什麼我們開始將少量安全的審核員帶回辦公室的原因。”他說。
Facebook還在使用人工智能對有害內容的可能程度進行排名,並標記人們需要先審查哪些帖子。Rosen表示,該公司一直優先審查直播視頻,但如果用戶在普通帖子中暗示要自殺,那也會被排在前面。
Facebook表示,由於受到新冠大流行的影響,無法確定第二季度暴力和圖片內容以及成人裸體和性活動在其平台上的流行程度。Facebook會定期發布季度報告,介紹其如何執行規則。
Facebook還因涉嫌在打擊仇恨言論方面做得不夠而受到抨擊,這個問題在7月份引發了廣告抵制。週一,NBC新聞報導稱,一項內部調查發現,Facebook上有數千個團體和頁面支持一個名為”QAnon “的陰謀論,該陰謀論指稱有針對唐納德-特朗普總統及其支持者的”深層國家”陰謀。
負責監督Facebook內容政策的莫妮卡-比克特表示,Facebook已經刪除了QAnon團體和頁面,原因是使用假賬戶或內容違反了社交網絡的規則。“我們會繼續尋找其他的方法,以確保我們正在適當地處理這些內容,”Bickert說。
Facebook表示,在第二季度,它對2250萬條違反其反對仇恨言論規則的內容採取行動,比第一季度的960萬條內容有所增加。Facebook將這一跳躍歸功於自動化技術的使用,該技術幫助公司主動檢測仇恨言論。該公司表示,從第一季度到第二季度,Facebook上仇恨言論的主動檢測率從89%上升到95%。
Facebook表示,同期Instagram上仇恨言論的主動檢測率從45%上升到84%。Instagram在第一季度對80.89萬條違反仇恨言論規則的內容採取了行動,第二季度這一數字躍升至330萬條。
Facebook在第二季度還對870萬條違反反恐規則的內容採取了行動,而這一數字從第一季度的630萬條上升到了第二季度。該公司表示,獨立審計人員將審查Facebook用於執行社區標準的指標。該公司希望審計能在2021年進行。