Facebook:正利用AI更好處理平台仇恨言論問題
據外媒報導,Facebook表示,他們正在使用人工智能(AI)技術主動檢測出更多的仇恨言論。週四發布的一份新透明度報告則更詳細地說明了該公司於今年早些時候公佈政策變化後其社交媒體上的仇恨情緒情況,不過報告中仍對一些重大問題沒有做出回答。
Facebook的季度報告包括了仇恨言論盛行的新信息。該公司估計,Facebook用戶看到的內容中有0.10到0.11%違反了仇恨言論規定,相當於“每1萬次瀏覽內容,就有10到11次會看到仇恨言論”。這是基於帖子的隨機樣本,其衡量的是內容的範圍而非單純的帖子數量。不過它還沒有得到外部資源的評估。Facebook負責誠信的副總裁Guy Rosen在跟記者的電話交談中表示,公司正在計劃並努力進行一次審計。
Facebook堅稱,在用戶舉報之前,它會主動刪除大多數仇恨言論。該公司表示,在過去三個月裡,Facebook和Instagram上約95%的的仇恨言論被刪除是他們主動進行的。
這跟它最初的努力相比是一個巨大的飛躍–在2017年底,它僅主動刪除了約24%的數據。另外,Facebook還加大了刪除仇恨言論的力度:在2019年第四季度,約64.5萬條內容被刪除,而在2020年第三季度,這個數字則飆升到了650萬。有組織的仇恨組織被歸為一個獨立的溫和類別,其增長幅度則要小得多,從139,900個增加到224,700個。
Facebook表示,其中一些被取消的原因是AI的改進。今年5月,Facebook發起了一項研究競賽,其目的是研究能更好地檢測“仇恨網絡迷因”的系統。在其最新的報告中,該公司就提到了自己能同時分析文字和圖片、捕捉像下面展示的圖像宏等內容。
然而這種方法有明顯的局限性。正如Facebook所指出的,一個新的仇恨言論可能跟之前的不一樣,因為它引用了一個新的趨勢或新聞故事。這取決於Facebook對多種語言的分析能力和捕捉特定國家趨勢的能力以及Facebook對仇恨言論的定義,這個類別隨著時間的推移已經發生了變化。例如,大屠殺否認上個月才被禁止。
另外,它也不一定會幫助到Facebook的版主,儘管最近有了一些變化,但新冠病毒大流行擾亂了Facebook的正常審核程序,因為它不允許審核人員在家中查看一些高度敏感的內容。Facebook在其季度報告中表示,由於AI的作用,其減少的數字正在回到大流行前的水平。
但一些員工抱怨稱,他們被迫在安全之前返回工作崗位,為此,有200名內容管理員簽署了一份公開請求,要求獲得更好的新冠病毒保護措施。在那封信中,版主說自動化未能解決嚴重的問題。“AI不能勝任這項工作。重要的演講被掃進了Facebook的過濾器裡,而像自殘這樣危險的內容卻被保留了下來,”他們說道。
Rosen則不同意他們的評估並表示Facebook的辦公室滿足或超過安全工作空間的要求。他表示:“這些都是極其重要的工作人員,他們在這項工作中扮演著極其重要的角色,我們在AI方面的投資正幫助我們檢測和刪除這些內容以保障人們的安全。”
Facebook的批評者包括美國的立法者可能仍不相信它捕獲了足夠多的仇恨內容。上週,15名美國參議員向Facebook施壓,要求其回應攻擊全球穆斯林的帖子,同時還要求其提供更多具體國家的信息以此來說明其溫和做法和仇恨言論的目標。Facebook CEO馬克·扎克伯格在參議院聽證會上為公司的適度做法辯護,其暗示Facebook可能會在未來的報告中包括這些數據。