Facebook介紹如何利用AI檢測COVID-19假新聞和仇恨言論
在本週一發布的報告中,Facebook詳細介紹瞭如何使用人類事實檢查員(human fact-checkers)、版主和人工智能結合的方式來更高效執行社區標準。這份報告稱之為“社區標準執行報告”(Community Standards Enforcement Report),包含了前三個月到六個月的數據和調查結果,不過本次報告主要關注的是人工智能。
在COVID-19疫情期間,Facebook更多的依靠技術來幫助版主進行管理。據The Verge週二報導,Facebook已經與現任和前任版主達成了5200萬美元的集體訴訟和解,以補償他們在工作期間產生的精神健康問題,尤其是創傷後應激障礙。The Verge曾廣泛報導過Facebook僱傭的公司在其平台上做版主的工作條件。
該公司的誠信副總裁Guy Rosen表示:“這份報告只包括截至2020年3月的數據,所以它並沒有反映出我們在大流行期間所做的改變的全部影響。我們預計,我們將在下一份報告中看到這些變化的影響,我們將對這些變化保持透明。”
鑑於目前的情況,Facebook的報告中確實包含了新的信息,即該公司如何利用其AI工具專門打擊與冠狀病毒相關的錯誤信息和其他形式的平台濫用行為,比如在Facebook Marketplace上的價格壟斷行為。
在博文中寫道:“自3月1日以來,我們已經刪除了超過250萬條用於銷售口罩、洗手液、表面消毒濕巾和COVID-19檢測試劑盒的內容。但這些都是困難的挑戰,我們的工具也遠非完美無缺。此外,這些挑戰的對抗性意味著工作永遠無法完成。”
Facebook表示,其標籤正在發揮作用:95%的情況下,被警告的人在被警告某篇內容含有錯誤信息的情況下,都會決定不看。但事實證明,在其龐大的平台上製作這些標籤是一個挑戰。首先,Facebook正在發現,大量的錯誤信息以及仇恨言論現在顯示在圖片和視頻中,而不僅僅是文字或文章鏈接。
在另外一篇博文中寫道:“我們發現,在全球範圍內,Facebook上的仇恨言論有相當大的比例出現在照片或視頻中。與其他內容一樣,仇恨言論也可以是多模式的:比如說,一個meme可能會將文字和圖片一起使用,攻擊特定人群。”
該公司承認,這對AI來說是一個比較棘手的挑戰。由於措辭和語言差異等複雜因素,經過AI訓練的模型不僅難以解析一張Meme圖片或視頻,而且當內容在Facebook上傳播時,該軟件還必須經過訓練,以找到重複或僅有少量修改的內容。