Facebook使用AI對內容進行分類以便更快地進行審查
Facebook一直明確表示,它希望人工智能處理其平台上更多的審查職責。週五,該公司宣布了向這一目標邁出的最新一步:讓機器學習負責其審查隊列。以下是Facebook上的審查工作方式。被認為違反公司規則的帖子(包括從垃圾郵件到仇恨言論和“美化暴力”的內容)會被用戶或機器學習過濾器標記出來。
此外,一些非常明確的案例會被自動處理(例如,回應可能涉及刪除帖子或阻止帳戶),而其餘的則進入隊列,由人類審查員審查。
Facebook在全球範圍內僱傭了大約1.5萬名這樣的審查員,過去一直被批評沒有給這些員工足夠的支持,僱傭他們的條件可能導致創傷。他們的工作是對標記的帖子進行整理,並對其是否違反公司的各種政策做出決定。
過去,審查員或多或少會按照時間順序審查帖子,按照帖子被舉報的順序進行處理。現在,Facebook表示要確保最重要的帖子被首先看到,並且正在使用機器學習來幫助他們。未來,各種機器學習算法的綜合體將被用來對這個隊列進行排序,根據三個標準對帖子進行優先處理:它們的傳播程度、嚴重性以及它們違反規則的可能性。
究竟這些標準是如何加權的,目前還不清楚,但Facebook表示,目的是先處理最具破壞性的帖子。所以,一個帖子的傳播性越強(被分享和看到的次數越多),就會越快被處理。帖子的嚴重程度也是如此。Facebook表示,它將涉及現實世界傷害的帖子列為最重要的帖子。這可能意味著涉及恐怖主義、兒童剝削或自我傷害的內容。同時,像垃圾郵件這樣的帖子,雖然很煩人,但沒有創傷性,被列為最不重要的審查對象。
“所有違反內容的內容仍然會收到一些實質性的人工審查,但我們將使用這個系統來更好地確定(該過程)的優先級,”Facebook社區誠信團隊的產品經理Ryan Barnes在新聞發布會上告訴記者。
Facebook過去曾分享過一些關於其機器學習過濾器如何分析帖子的細節。這些系統包括一個名為“WPIE”的模型,WPIE代表“整個帖子完整性嵌入”,採取Facebook所謂的“整體”方法來評估內容。這意味著算法會協同判斷任何給定帖子中的各種元素,試圖找出圖片、標題、海報等共同揭示的內容。
Facebook使用人工智能來調節其平台的做法過去一直受到審查,批評者指出,人工智能缺乏人類判斷很多在線交流背景的能力。尤其是像錯誤信息、欺凌和騷擾這樣的話題,計算機幾乎不可能知道自己在看什麼。
Facebook的Chris Palow是該公司交互完整性團隊的軟件工程師,他同意人工智能有其局限性,但他告訴記者,這項技術仍然可以在刪除不需要的內容方面發揮作用。“這套系統就是要把AI和人類審核員結合起來,減少總的錯誤,”Palow說。“AI永遠不會是完美的。”
當被問及該公司的機器學習系統分類錯誤的帖子比例是多少時,Palow沒有直接回答,但他指出,Facebook只有在自動系統與人類審查員一樣準確時,才會讓自動系統在沒有人類監督的情況下工作。“自動行動的門檻非常高,”他說。儘管如此,Facebook正在穩步地將更多的人工智能加入到審核組合中。