Facebook言論監管:7500多名外包員工審查錯誤常發生
《紐約時報》今日發表文章,曝光了Facebook監管平台上言論的方式。Facebook在全球範圍內有7500多名人工管理員,他們利用1400多頁的規則手冊,判斷平台上的仇恨言論和假消息。但《紐約時報》指出,規則手冊上基本是幻燈片內容,不夠系統,並且還含有過時的或是不准確的信息。加之管理員每天審查上千條帖子,需要迅速做出判斷,因此錯誤地“封殺”或是“放行”時有發生。
以下為文章全文:
在加州總部的一間玻璃會議室裡,Facebook正在處理一個又一個帖子,該公司需要解決遍及全球範圍的仇恨言論和假消息問題。此前因為破壞民主,並在各種社會中挑起流血事件,Facebook備受批評。
但對Facebook來說,這也是個商業問題。
Facebook每季度盈利約為50億美元。該公司必須證明,自己正在嚴肅對待危險內容,與此同時還必須吸引更多來自各個國家的用戶,努力延長他們使用Facebook 的時間。
那麼,Facebook要如何才能在不影響核心業務發展的情況下,每天監控100多種語言的數十億條帖子呢?該公司的解決方案是:一個員工體系通過複雜的PPT幻燈片,來判斷哪些言論是被禁止的。
在每兩週一次的周二上午,Facebook的數十名員工都會聚在一起吃早餐,討論網站上的20億用戶可以說些什麼。這些會議提出的指導方針被發送給全球各地的7500多名管理員。
《紐約時報》發現,這些規則非常廣泛,也使得Facebook成為全球言論的仲裁者。這比該公司公開承認的權力要大得多。
《紐約時報》從Facebook一名員工處獲得了來自規則手冊的1400多頁內容。這名員工表示,他擔心公司的權力太大,受到的監督太少,並且犯了太多的錯誤。
而這些材料中存在許多漏洞、偏見和明顯的錯誤。在Facebook員工尋找正確答案的同時,這些規則也允許極端主義言論出現在一些國家,並在另一些國家審查主流言論。
例如,管理員們曾被要求刪除為印尼火山受災者募捐的倡議,因為這項活動的一名共同贊助者登上了Facebook被封禁團體的內部名單。在緬甸,文件錯誤導致一個被控煽動種族滅絕的極端主義組織在平台上存在了幾個月時間。在印度,管理員們被錯誤地告知,應當刪除批評宗教的評論。
Facebook的員工主要是年輕的工程師和律師,他們在會議上製定指導方針,嘗試將復雜的問題提煉成為簡單的“是”與“否”規則。隨後,Facebook將大部分的帖子審核外包給外部公司,而這些公司招收的主要是非熟練工,其中許多人來自於呼叫中心。
這些管理員有時需要依靠谷歌翻譯,而他們只有幾秒鐘的時間去回憶大量規則,並將規則應用於屏幕上數以百計的帖子。例如,在什麼情況下,“聖戰”(jihad)一詞是被禁止的?在什麼情況下,emoji表情符“哭笑”(crying laughter)是警示信號?
管理員們表達了對這些規則的失望。他們認為,這些規則並不總是有意義,有時只能留下在他們看來可能煽動暴力的帖子。一名不願透露姓名的管理員表示:“由於沒有採取措施,因此你的感覺就像是殺了人。”
Facebook高管們則表示,該公司正在盡力清除平台上的危險內容。
Facebook消息流高級工程師莎拉·蘇(Sara Su)表示,“這不是我們糾正人們言論的地方,但我們確實希望在平台上強制執行社區標準。當你處在我們的社區中時,我們希望確保在言論自由和安全之間取得平衡。”
Facebook全球政策管理負責人莫妮卡·比科特(Monica Bickert)表示,公司的主要目的是防止給用戶造成傷害,並在很大程度上取得了成功。但她也指出,完美是不可能的。
比科特說:“我們每天都有數十億條帖子,我們正在利用技術系統發現越來越多的潛在違規行為。在這樣的規模下,即使準確率達到99%,也依然會犯許多錯誤。”
不繫統的規則
Facebook指導方針看起來並不像是全球性政治監管手冊。它們由幾十份看起來無關的PPT和Excel文件組成,標題包括“西巴爾干人討厭組織和數字”和“可信的暴力:實施標準”。
什麼時候可以使用恐怖主義的說法?“烈士”(martyr)是否是禁用單詞?這些指導方針幫助管理員做出判斷。
由於在某種程度上,Facebook的方法是偶然得出的,因此並不存在單一的文件或整體性的指南,這些規則來自該公司的多個不同部門。Facebook證實了這些文件的真實性,但表示其中一些文件已經不是最新版。
Facebook的目標是,將法律專家都很難解決的嚴重問題歸納成為一刀切的規則,例如什麼是仇恨思想,什麼是危險的謠言。Facebook希望管理員遵從簡單的規則,防止偏見,並加強一致性。
Facebook表示,這些文件僅僅用於培訓,但管理員們則表示,這些文件也是他們的日常參考資料。
單獨來看,每條規則都是合理的,但合併到一起,這些規則可能令人有些困惑。
一份文件列出了幾條規則,用於確定類似“烈士”和“聖戰”這樣的單詞在什麼情況下屬於恐怖主義言論。另一個文件則描述了,什麼時候應該禁止討論某個違禁的組織。類似“兄弟”(brother)和“同志”(comrade)這樣的詞可能是違規的,一些表情符號也是如此。
Facebook不希望一線管理員做出獨立判斷,因此給予他們廣泛的指導。Facebook表示,表情符號在某些情況下可能被視為危險的,在某些種族或宗教團體的背景下則可能被視為仇恨言論。
關於識別仇恨言論的指導方針長達200頁。管理者必須將一篇帖子分成3個嚴重程度的“等級”。他們還必須記住一系列清單,包括6種“非人道類比”,例如將猶太人比作老鼠。
Facebook內部材料中,關於仇恨言論的句式判別。
Facebook高管比科特表示:“這裡存在真正的矛盾,一方面是想通過細微差別來解釋每種情況,另一方面是想拿出一套可以準確執行的政策,並給予清晰地解釋。”
儘管相關Facebook員工基本上可以自由地制定規則,並且常常獨力做出決定,但他們也會與外部協商。比科特說:“我們並不是在與世隔絕的情況下劃出這些界線的。”
影響各國輿論生態
指導方針非常詳細,不過它同時也在採取“逼近”路線——竭盡全力猜想抵制極端主義或錯誤信息的方式。而這些指導方針卻會讓Facebook貿然介入到全球一些敏感性政治事件中。
漸漸地,Facebook封禁帖子的決定就相當於是在控制政治言論——且不僅僅只是在一些邊緣問題上。在許多國家,極端主義以及主流的界限已經模糊不清了。
在美國,Facebook封禁了與“驕傲男孩”(Proud Boys)相關的頁面,這是一個擁護特朗普的極右翼組織。公司還封禁了一則煽動性廣告,特朗普政治團隊利用此廣告來宣揚反對中美洲移民大軍進入美國的內容。
六月,《紐約時報》查閱到了一些公司內部郵件。其中,版主曾被告知,如果用戶提到停火決定,那麼可以允許其發布讚揚塔利班的言論——通常這種言論是被封禁的。在另一封郵件中,Facebook要求版主刪除錯誤指控一位以色列士兵殺害巴基斯坦醫生的謠言。
“Facebook逐漸處於霸主和壟斷地位,它已經變得獨斷專行。”研究巴爾乾地區問題的專家Jasmin Mujanovic說道,“所有實體都不應當擁有這種影響公眾言論和政策的權力,特別是像Facebook這樣的盈利性質企業。”
在七月巴基斯坦舉辦大選不久之前,Facebook向版主發送了一份長達40頁的文件,其中羅列了關於“政黨、預期趨勢以及指導方針”等內容。
Facebook要求巴基斯坦的版主觀察一些政黨以及支持者是否發布了被禁言論。
巴基斯坦是全球最大、也是最為脆弱的民主國家之一。大選期間,巴基斯坦選擇封禁媒體。這就使得Facebook在選舉期間成為了大家熱議的焦點。
很有可能指導方針就是導致這些議論的源頭——即便巴基斯坦人自己尚未意識到這一點。比方說,Facebook要求版主額外審查強硬派宗教政黨“賢哲會”(Jamiat Ulema-E-Islam)發布的內容。而另外一個宗教黨派則被描述為是“和善的”。
儘管Facebook稱自己的關注焦點是要保護用戶,但這些文件也引來了其他問題。巴基斯坦的指導方針告誡版主,警惕任何“可能會對Facebook名聲造成負面影響或招致法律風險”的行為。
在印度,法律學者Chinmayi Arun發現Facebook的指導方針中存在一些錯誤。
其中一張幻燈片告知版主,任何貶低宗教的帖子都違反了印度法律,需要被標記為刪除。這在極大程度上抑制了言論——顯然這也是不正確的說辭。印度法律僅僅是在某些情況下禁止褻瀆神靈,比如說當言論者試圖激起暴力時。
還有一張幻燈片上的內容顯示,印度法律禁止出現有關克什米爾獨立的言論,而一些法律學者則表示事實情況並非如此。幻燈片要求版主關注“克什米爾自由”等措辭,但是積極分子的一些標語中出現這一措辭完全合法。
Facebook表示,自己只是在敦促版主額外注意使用這一說辭的帖子。不過,這依然會給克什米爾相關言論蒙上了一層陰影。顯然,對於版主來說,區分的界限並不清晰。Facebook警告版主,忽視這些情況可能會導致Facebook在印度被封禁。
時常出現錯誤
因為政府和國際機構並沒有製定明確標準,Facebook只好自己嘗試設定一套標準。
本來Facebook無意扮演這樣的角色,不過為了控制自己滋生的問題,Facebook悄悄變成了世界上最強勢的政治監管者。
反恐專家布萊恩·菲什曼(Brian Fishman)與Facebook共事,他說:“如果有權威的第三方知道答案,事情就會簡單很多。有時事情像爆炸,傳播速度很快,我們必須快速找到響應對策,沒有時間等待聯合國。”
結果有好有壞。
巴爾乾地區因為民族主義抬頭,暴力有復燃跡象;Facebook為該地區提供指南,不過自2016年之後指南就沒有更新過,裡面有一些古怪的錯誤。比如拉特科·姆拉迪奇(Ratko Mladic)是一名波斯尼亞戰犯,受到極端主義者推崇,文件說他在逃。實際上,姆拉迪奇2011年就被捕了。
幻燈片的作者是一些說英語的人,他們依賴谷歌翻譯編寫文檔,也就是說Facebook缺少精通本地語言的版主,只有熟悉本地語言才能理解當地環境,正確識別煽動性言論。有時谷歌翻譯並不可靠。
巴爾干問題專家雅斯曼·穆亞諾維奇(Jasmin Mujanovic)認為,Facebook的指南過時了,而且很嚴重。對於極端民族主義團體煽動政治暴力的問題,指南一筆帶過。
接受《紐約時報》採訪的Facebook員工幾乎都談到一件事,也就是聯合國指責Facebook在緬甸種族滅絕危機中助推仇恨言論傳播。員工們說,Facebook頒布禁令,禁令任何粉飾Ma Ba Tha的內容,Ma Ba Tha是一個極端組織,自2014年以來,Ma Ba Tha利用Facebook散佈言論,呼籲各方用暴力對抗穆斯林。
感到困惑的緬甸活動人士指出,禁令頒布幾個月後,平台上仍然充斥著支持Ma Ba Tha的言論。
出現這種問題,可能要歸因於Facebook指南。指南中的確談到了緬甸政治仇恨言論的問題,不過指南要求版主不要刪除支持Ma Ba Tha的言論。《紐約時報》就此質詢Facebook,它才修正錯誤。
Facebook封殺Ma Ba Tha支持言論之後幾個月,一個緬甸至上主義者組織遭到投訴,有人說它宣揚種族清洗,然而Facebook緬甸指導文件卻說這個組織並無問題,可以放行。
員工們還說,他們做出決定,關閉緬甸高級軍官的Facebook帳號。
不過Facebook最開始時並沒有將關閉消息通知緬甸政府,一些被封殺的官員認為自己被黑客入侵了。有些人指責昂山素季(Daw Aung San Suu Kyi),她是緬甸的平民領袖,這一事件加深了雙方的不信任。
仇恨黑名單
許多重要的Facebook政治文檔只是一份Excel表格,它將各個組織和個體的名字列出來,這些組織和個體被視為仇恨言論的涉及對象,被Facebook封殺。
Facebook對版主提出要求,對於黑名單上的組織或者個體,如果用戶發表內容讚揚、支持他們,或者描述他們,都應該及時清除。
安東·舍克赫維特佐夫(Anton Shekhovtsov)是一名研究極右翼組織的專家,他對Facebook的方法感到困惑。在名單中有許多美國、英國組織,但是一些國家卻很少,那裡的右派更加暴力,比如俄羅斯、烏克蘭。
在有些國家,Facebook受到的政府壓力大一些,覆蓋也就更全面,如果壓力不大,覆蓋就會弱很多。Facebook封殺幾十個德國右翼組織,德國當局對Facebook管控很嚴,但在奧地利卻只封殺了一個。
哈佛大學在線極端主義專家喬納斯·凱撒(Jonas Kaiser)認為,Facebook是一家科技公司,它制定這樣的政策很有問題。凱撒認為:“政策將Facebook推到了一個新位置,它像裁判一樣,而這種工作一般是交給法院完成的。”
薩那·賈弗里(Sana Jaffrey)在芝加哥大學研究印尼政治問題,賈弗里認為禁令有點像捷徑。向版主下達命令,讓他們查看被封殺的名字或者Logo,這樣更容易一些,如果要讓他們判斷危險政治言論,那就難多了。
在亞洲和中東許多地區,Facebook還會封殺強硬宗教組織,它們在社會中有著舉足輕重的地位。賈弗里認為,如果全面禁止,意味著Facebook關閉了國家辯論中一方的聲音。
政府有權處罰Facebook,或者監管它,Facebook的決定許多時候都會討好政府。
在斯里蘭卡,一些泰米爾少數民族成員在內戰中死亡,如果有言論紀念他們,會被Facebook刪除。讚揚泰米爾叛軍的言論不許出現在Facebook,但是Facebook允許用戶讚揚政府軍,他們同樣要為暴行負責。
倫敦大學(University College London)斯里蘭卡問題專家凱特·克羅寧-弗曼(Kate Cronin-Furman)認為,Facebook的做法無疑是在阻止泰米爾少數民族紀念戰爭,幫助政府給事件定性,鞏固泰米爾民族的二等地位。
Facebook總部規則
Facebook的政策也許來自設備完善的會議室,但是政策要交給版主執行,他們在遙遠的辦公室辦公,比如在摩洛哥、菲律賓,那裡很簡陋。
Facebook聲稱,自己會給版主足夠的時間審查帖子,而且沒有配額。但是版主卻說他們承受很大壓力,每天要審查一千條帖子。每條帖子只有8-10秒的審查時間,審查時間稍長。
Facebook內部材料中,關於emoji表情符號的隱喻內容
版主們談到了自己的感受。有些人說,付費與速度、精準度掛鉤。許多人只做了短短幾個月就無法堅持了。作為一線版主,沒有太多辦法提醒Facebook,讓它注意新威脅,或者註意政策中的漏洞,即使做了也沒有什麼獎勵。
一名版主談到一條在辦公室通行的規則:如果某條帖子的語言附近沒有人能讀懂,那就批准它。Facebook說這樣做可能會違反公司政策。負責合同的Facebook副總裁賈斯廷·奧索夫斯基(Justin Osofsky)說,走捷徑的行為可能是外部公司的中層管理人員搞出來的,他們獨立於Facebook運行。
從中可以窺見更深的問題。Facebook請了許多外包公司,這些企業主要靠自己來管理自己,而Facebook的監管不到位,很難控制它們。Facebook依賴外圍公司來擴張,所以它對外圍公司的影響有限。
在清除煽動性言論時,Facebook自己也是一大障礙。Facebook依賴算法挑選內容,算法偏愛那些最能刺激人的內容,有時算法助推的內容恰好是公司想壓制的。
Facebook可以調整算法,或者降低進入新市場的速度。不過Facebook一直在向員工灌輸一種觀念:我們的產品是一股有益力量。
有報告認為,Facebook使用率提高,暴力也會相應增加,是這樣嗎?莎拉·蘇回答說:“我並不這樣認為。”她還說:“當我們的覆蓋面擴大,參與的人更多,風險的確會增加。但是人們表達新想法的機會也會增大,比風險增加的幅度更大。”
Facebook找到正確的解決方案了嗎?對此問題,一些Facebook高管顯得有些遲疑。
在倫敦工作的副總裁理查德·阿蘭(Richard Allan)認為,通過合作、政府參與來設立標準,效果可能更好一些,即使我們不相信所有政府。
而布萊恩·菲什曼認為,Facebook應該將更多決策權交給版主,因為他們對當地文化或者政策可能有更好的理解。
在Facebook總部,一些最重要的問題還沒有找到答案:是什麼內容直接導致暴力?什麼時候平台會加劇社會矛盾?
羅薩·伯奇(Rosa Birch)領導一個內部危機團隊,她說自己與團隊多年來一直在思考這個問題,也取得了一些進步,但是可能永遠也無法找到確定答案。
因為無法完全理解平台的影響力,所以大多政策只是問題出現時給出的臨時解決方案。員工們稍作調整,看看效果如何,然後再調整。
與此同時,Facebook還在擴大版圖,接觸更多用戶,進入更多國家。
“討論這個問題很困難的原因之一,是我們在這種言論監管的權力應該由誰掌管的問題上,缺少社會共識,”菲什曼說,“但什麼是更好地替代方案?這也很難說清楚。”