專家:Facebook的平台內容監管並不像看上去的那麼透明
據報導,Facebook首席執行官扎克伯格在上週提出了一個新想法,即大科技公司通過發布報告和數據,對刪帖行為及其效果進行說明,從而實現對網絡平台內容的自我監控。然而,外部專家對此卻並不看好,他們稱Facebook其實在這方面已經建立了一套制度,但問題在於這套制度不怎麼管用。
上週四,扎克伯格對國會表示:“透明度將有助於讓這些大科技公司對刪帖的準確性和有效性負責。”他補充說,如果這樣一個透明度系統成為行業規範,Facebook就不必做出太大的改變。他還稱,“作為一個典範,Facebook每個季度都在透明度方面以身作則。”
扎克伯格已經多次發出類似倡議,呼籲社交媒體公司對用戶發布的內容承擔更多責任。隨著網絡平台上有害帖子(比如仇恨言論、暴力威脅等)的日益增加,大科技公司因此備受抨擊。美國國會議員就《通信規範法案》230條款的改革進行討論,該條款使互聯網平台公司無需對用戶生成的內容擔責。
新一輪對大科技公司的製裁呼籲正日益高漲,這些公司的社交媒體平台參與散佈各種虛假信息,對今年1月的國會騷亂起到了推波助瀾的作用,並且,在這些平台上還充斥著關於新冠疫情的各種不實消息。然而,上週四的聽證會並沒有讓國會就此達成一個立法方案,從而給Facebook提供了施加影響力的機會。
在230條款的改革方面,阿倫特·福克斯律師事務所合夥人珍妮·李(Jenny Lee)是大科技公司的利益代表方。她表示:“大科技公司至少給相關的討論留下了空間。”
然而,Facebook的自我審查報告並不像它所聲稱的那麼透明。例如,該公司在2月份報告稱,超過97%的被判定為仇恨言論的內容在遭到舉報之前就被其軟件檢測到;在去年第四季度,它對平台上49%的欺凌和騷擾內容採取了行動,之後這些內容才被用戶標記,而在第三季度這一比例僅為26%。但是,這裡面的問題在於,在計算出這些數字的等式中,分母是Facebook的人工智能記錄下來的內容,而不是有害內容的總量。此外,這些有害帖子在刪除前有多少人瀏覽過,以及它們的刪除時間,Facebook沒有發布相關信息。
一位專家表示,Facebook的這份報告令人震驚和沮喪,這家社交媒體公司並未披露那些有害內容的刪除時間,是在幾分鐘內還是幾天內刪除的?——他們並未加以說明。
這份報告的重點是人工智能,這意味著Facebook不會披露被人為標記為違規的內容,以及這些人為標記的內容被審查和刪除的比例。
有專家表示,Facebook高度依賴於機器學習的內容審核系統,在實際使用中存在嚴重缺陷。“這些自動化審核系統存在著日益增加的誤檢風險,需要刪除的內容有可能得不到刪除,而那些不需刪除的內容卻可能被錯誤刪除。”
今年早些時候,Facebook的外部監督委員會就已指出了Facebook人工智能的缺陷。該監督委員會是Facebook為客觀評估其最具爭議的內容審查而成立的一個獨立小組。委員會要求,如果用戶的內容被人工智能刪除,應該通知該用戶,並允許用戶的上訴被人工查看。
Facebook曾表示,給用戶提供這種選擇在操作上比較困難。Facebook擁有30多億用戶,僅有約15000名內容審查人員,其中一些人由於新冠疫情在家工作,出於法律原因他們不能在家查看一些敏感內容。
人力資源的短缺,以及人工智能的缺陷,給Facebook的內容審核帶來了特別的挑戰。
Facebook的這份內容透明度報告沒有關於被刪除的帖子的語言或地理位置的數據。它也沒有提及任何關於虛假信息的事情——而這是立法者們關注的另一個關鍵領域。
專家評論說:“這份透明報告幾乎沒有透明度。”