在AI系統被發現容易審查過度後YouTube找回了更多的人類版主
YouTube表示,它正在將人類版主帶回來,這些版主在大流行期間曾被”下線”,這麼做的原因是因為該公司的人工智能過濾器無法匹配他們的準確性。早在3月份,YouTube就表示,公司將更多地依靠機器學習系統來標記和刪除違反其政策的內容,比如仇恨言論和錯誤信息。但YouTube本週告訴《金融時報》,更多使用人工智能節制導致視頻被錯誤刪除和拒絕通過的情況大幅增加。
4月至6月期間,約有1100萬個視頻被從YouTube上刪除,約為平時的兩倍。其中約有32萬條被移除的視頻被上訴,而上訴的視頻中有一半被恢復,這種出錯率大約是平時的兩倍:這表明人工智能係統在試圖發現有害內容時過於熱心。
YouTube的首席產品官Neal Mohan表示,做出的決定的原因無法找到像人類一樣足夠精確的機器時,我們要站在確保我們的用戶受到保護的一邊,儘管這可能會導致更多的視頻被刪除。
這種承認失敗的態度值得注意。從Twitter到Facebook再到YouTube,所有主要的在線社交平台都面臨著越來越大的壓力以應對仇恨和誤導性內容在其網站上的傳播。而所有的公司都曾表示,算法和自動過濾器可以幫助應對其平台的巨大規模。
不過,人工智能和判斷與控制方面的專家一次又一次地對這些說法表示懷疑。他們說,判斷一個關於比如陰謀論的視頻是否包含對種族主義信仰的微妙暗示,對人類來說是一個挑戰,計算機缺乏我們理解這些說法的確切文化背景和細微差別的能力。自動系統可以發現最明顯的違規者,這無疑是有用的,但更細微的判斷仍然需要人類。
即使是更直接的決策,機器也會出錯。例如,早在5月YouTube就承認,系統會自動刪除包含某些批評某些政治團體短語的評論,該公司後來將這些錯誤歸咎於”我們的執行系統出現了錯誤”。
但是,機器學習系統絕對有其用武之地,即使只是用於刪除最明顯的違規者。”在這1100萬個視頻中,有超過50%的視頻在沒有被實際的YouTube用戶瀏覽過的情況下被刪除,超過80%的視頻在瀏覽量少於10次的情況下被刪除,所以這就是機器的力量。