AI加持:Facebook識別並清理了200個白人至上主義者群組
外媒VentureBeat報導稱,在17號下午的一篇博客文章中,Facebook詳細介紹了該公司是如何打擊FB和Instagram平台上的極端、暴恐和仇恨組織的。據其所述,近期的大部分成功行動,都是通過自動化技術實現的。此外,該公司還有一支350人規模的反恐團隊,其業務已擴展到防止宣揚或參與暴力的人對現實世界造成傷害。
(圖自:FB,via VentureBeat)
據悉,這些信息是Facebook 趕在國會聽證前披露的。其討論了包括Facebook、Google 和Twitter 等在內的科技企業,是如何對其所在社區的暴力內容展開管控的。
Facebook 聲稱,其借助機器學習算法,來幫助審核團隊根據用戶的行為、對恐怖團體展開廣泛的監測,主要是通過識別與一隻不良資料副本相匹配的內容來評估其是否可能已違反相關政策。
起初,這項技術意在對特定暴力團體的內容展開清理,其在2 年內刪除了超過2600 万帖、且其中有99% 是被系統主動識別出來的。
不過從2018 年中期開始,Facebook 開始將人工智能技術的使用範圍,拓展到了更廣泛的危險組織,並順利清理了200 個白人至上主義者群體、以及向這些組織表示讚揚和支持的內容。
Facebook 表示,該公司將與英美政府和執法機構合作,在未來的槍械訓練計劃中,進一步提升計算機視覺算法的識別精度。今年3 月份在新西蘭發生的大規模槍擊事件,已經給行業敲響了警鐘。
此外,該公司計劃擴大另一項計劃,將那些在Facebook 上搜索與白人至上相關的條款的人、以及專注於幫助人們離開仇恨團體的資源聯繫起來。
最後,Facebook 表示其製定了“恐怖組織” 的定義,並將以此來對相關內容展開行動決策。