Facebook使用AI監控用戶跟帖中的爭吵可自動通知群管理員
Facebook正在推出一套新的工具,以幫助組管理員掌握他們的社區,其中包括一個由AI驅動的功能,Facebook說它可以識別在評論中發生的有爭議的或不健康的對話。這個工具被稱為”衝突警報”, Facebook說它目前只是在測試階段,所以正式推出日期還不清楚。
它類似於現有的”關鍵詞警報”功能,讓管理員在評論者使用某些詞彙和短語時創建自定義警報,但使用機器學習模型可以來嘗試發現更微妙的麻煩類型。一旦管理員收到警報,他們就可以採取行動,刪除評論,將用戶從小組中踢出,限制個人的評論頻率,或限制對某些帖子的評論頻率。
不過,這項功能究竟如何檢測出”有爭議或不健康的對話”還不清楚,而且在徵求意見時,Facebook沒有提供更多細節。一位發言人僅表示,該公司將使用機器學習模型來查看多種信號,如回复時間和評論量,以確定用戶之間的互動是否已經或可能導致負面互動。
不過,據推測,”衝突警報”使用的人工智能係統與Facebook已經部署,用於標記網站上濫用性言論的系統類似。這類模型遠非百分之百可靠,而且經常被幽默、諷刺和俚語等簡單事物所蒙蔽。
今天為管理員推出的其他新工具包括一個新的管理員主頁,它將作為一個儀表板,提供帖子、成員和報告的評論的概述,以及訪問新的成員摘要,它彙編了每個小組成員在小組中的活動,例如他們發帖和評論的次數,或者他們何時在小組中被刪除帖子或被靜音。
此外,還有一個新的管理員輔助功能,用於自動評論審核。這將讓管理員限制誰可以發表評論,以及通過禁止某些鏈接來遏制垃圾郵件和不需要的促銷活動。衝突警報功能將是管理助理的一部分。