Twitter測試全新審核工具告訴用戶使用攻擊性語言回复前需三思
據外媒The Verge報導,Twitter正在嘗試使用一種新的審核工具,在用戶發布包含該公司所說的“有害”語言的回帖之前,將警告用戶。Twitter將其描述為一個有限的實驗,而且只針對iOS用戶。Twitter官方支持頻道的一條消息稱,現在應該是在某些情況下會彈出的提示,“如果你的回復中使用了可能有害的語言,你可以選擇在發布之前修改你的回复”。
這個方法並不是全新的,之前已經被不少其他社交平台使用過,最突出的是Instagram。這款由Facebook擁有的應用現在在用戶發布標題前會警告用戶,並附上一條消息,稱該標題”看起來與其他被報導的標題相似”。在這一變化之前,Instagram在去年夏天推出了針對評論的警告系統。
目前還不清楚Twitter是如何給有害語言貼上標籤的,但該公司確實有仇恨言論政策和一份更廣泛的Twitter規則文件,其中列出了它對從暴力威脅、恐怖主義相關內容、以及虐待和騷擾等一切內容的立場。Twitter表示,它不會僅僅因為一些內容具有攻擊性就將其刪除:“人們可以發佈內容,包括可能具有煽動性的內容,只要不違反Twitter規則。”但該公司確實擁有允許它對其廣泛的言論政策進行例外處理的規則。
儘管如此,這個新的實驗似乎並不那麼關注於遏制那些更極端的內容形式,而Twitter通常會對這些內容進行刪除、暫停或禁止用戶。相反,它似乎更多的是為了告訴用戶避免使用不必要的和煽動性的語言,因為這些語言會使矛盾升級並可能導致賬戶被關停。