Instagram的人工智能在用戶發布攻擊性標題前警告用戶
該公司宣布,從今天開始,Instagram用戶即將發布的照片或視頻包含潛在攻擊性標題時,Instagram會向用戶發出警告。是否警告Instagram用戶,由驅動這項警告功能的人工智能工具來判斷,如果人工智能工具認為內容可能有害,則該服務將生成一條通知,說明標題“看起來與已舉報的其他標題相似。”然後,它將鼓勵用戶編輯標題。但也會讓用戶選擇不加更改地發布標題。
這項新功能建立在Instagram於7月份推出的類似AI驅動工具基礎上,7月份發布的這個AI驅動工具專門用於用戶評論。該公司表示,促使人們重新考慮發表可能有害的評論,在該公司打擊在線欺凌行為中產生了有希望的結果。
這只是Instagram為解決其平台上的欺凌行為而採取的一系列措施中的最新舉措。去年10月,該服務啟動了一項新的“限制”功能,該功能使用戶可以屏蔽欺凌自己的網絡惡霸用戶。早在去年,Instagram開始使用AI過濾令人反感的評論並主動檢測照片和字幕中的欺凌行為。
Instagram表示,這項新功能目前正在“特定國家”推出,並且將在未來幾個月內在全球範圍內部署。