Facebook全球安全主管:平臺不會放大仇恨,歡迎有效的政府監管
Facebook全球安全主管週四對英國議員表示,Facebook的演算法會降級而不是促進兩極分化的內容,並補充稱,該公司歡迎有效的政府監管。 歐洲和美國的政府正在努力規範社交媒體平臺,以減少有害內容傳播,尤其是對年輕用戶的傳播。
前員工抨擊Facebook傳播仇恨內容 加劇世界衝突
英國率先垂範,如果社交媒體公司不能刪除或限制非法內容傳播,將面臨高達其營業額10%的罰款。
如果這些措施不起作用,可能會提出建議讓公司董事承擔責任的二級立法。
週一,Facebook的舉報人法蘭西斯·豪根(Frances Haugen)對同一個議員委員會表示,Facebook的演算法向使用者推送了極端和分裂的內容。
Facebook全球安全主管安提戈涅·大衛斯(Antigone Davis)否認了這一指控。
“我認為我們並不是在放大仇恨,”大衛斯週四對委員會說,”我認為我們試圖保證我們降級處理分裂或兩極分化的內容。 ”
她說,她不能保證使用者不會被推薦仇恨內容,但Facebook正在使用人工智慧將其概率降低到0.05%。
“我們沒有興趣在我們的平臺上放大仇恨,為人們創造糟糕的體驗,他們就不會再回到我們平臺了,”她說。 “我們的廣告商也不會讓這種情況發生。”
此外,大衛斯還表示,Facebook周四宣佈將更名為Meta,希望監管機構為社交媒體平臺更安全做出貢獻,例如對飲食紊亂或身體形象的研究。
她表示:”其中許多都是社會問題,我們希望監管機構能夠發揮作用。” 她補充說,Facebook歡迎一個擁有”適當和有效執法權力”的監管機構。
“我認為對董事追究刑事責任是非常嚴重的一步,我不確定我們是否需要採取這一步行動。”