多方壓力下Meta正在擴大兒童安全措施的範圍
Meta 在今天發表的一篇部落格文章中表示,它正在擴展和更新其旨在保護兒童的兒童安全功能,這是在有關其平台如何推薦兒童性內容的報道正堆積如山的背景下的最新進展。
幾個月來,《華爾街日報》詳細報導了Instagram 和Facebook 如何向用戶提供與兒童有關的不當和性內容。今年6 月,一篇報導詳細描述了Instagram 如何將買賣兒童性虐待材料(CSAM)的帳戶網路連接起來,並透過其推薦演算法將這些帳戶相互引向對方。今天公佈的一項後續調查顯示,這一問題如何延伸到了Facebook 群組,那裡有一個戀童癖帳戶和群組的生態系統,有些群組的成員多達80 萬人。
在這兩個案例中,Meta 的推薦系統透過Facebook 的”你可能感興趣的群組”或Instagram 上的自動填入標籤等功能,讓濫用帳號互相找到對方。Meta 今天表示,它將對”可疑”成人帳戶之間的互動方式進行限制:在Instagram 上,這些帳戶將不能互相關注,不能被推薦,其他”可疑”帳戶也不能看到這些帳戶的評論。
Meta 還表示,它已經擴大了與兒童安全相關的術語、短語和表情符號列表,並開始使用機器學習來檢測不同搜尋字詞之間的聯繫。
就在美國和歐盟監管機構就Meta 如何保證平台上兒童安全問題向Meta 施壓的同時,Meta 也發布了上述報告,並做出了相應的兒童安全調整。Meta 執行長 Mark Zuckerberg)將與其他幾位大科技公司高層一起,於2024 年1 月在參議院就網路兒童剝削問題作證。11 月,歐盟監管機構給Meta 規定了提供有關其如何保護未成年人的信息的最後期限(今天到期);他們今天又向Meta 發出了新的要求,特別指出”Instagram 上流傳的自創兒童性虐待材料(SG-CSAM)”以及該平台的推薦系統。
11 月底,約會應用程式公司Bumble 和Match 在《華爾街日報》報道後暫停了Instagram 上的廣告。這兩家公司的廣告出現在露骨內容和對兒童進行性攻擊的Reels 影片旁邊。