蘋果公司從其兒童安全網頁上刪除了對有爭議的CSAM掃描功能的提及
蘋果公司已經悄悄地從其兒童安全網頁上刪除了所有提及CSAM的內容,這表明在對其方法提出重大批評後,其檢測iPhone和iPad上兒童性虐待圖像的有爭議的計劃可能懸而未決甚至可能中途夭折。
蘋果公司在8月宣佈了一套計劃中的新的兒童安全功能,包括掃描使用者的iCloud照片庫中的兒童性虐待材料(CSAM),在接收或發送色情照片時警告兒童及其父母的通信安全,以及擴大Siri和搜索中的CSAM指導。
這些功能公佈后,受到廣泛的個人和組織的批評,包括安全研究人員、隱私吹哨人愛德華·斯諾登、電子前沿基金會(EFF)、Facebook的前安全主管、政治家、政策團體、大學研究人員,甚至一些蘋果員工都對此表示明確反對。
大多數批評都是針對蘋果公司計劃的設備上CSAM檢測,研究人員抨擊其依賴無效和危險的技術,近乎於實施大規模監視,並嘲笑其實際上在識別兒童性虐待圖像方面沒有效果。
蘋果繼續為「資訊」功能推出通信安全特性,本周早些時候隨著iOS 15.2的發佈而上線,但在批評的洪流中,蘋果決定推遲CSAM的推出,這顯然是它沒有想到的。
9月,該公司表示,「根據客戶、宣傳團體、研究人員和其他方面的反饋,我們決定在未來幾個月花更多時間收集意見,並在發佈這些極其重要的兒童安全功能之前進行改進。 “
上述聲明之前被添加到蘋果公司的兒童安全頁面,但它現在已經消失了,這就提出了一種可能性,即蘋果公司可能已經把擱置,甚至完全放棄了這個計劃。