多方反對下蘋果放棄了檢測iCloud照片中已知CSAM的計劃
根據與WIRED分享的一份聲明,蘋果今天宣布,它已經放棄了檢測存儲在iCloud照片中的已知CSAM(兒童性虐待內容)的計劃。蘋果在一份聲明中寫道:”在廣泛徵求專家意見,收集我們去年提出的兒童保護舉措的反饋意見後,我們正在深化我們對2021年12月首次提供的通信安全功能的投資,”
蘋果表示,”我們決定不推進我們之前提出的iCloud照片的CSAM檢測工具。兒童可以在沒有公司梳理個人數據的情況下得到保護,我們將繼續與政府、兒童倡導者和其他公司合作,幫助保護年輕人,維護他們的隱私權,並使互聯網成為兒童和我們所有人更安全的地方。”
2021年9月,蘋果在其兒童安全頁面發布了以下更新:“之前我們宣布了一些功能計劃,旨在幫助保護兒童免受使用通信工具招募和剝削他們的掠奪者的侵害並幫助限制兒童性虐待材料的傳播。根據客戶、宣傳團體、研究人員和其他人的反饋,我們決定在未來幾個月內花更多時間收集意見並進行改進,然後再發布這些極其重要的兒童安全功能。”
蘋果計劃向美國家失踪與被剝削兒童中心(NCMEC)報告有已知CSAM圖像哈希值的iCloud賬戶,該中心是一個跟美國執法機構合作的非營利組織。蘋果表示,將有一個“門檻”來確保“每年少於一萬億分之一的機會”的賬戶被系統錯誤標記,另外還有人工審查標記的賬戶。
蘋果的計劃受到了廣泛的個人和組織的批評,這當中包括安全研究人員、電子前沿基金會(EFF)、政治家、政策團體、大學研究人員甚至一些蘋果自己的員工。
一些批評者認為,蘋果的兒童安全功能可能為設備創造一個“後門”,政府或執法機構可以利用它來監視用戶。另一個問題是誤報,包括有人可能故意將CSAM圖像添加到另一個人的iCloud賬戶中從而使其賬戶被標記。