蘋果對檢測iCloud照片中存儲的已知CSAM的計劃仍保持沉默
自蘋果宣布計劃推出三項新的兒童安全功能以來已經過去一年多的時間。據悉,這三項功能為檢測存儲在iCloud照片中的已知兒童性虐待材料(CSAM)圖像的系統、模糊信息應用中的性愛照片的選項及Siri的兒童剝削資源。後兩個功能現在已經可以使用,但蘋果對CSAM檢測功能的計劃仍保持沉默。
蘋果最初表示,CSAM檢測將在2021年底之前在iOS15和iPad OS15的更新中實施,但該公司最終根據客戶、宣傳團體、研究人員和其他人的反饋推遲了該功能。
2021年9月,蘋果在其兒童安全頁面發布了以下更新:“之前我們宣布了一些功能計劃,旨在幫助保護兒童免受使用通信工具招募和剝削他們的掠奪者的侵害並幫助限制兒童性虐待材料的傳播。根據客戶、宣傳團體、研究人員和其他人的反饋,我們決定在未來幾個月內花更多時間收集意見並進行改進,然後再發布這些極其重要的兒童安全功能。”
2021年12月,蘋果從其兒童安全頁面上刪除了上述更新和所有關於CSAM檢測計劃的內容,但蘋果的一位發言人告訴The Verge,公司對該功能的計劃並未改變。然而,據macrumors所知,自那時起,蘋果沒有公開評論過該計劃。Macrumors已經聯繫了蘋果以詢問該功能是否仍在計劃中,但蘋果沒有立即回應評論請求。
蘋果確實在2021年12月發布的iOS 15.2和其他軟件更新中推進了信息應用和Siri的兒童安全功能的實施,另外還在2022年5月發布的iOS 15.5和其他軟件中將信息應用功能擴展到澳大利亞、加拿大、新西蘭和英國。
蘋果表示,其CSAM檢測系統在設計時考慮到了用戶隱私。該系統將使用來自兒童安全組織的已知CSAM圖像哈希值數據庫進行設備上的匹配,蘋果則會將其轉化為不可讀的哈希值集從而可以安全地存儲在用戶的設備上。
蘋果計劃向美國家失踪與被剝削兒童中心(NCMEC)報告有已知CSAM圖像哈希值的iCloud賬戶,該中心是一個跟美國執法機構合作的非營利組織。蘋果表示,將有一個“門檻”來確保“每年少於一萬億分之一的機會”的賬戶被系統錯誤標記,另外還有人工審查標記的賬戶。
蘋果的計劃受到了廣泛的個人和組織的批評,這當中包括安全研究人員、電子前沿基金會(EFF)、政治家、政策團體、大學研究人員甚至一些蘋果自己的員工。
一些批評者認為,蘋果的兒童安全功能可能為設備創造一個“後門”,政府或執法機構可以利用它來監視用戶。另一個問題是誤報,包括有人可能故意將CSAM圖像添加到另一個人的iCloud賬戶中從而使其賬戶被標記。