蘋果公司進一步澄清為何放棄在iCloud照片中檢測CSAM的計劃
蘋果公司週四對其去年放棄檢測iCloud 照片中存儲的已知兒童性虐待材料(CSAM) 這一備受爭議的計劃做出了最全面的解釋。蘋果公司的聲明是對兒童安全組織Heat Initiative 要求該公司從iCloud 中”檢測、報告和刪除”CSAM,並為用戶向該公司報告此類內容提供更多工具的回應。
蘋果公司用戶隱私和兒童安全總監埃里克-諾伊恩施萬德(Erik Neuenschwander)在公司給Heat Initiative 的回復中寫道:”兒童性虐待材料令人深惡痛絕,我們致力於打破使兒童易受其影響的脅迫和影響鏈。”不過,他補充說,在與一系列隱私和安全研究人員、數字權利組織和兒童安全倡導者合作後,公司得出結論,不能繼續開發CSAM 掃描機制,即使是專門為保護隱私而建立的機制。
“掃描每個用戶私人存儲的iCloud 數據將為數據竊賊創造新的威脅載體,讓他們找到並加以利用,”Neuenschwander 寫道。”它還會帶來意想不到的隱私滑坡後果。例如,掃描一種類型的內容,就為批量監控打開了大門,並可能使人們產生搜索其他加密信息系統中各種內容類型的慾望。”
2021 年8 月,蘋果公司宣布了三項新的兒童安全功能計劃,包括檢測iCloud 照片中存儲的已知CSAM 圖像的系統、在”信息”應用中模糊性暴露照片的”通信安全”選項,以及Siri 的兒童剝削資源。通信安全”於2021 年12 月隨iOS 15.2 在美國推出,隨後擴展到英國、加拿大、澳大利亞和新西蘭,Siri 資源也已可用,但CSAM 檢測功能最終沒有推出。
蘋果最初表示,CSAM 檢測將於2021 年底在iOS 15 和iPad OS 15 的更新中實現,但該公司根據”客戶、宣傳團體、研究人員和其他方面的反饋”推遲了該功能。這些計劃遭到了眾多個人和組織的批評,包括安全研究人員、電子前沿基金會(EFF)、政客、政策團體、大學研究人員甚至一些蘋果員工。
英國政府正在考慮修改監控立法,要求科技公司在不告知公眾的情況下禁用端到端加密等安全功能。
蘋果公司表示,如果該立法以目前的形式獲得通過,它將在英國取消FaceTime 和iMessage 等服務。