蘋果公司隱私主管再談CSAM系統 從設計之初就想過防止被干預和濫用
蘋果公司的負責隱私的主管Erik Neuenschwander近期詳細介紹了該公司CSAM(兒童性虐待圖片)掃描系統中內置的一些細節,以減少外界對此功能的疑慮。 上周蘋果宣佈將推出一系列的防止兒童色情犯罪功能,其中最有爭議的,他們將會掃描使用者的雲端相冊,並將其數據與相關資料庫中的關鍵部分對比,如果符合並且經過人工確認后,會向相關部門報告。
CSAM檢測系統也因此引發爭議。 作為回應,蘋果公司提供了許多如何在不危及使用者隱私的情況下掃描CSAM的詳細資訊。
在接受外媒TechCrunch採訪時,蘋果公司隱私負責人Erik Neuenschwander表示,該系統從一開始想到了防止政府過度干預和濫用。
一方面,該系統僅適用於美國,第四修正案的保護措施已經防止非法搜查和扣押。 另外,他適配iOS 15系統,如果沒有更新iOS,也無法進行;第三,它不能針對個人使用者提供特定的更新,只是將指紋數據(也就是部分關鍵特徵)與政府或相關部門提供的資料庫比對。 不在國家失蹤和受虐兒童中心提供的資料庫中的圖像也不會被標記。
蘋果公司也有人工審核流程。 如果iCloud帳戶被標記為疑似收集非法CSAM材料,蘋果公司團隊將審查該數據,以確保機器是正確判斷的。
“所以這個假設(指的是濫用此功能)需要跳過很多條件,包括讓蘋果公司改變其內部流程以引用,或者更改CSAM資料庫,我們不相信人們能夠在此基礎上在美國提出這個要求”
此外,Neuenschwander補充說,該系統僅在用戶啟用了iCloud照片時才有效。 蘋果隱私負責人表示,如果使用者不喜歡該系統,「他們可以選擇不使用iCloud照片,這樣系統的任何部分都無法運行」。
在上周,蘋果公司也曾明確表示,它將拒絕任何政府組織試圖修改或將系統用於CSAM以外的用途:「Apple將拒絕任何這樣的要求,我們以前曾面臨類似要求,這些會降低用戶的隱私,因此堅決拒絕了。 我們將來還會繼續拒絕他們。 這項技術僅限於探測存儲在iCloud中的相關圖片,我們不會同意任何政府擴展它用途的請求。 ”