安全研究人員對蘋果掃描iCloud照片的計劃表示擔憂
據外媒報導,蘋果今日(當地時間8月5日)宣佈,隨著iOS 15和iPadOS 15的發佈,它將開始在美國掃描iCloud照片以尋找已知的兒童性虐待材料(CSAM),另外還計劃向國家失蹤和被剝削兒童中心(NCMEC)報告調查結果。
據悉,在蘋果詳細闡述其計劃之前,有關CSAM倡議的消息就已洩露,安全研究人員已經開始對蘋果的新圖像掃描協定在未來可能如何使用表示擔憂。
眼下,蘋果正在使用NeuralHash系統,其將已知的CSAM圖像跟使用者iPhone上的照片進行比較然後再上傳到iCloud上。 如果匹配,照片就會跟加密安全憑證一起上傳,當達到一定閾值時就會觸發審查,該審查會檢查該名用戶的設備上是否有CSAM。
目前,蘋果正在使用其圖像掃描和匹配技術來尋找虐待兒童的情況,但研究人員擔心,在未來,它可能會被用於掃描其他更令人擔憂的圖像如抗議活動中的反政府標語。
來自約翰霍普金斯大學的密文研究員Matthew Green在一系列推文中指出,CSAM掃描是一個非常糟糕的主意,因為在未來,它可能會擴展到掃描端到端加密的照片,而不僅僅是上傳到 iCloud 的內容。 對於兒童,蘋果正在實施一項單獨的掃描功能,其直接在端到端加密的iMessages中尋找色情內容。
Green還對蘋果計劃使用的哈希提出了擔憂,因為這裡面可能存在”衝突”,即某人發送一個跟CSAM共用哈希的無害檔進而可能導致錯誤標記。
對此,蘋果方面表示,其掃描技術具有極高的準確性以確保帳號不會被錯誤標記,在使用者的 iCloud 帳號被禁用並向NCMEC發送報告之前報告會被手動審查。
Green認為,蘋果的實施將會推動其他科技公司也採用類似的技術。 他寫道:”這將打破障礙。 政府會要求每個人都這麼做。 “他把這項技術比作是”專制政權部署的工具”。
曾在Facebook工作的安全研究員Alec Muffett表示,蘋果實施這種圖像掃描的決定是”對個人隱私而言的巨大倒退”。
劍橋大學的安全工程教授Ross Anderson稱這絕對是一個可怕的想法,其將可能導致對設備進行分散式大規模監控。
正如許多人在Twitter上指出的那樣,多家科技公司已經為CSAM做了圖像掃描。 Google、Twitter、微軟、Facebook和其他網站使用圖像哈希法來尋找和報告已知的虐待兒童的圖像。
同样值得注意的是,苹果在推出新的CSAM倡议之前就已经扫描了一些儿童虐待图片的内容。2020年,苹果首席隐私官Jane Horvath表示,苹果使用筛查技术寻找非法图像,如果检测到CSAM的证据就会封掉该账号。
由于苹果曾在2019年更新了其隐私政策–它将扫描上传的内容以寻找潜在的非法内容,包括儿童性剥削材料–所以现在这份新的声明并不完全是新的。