安全研究人員在蘋果虐待兒童圖片掃描系統中發現碰撞攻擊漏洞
研究人員在iOS的內置散列函數演算法中發現了碰撞攻擊漏洞,引起了人們對蘋果公司CSAM掃描系統的新關注,但蘋果公司表示,這一發現並沒有威脅到該系統的完整性。
該漏洞影響了名為NeuralHash的散列演算法,該演算法允許蘋果公司在不擁有任何圖片或收集任何非匹配圖片信息的情況下,檢查圖片與已知的虐待兒童圖像是否完全匹配。 週二,一個名為Asuhariet Ygvar的GitHub用戶發佈了一個重建的Python版本的NeuralHash代碼,他聲稱已經從以前的iOS版本中逆向開發了這個版本。
該GitHub帖子還包括如何從當前macOS或iOS構建中提取NeuralMatch文件的說明。 由此產生的演算法是NeuralHash的通用版本,而不是擬議的CSAM系統部署后將使用的具體演算法,但它仍然給出了該演算法的優勢和劣勢的總體概念。
早期測試表明,它可以容忍圖像的大小和壓縮,但不能容忍裁剪或旋轉。 Asuhariet Ygvar在Reddit上分享了新代碼,希望這能説明外界更好地理解NeuralHash演算法,並在它在所有iOS設備上啟用之前知道它的潛在問題。 此後不久,一個叫Cory Cornelius的使用者在演算法中發現了碰撞攻擊漏洞,可以產生兩張相同哈希值的圖片。 這是一個重要的發現,因為蘋果公司說其CSAM系統的額外保護措施將防止它被不法利用。
8月5日,蘋果公司推出了一個新系統,用於阻止iOS設備上的虐待兒童圖像。 在新系統下,iOS將根據國家失蹤和被剝削兒童中心(NCMEC)生成和維護的虐待兒童圖像的哈希值檢查本地存儲的檔。 該系統包含許多隱私保護措施,將掃描範圍限制在iCloud照片上,並設置了一個閾值,即在生成警報前發現多達30個匹配項。 然而,隱私宣導者仍然擔心掃描本地存儲檔的影響,新的發現加劇了人們對該系統可能被利用的擔憂。
蘋果公司表示,鑒於感知散列演算法的已知局限性,其CSAM掃描系統在構建時已考慮到碰撞攻擊問題。 該公司強調了一個獨立於NeuralHash的二級伺服器端散列演算法,其具體細節沒有公開。 如果一張由NeuralHash碰撞攻擊的圖片被系統標記出來,它將被送二級伺服器檢測,並在人工審核之前被確定為誤報。