Reddit用戶發現CSAM檢測中使用的蘋果NeuralHash演算法隱藏在iOS 14.3中
據外媒AppleInsider報導,Reddit上的一個使用者稱,他發現了iOS 14.3中兒童性虐待材料(CSAM)檢測中使用的蘋果NeuralHash演算法的一個版本。 蘋果在發給Motherboard的一份聲明中表示,在iOS 14.3中發現的NeuralHash版本並不是與iOS 15一起發佈的最終版本。
Reddit使用者u/AsuharietYgvar說,NerualHash代碼被發現隱藏在iOS 14.3中。 該使用者說,他們已經對代碼進行了逆向工程,並在Python中重建了一個工作模型,可以通過傳遞圖像進行測試。
該演算法是在隱藏的API中發現的,NeuralHash的容器被稱為MobileNetV3。 有興趣查看代碼的人可以在GitHub中找到。
這位Reddit用戶聲稱這一定是正確的演算法,原因有二。 首先,模型檔的前綴與蘋果文檔中發現的相同,其次,代碼的可驗證部分與蘋果對NeuralHash的描述工作相同。
利用這個工作的Python腳本,GitHub使用者已經開始研究這個演算法是如何工作的,以及它是否可以被濫用。 例如,一位名叫dxoigmn的用戶發現,如果知道CSAM資料庫中發現的結果哈希值,人們可以創建一個產生相同哈希值的假圖像。 如果是真的,有人可以製造出類似於任何東西的假圖像,但產生所需的CSAM哈希值匹配。 從理論上講,一個使用者可以將這些圖片發送給蘋果使用者,以試圖觸發該演算法。
儘管有這些發現,這個版本的NerualHash所提供的所有資訊可能並不代表最終版本。 蘋果公司多年來一直在構建CSAM檢測演算法,因此可以認為存在一些版本的代碼用於測試。 如果u/AsuharietYgvar發現的確實是CSAM檢測演算法的某個版本,它可能不是最終版本。
如果dxoigmn 建議的攻擊向量是可能的,只需將其生成的圖像發送給使用者,就有幾個故障保護措施可以防止使用者禁用 iCloud 帳戶,並報告給執法部門。。 有許多方法可以在一個人的設備上獲得圖像,如電子郵件、AirDrop或iMessage,但用戶必須手動添加照片到照片庫中。 沒有一個直接的攻擊載體,不需要物理設備,或使用者的iCloud憑證來直接向照片應用程式注入圖像。
蘋果也有一個人工審查程式。 攻擊圖像不是人類可以解析的東西,而是一個位域,而且顯然偽造的檔中不涉及 CSAM。
不是最終版本
Reddit使用者聲稱他們發現了這些代碼,但並不是ML專家。 帶有Python腳本的GitHub資源庫暫時可供公眾檢查。
目前還沒有人發現iOS 15測試版中存在CSAM資料庫或匹配演算法。 一旦它出現,有理由相信一些使用者將能夠提取該演算法進行測試和比較。
目前,使用者可以探究這個潛在的NerualHash版本,並試圖找到任何潛在的問題。 然而,這項工作可能被證明是沒有結果的,因為這隻是用於CSAM檢測的複雜過程的一部分,並沒有考慮到憑證系統或伺服器端發生的事情。
蘋果還沒有提供CSAM檢測功能的確切發佈時程表。