蘋果將向美國執法部門上報iCloud兒童性虐待圖片
蘋果公司週四表示,該公司將向執法部門報告上傳到其美國iCloud服務上的兒童性虐待圖片。 蘋果公司的新系統將使用一種名為”哈希”(hashing,把任意長度的輸入通過散列演算法變換成固定長度的輸出)的進程,對所謂的”兒童性虐待材料”(Child Sexual Abuse Material,簡稱為”CSAM”)圖片進行監測,隨後將圖片轉換為與其對應的唯一數位。
蘋果公司週四開始測試該系統,但該公司表示,大多數美國iPhone使用者都要到今年晚些時候 iOS 15 更新後才能使用這個系統。
在蘋果公司採取這項舉措之前,其他雲服務也已採取類似措施,對使用者文件進行掃描(通常也都使用”哈希”系統)以發現違反其服務條款的內容,其中包括兒童性虐待圖片等。
與此同時,這也是對蘋果公司的一次考驗。 蘋果公司表示,與之前消除兒童性虐待非法圖片的方法相比,該公司的系統對用戶來說更加私密,原因是其在蘋果公司的伺服器和用戶設備上都使用了複雜的密碼系統,而且不會對實際圖片進行掃描,只會掃描”哈希”。 但對許多在隱私問題上反應敏感的用戶來說,他們仍然不願看到自己使用的軟體向政府通報設備或雲服務中的內容,因此可能會對蘋果公司此舉做出負面反應——特別是由於蘋果公司一直都在發聲捍衛設備加密,而且在該公司進行業務運營的國家,言論保護比美國要少。
世界各地的執法官員也已經向蘋果公司施壓,要求其削弱對iMessage和iCloud等其他軟體服務的加密,以便調查兒童性虐待或恐怖主義等行為。 對蘋果公司來說,週四此舉表明該公司希望找到一種方法,在不放棄一些有關用戶隱私的工程原則的情況下,解決其中一些問題。
新系統如何運作
在圖片存儲到蘋果公司的iCloud服務之前,該公司會將圖片的”哈希”與美國國家失蹤與受虐兒童中心(以下簡稱”NCMEC”)提供的散列資料庫進行比對。 蘋果公司表示,這個資料庫將從該公司發佈iOS 15更新時開始啟用,以iOS代碼的形式發佈。 匹配過程將在使用者的iPhone上完成,而不是在雲端。
如果蘋果公司隨後在某個iCloud帳號中檢測到一定數量的違規檔,那麼該系統將會上傳一個檔,允許蘋果公司解密並查看該帳號上的圖片,隨後將由人工查看圖片以確認是否匹配。
蘋果公司將只能審查與已知內容相匹配的圖片,並將其報告給這些資料庫。 舉例來說,該公司將無法檢測洗澡兒童的父母的照片,因為這些圖片不會進入NCMEC資料庫。
如果負責人工審查的人員得出結論認為系統沒有出錯,那麼蘋果公司將會禁用上傳違規圖片的使用者的iCloud帳號,並在如有必要時向NCMEC發送報告或通知執法部門。 蘋果公司的一位代表稱,如果用戶認為自己的帳號被錯誤地標記了,則可向該公司提出上訴。
蘋果公司表示,該系統只適用於上傳到iCloud服務的圖片(使用者可以選擇關閉這個系統),不適用於未上傳到該公司伺服器的設備上的照片或其他圖片。
不會被用於識別其他圖片
一些安全研究人員擔心,這項技術最終可能會被用來識別其他類型的圖片,比如政治抗議的照片等。 蘋果公司則表示,該公司的系統只適用於NCMEC或其他兒童安全組織編目的圖片,而且該公司構建密碼系統的方式可以防止其被用於其他目的。
蘋果公司稱,該公司不能向資料庫里添加額外的「哈希」。 該公司稱其正在向密碼學專家展示這個系統,以證明它可以在不損害使用者隱私的情況下檢測非法的兒童性虐待圖片。
在周四發佈這項功能的同時,蘋果公司還發佈了其他一些旨在保護兒童免受性剝削者攻擊的功能。 其中一項功能是,蘋果公司將在擁有家庭賬號的兒童iPhone上使用機器學習技術來對可能包含裸體的圖片進行模糊處理,而父母可以選擇一種警報功能,以便在13歲以下的兒童在iMessage中收到色情內容時收到警報。 另外,蘋果公司還更新了Siri,提供了如何舉報兒童性虐待內容的資訊。