蘋果要偷看你手機電腦上的照片了
大家可能記得,蘋果最近幾年一直在用的,宣傳 iOS 系統隱私性的廣告語:”What happens on your iPhone, stays on your iPhone.” Or does it? 事實真的如此嗎? 過去的事情暫且不提。 我們現在可以肯定的是,在今年晚些時候發佈的 iOS 15 和最新版 Mac 操作系統Monterey上,蘋果就要堂而皇之地「偷看」你的照片了。
發生了什麼
昨天,約翰·霍普金斯大學加密學教授 Matthew Green 在 Twitter 上突然爆出一條大新聞:多名知情人士確認,蘋果即將發佈一項用於掃描檢測兒童色情虐待內容 (Child Sexual Abuse Material) 的端側工具。
端側的意思就是掃描工作在用戶設備上完成。 截圖來源:Matthew Green 的 Twitter 帳號
今天,蘋果也在官網正式宣佈了這一消息:
這個系統的工作原理大概是這樣的:
首先,蘋果會對使用者在iPhone等各類蘋果設備上接收、保存和發送的照片提取哈希值。
然後,蘋果會用這個值和美國「國家失蹤和被剝削兒童中心」的資料庫進行比對,驗證涉事照片是否屬於兒童色情虐待內容。 這個資料庫將會保存在用戶設備的本地。 比對檢測工作也是在本地完成的。
使用者在 iMessage 上收到或者發送照片。 系統會在後台完成比對檢測工作。 如果系統認為它屬於露骨內容,iMessage 就會暫時遮罩掉這張照片、詢問,並再次確認使用者是否要流覽或發送這張照片。
不僅如此,如果使用者本身是少年兒童,並且設置了家庭賬號的話,iOS 系統還會通知家長。
如果你以為所有這些真的全部在本地完成的,不涉及到蘋果公司層面的隱私嗅探行為,那你就太小看蘋果了。 蘋果也會用類似的哈希演算法對使用者發送到 iCloud 保存的照片(同樣端到端加密)進行檢測,並且在上傳之前給照片檔增加一串保密資訊。
如果涉事照片被判定為兒童色情虐待內容,蘋果的伺服器將可以對照片進行解密,並且交由人工進行二次審核。
安全專家認為,蘋果設計的這套打擊兒童色情的技術,雖然設計目的是好的,但可能存在嚴重的安全和隱私風險,並且完全顛覆了”端到端加密”原本存在的意義。
事件的影響
“最初我的理解是,這項技術用於在端側對雲存儲的照片進行掃描。 但是最終,它可能會成為在加密通訊系統中增加監控的一個關鍵因素。 “Green 評論道。 他還表示,在端到端通訊系統中加入這樣的掃描系統,一直以來都是全球各地執法部門的主要需求。
“棱鏡”計劃的爆料人愛德華·斯諾登也對蘋果此舉頗為不滿,甚至在 Twitter 上發佈了一張梗圖吐槽:
左邊:蘋果2015年:我們不讓 FBI 查看死掉的恐怖分子的手機,只為保護你的隱私。
右邊:蘋果2021年:我們會用官方黑名單檢測你的相片冊和 iCloud 照片,除了報警之外,還會告訴你家長……
不管怎樣,蘋果將會在新版操作系統裡「偷看」你的照片這件事,算是坐實了。
至於什麼”What happens on your iPhone stays on your iPhone”,只是少數使用者一廂情願的假像了……
需要明確的是,蘋果並不是第一家、唯一一家在做類似事情的公司。 包括谷歌(從2008年開始)、微軟(2009年)、Facebook(2011年)和 Twitter(2013年)等公司,都已經在用哈希演算法等相關技術,對兒童色情虐待內容進行預防、偵測和打擊了。
知名互聯網使用者權益機構「電子前線基金會」(EFF) 在2019年曾經撰文指出:這種號稱專為打擊兒童色情內容而設計的所謂「使用者端側掃描工具」,是一個偽命題。
1)從技術上來講,這類工具無法將其檢測能力限制在兒童色情這一類內容上。
具體來說,這類檢測技術核心原理都是對圖片提取哈希值,然後和一個”官方”的資料庫進行比對。
但是目前機器學習領域已經有了先進的生成對抗網路技術,可以對兩個不同的檔,比如兩張完全不同的照片,實現「哈希碰撞」(也即這兩張完全不同的照片擁有相同的哈希值):
圖示:右邊一列的公司logo和中間一列用演算法生成的”人臉”圖片,實現了哈希碰撞。 圖片來源:Nick Locascio
任何擁有官方資料庫操作許可權的人,都可以自己添加新的哈希值條目到資料庫,從而擴大這個圖片檢測系統,所檢測和審查的物件範圍。
EFF指出,在這樣的場景下,「由於資料庫只包含哈希值,而兒童色情圖片的哈希值和其它圖片的哈希值(可能)沒有區別,那麼掃描兒童色情內容的系統,就無法從技術上只針對兒童色情內容。 ”
2)EFF 還指出,這類所謂的端側掃描工具,實際上打破了端到端加密的承諾。
端到端加密的普遍定義是:在一個通訊系統中,只有內容的發送端和接收端可以看到所發送的內容,其他任何人,包括其他使用者,以及通訊系統的運營者(蘋果)都無法看到,也沒有能力對通過加密方式傳送的資訊進行解密。
“如果一個系統有直接、有效解密很大一部分資訊的能力,它就不再是一個端到端加密的系統了,”EFF 指出。
3)前面提到,蘋果的這個檢測系統,一旦偵測到可能的兒童色情內容,還會引入真人進行二次檢驗。 這就進一步擴大了用戶隱私洩露的風險。
目前蘋果沒有透露究竟誰有許可權查看這些照片,是蘋果自己的員工還是外包機構——希望不是後者,畢竟之前蘋果的外包維修商 Pegatron 就出過惡意洩露用戶隱私照片的嚴重事故。
4)這樣的檢測系統,其實很容易通過簡單的方法逾越。
那些傳播兒童色情內容的犯罪嫌疑人,可以更換其它通訊軟體,抑或對圖片進行簡單的修改(比如加上帶有微弱遮蓋效果的字幕),就可以讓一張圖片的哈希值”面目全非”。
圖片來源:Jens Segers
綜合考慮到前面所有提到的關於這個系統的弊端,得出的結論是:它打開的隱私缺口太大,制約兒童色情內容傳播的實效卻無法保證。 說好聽,事倍功半;說難聽點,反而會弄巧成拙。
你怎麼看蘋果這次「偷看使用者照片」的反兒童色情內容傳播系統? 你覺得它會起到多大的説明? 你會擔心它對端到端加密和用戶隱私帶來的負面效應嗎? 歡迎在留言中分享你的看法。
文/杜晨 編輯/Lianzi
來源/(ID:guixingren123)