蘋果曾經是用戶隱私保護狂魔 如今卻成了偷窺狂?
長久以來蘋果公司一直將保護使用者隱私作為公司當中最重要的一件事情,並且我相信,蘋果對於使用者隱私的保護工作是每一位蘋果使用者都有目共睹的。 甚至說蘋果對於用戶隱私的保護稍微有那麼一點過頭了。 還記得在2015年,某個恐怖分子被美國當局擊斃,但是當FBI想要查看恐怖分子手中蘋果手機內容的時候卻遇到了重重困難。
為此FBI找到了蘋果公司,希望能獲得蘋果公司的説明來查看手機當中的內容,但是蘋果公司卻表示,我們不能讓你們(FBI)查看死掉的恐怖分子手機當中的詳細內容,我們要保護每一位用戶的隱私。
並且蘋果也一直把使用者隱私保護作為自己宣傳時的一個重點內容。 在2020年9月份的時候,蘋果甚至還發佈了一個廣告——Over Sharing(過度分享),來向廣大消費者介紹iPhone的隱私保護是多麼的厲害,視頻描述了人們尷尬地與陌生人分享他們的個人資訊,例如信用卡號,登錄詳細資訊和網路瀏覽歷史記錄。 蘋果表示:「有些事情不應該共用。 “”這就是為什麼 iPhone 旨在説明您控制資訊並保護隱私的原因。”
蘋果一再認為用戶隱私是一項「基本人權」,是公司的「核心價值觀」,在2019年CES展的時候,蘋果甚至包下來了一個酒店的巨幅廣告位置,在廣告上寫著「What happens on your iPhone stays on your iPhone」(在你iPhone上面發生的事情只會留在你的iPhone上面), 以此巨幅的廣告表達蘋果公司對用戶隱私的重視。
你看到這裡是不是就會感覺到蘋果對於每一位用戶隱私的重視程度是非常高的,比某些Android手機不知道好到哪裡去了,下載一個簡單的點外賣APP就會向你索要38項用戶許可權,甚至還要識別你的身體活動,看到這裡我一個Android用戶實名羡慕蘋果對於使用者隱私的重視程度了。 但是這樣的重視程度會一直持續下去嗎?
許可權之多,一頁放不下
答案是不會的,就在前幾天蘋果公佈了一項新的技術,這項技術打破了其一直在堅持的所謂的重視用戶隱私。 蘋果於近日發佈了一項全新的用於掃描檢測「兒童性虐內容(Child Sexual Abuse Material)」的端側工具,那什麼是端側掃描呢,意思就是掃描工作將在用戶設備上完成。 為了完成「兒童性虐內容」的檢測,iOS與iPadOS 將搭載一項最新技術,這項技術可以使蘋果檢測在各類蘋果設備上面接收、保存或者發送的照片提取哈希值,然後蘋果會用提取到的哈希值和「全國失蹤和受剝削兒童中心(NCMEC)」和其他兒童安防組織提供的已知兒童性虐圖像的哈希(散列)資料庫進行比對,以此來驗證某些照片或者圖片是不是屬於兒童性虐內容,蘋果表示這個資料庫將被轉為一組不可讀的散列,安全地存儲在使用者的設備里,之後在用戶設備之中進行比對。 並且,當使用者在iMessage 上收到或者發送照片時,系統也會對照片完成監測工作,如果系統認為這張照片屬於露骨性照片時則會模糊處理,iMessage會警告兒童,並再次確認兒童是不是想繼續流覽或者發送露骨性照片。 除此之外,兒童再次預覽或者發送露骨性照片,APP還會自動通知家長。
你看到這裡是不是會覺得,嗯! 這些檢測都是為了孩子的身心健康著想啊,而且檢測工作都是在本地完成的,這跟用戶隱私有什麼關係呢? 上面這些內容看起來還算是正常,不急,我們繼續往下看。 同時在蘋果的介紹中還可以發現,蘋果也會使用類似的演算法對用戶發送到iCloud上面的照片進行檢測,在上傳到伺服器之前,會給檔進行一連串的加密工作。 如果上傳到iCloud照片完成哈希值的比對之後,認為照片存在兒童性虐內容的話,蘋果的伺服器就會對照片進行解密,並且由人工進行查驗。
有專家認為,儘管蘋果提議CSAM方案的初心是好的,且針對此類違法行為的打擊是絕對正義的。 但是這一整套方案繞過了原本旨在加強用戶隱私的端到端加密方案,並且在方案之中還是引入了一個後門,可能會存在嚴重的安全和隱私風險。 雖說最近蘋果相關負責人多次聲明,CSAM方案不會導致其軟硬體留下後門,並且會防止政府過度干預和濫用,但是對於用戶來說只要這項技術實裝,多少都會讓自己不放心。
蘋果將在不遠的將來偷偷的”欣賞”你系統裡面存儲著的照片,並且最近有關於這項新技術的討論越來越多,但是絕大多數的討論都是圍繞著使用者隱私還是不是蘋果最重視的事情。 之前說的什麼”What happens on your iPhone stays on your iPhone”恐怕將會成為廣大蘋果使用者心中最美好的願景。