蘋果掃描使用者圖片:正義的特例,還是魔盒的開啟?
這是出於正義的特例,還是潘朵拉魔盒的開啟? 雖然事情已經宣佈了半個月,但就像是一石激起千層浪,引發的爭議與猜測卻遲遲無法平息。 而真正的後續影響,可能會在未來逐漸顯現。
新浪科技 鄭峻發自美國矽谷
高舉保護隱私大旗
“iPhone裡發生的,就留在iPhone裡”。 還記得這張覆蓋整座大樓的巨幅廣告嗎? 在2019年的拉斯維加斯CES展會上,沒有參展的蘋果給自己打了最好的廣告。 過去幾年時間,蘋果一直都在科技行業高舉保護用戶隱私的大旗,把這當成自己最大產品的賣點之一,打出了”iPhone是專為保護使用者隱私設計”的口號。
不僅於此,蘋果還將抨擊矛頭對準了那些靠使用者大數據盈利的互聯網公司。 庫克多次公開點名批評Facebook等互聯網公司出賣使用者隱私謀利,強調蘋果絕不會碰用戶數據,甚至在今年通過iOS系統更新,讓使用者自己決定是否允許數據追蹤,給Facebook等互聯網公司的定位廣告模式帶來了重大衝擊。
為了確保用戶數據安全,蘋果在過去幾年時間還擋住了來自美國政府的壓力,堅決拒絕了美國政府以反恐為名在iPhone中設置數據讀取後門的要求。 此外,2016年和2020年,蘋果至少兩次公開拒絕美國政府解鎖恐怖分子iPhone要求,甚至與政府在法庭爭鋒相對進行訴訟。
這兩起事件的背景分別是加州聖伯納迪諾槍擊案和佛羅里達海軍基地槍擊案,槍手背後都有伊斯蘭極端宗教勢力的滲透,聯邦調查局希望從手機通訊記錄中調查恐怖分子的作案動機與聯絡機構。 由於遭到蘋果的堅決抵制,最後美國政府尋求第三方破解公司的説明,從恐怖分子手機上獲取了數據。
然而,這樣無條件保護使用者隱私的蘋果,竟然會搬起石頭砸自己的腳,公開宣佈要掃描用戶檔,而且還是存在iPhone本地的照片。 即便出發點是維護正義,這件事情也非常不符合蘋果的作風,更引發了關於用戶隱私的諸多熱議。 這究竟是怎麼一回事?
本地掃描使用者照片
本月早些時候,蘋果公開宣佈要在晚些時候發佈的iOS和iPadOS系統升級里推出新功能,在本地掃描用戶設備是否存有兒童性侵相關的照片,與美國官方的兒童性剝削資料庫圖片進行比對。 如果發現存在大量違法圖片,蘋果會通知執法人員。
這項功能是蘋果的打擊兒童性侵整體專案的一部分。 此外,iMessage簡訊服務也會加入家長控制功能,如果12歲或以下的未成年人通過iMessage發送或流覽裸體圖片,他們的父母會收到系統報警。
即便阻止剝削兒童和販賣人口是在維護正義,但掃描用戶本地圖片這一功能還是過於敏感,引發了諸多爭議和憂慮。 新聞發佈十天之後,面臨著外界諸多猜測和批評,蘋果負責iOS的高級副總裁費德里希(Craig Federighi)最終還是不得不出來再次澄清。
費德里希具體解釋這一功能:當iPad和iPhone使用者將本地圖片上傳到iCloud雲端的時候,蘋果會在本地設備中對這些圖片進行掃描,與美國國家失蹤與受剝削兒童中心(NCMEC)的數據圖進行比對。 如果發現大量圖片相吻合,即意味著使用者持有失蹤與性剝削兒童的圖片,蘋果會發送給審核部門,再次確認后通知執法部門,而使用者本身並不會獲得提醒。 不過蘋果隨後也會封鎖該使用者的iCloud帳號,相當於變相告知使用者。
但值得注意的是,系統只有在比對發現大量違規圖片時才會觸發警示,單張圖片出現問題並不會,這顯然是為了避免出現識別錯誤。 而且,蘋果會聘請第三方的審查員來確認系統識別出來的內容是否違法,由他們來通知警方。 不過,蘋果並沒有透露這個識別違規內容的數量閾值,外界並不知道比對發現多少違規圖片才會自動觸發。
此前蘋果曾經表示,這項掃描功能只會先在美國推出,在其他國家會在未來視情況推出。 費德里希進一步解釋,這個CSAM資料庫是包括在iOS和iPadOS的系統升級中,只是在美國市場啟動;”我們在中國、歐洲和美國的設備都使用同樣的軟體,包括同樣的資料庫。 ”
兒童色情不屬隱私
最注重用戶隱私的蘋果為什麼要公開宣布掃描用戶本地照片? 使用者存在iPhone和iPad的照片,是否完全屬於用戶隱私? 互聯網公司是否要為此類違法內容負責?
美國1996年《聯邦通信規範法》230條款規定,”任何互動式計算機服務的供應商或者使用者不應被視為另一信息內容供應商提供的任何資訊的發行者和發言人。 “這一條款又被視為互聯網公司的免責保護傘。
這個條款實際上包括兩個意思:互聯網公司無須為平臺上的第三方資訊負責,使用者在平臺發佈的內容與平台無關;互聯網公司無須為他們善意刪除平臺內容的行為負責,他們有權根據審核標準刪除使用者發佈的內容。
但是這把保護傘也並不是沒有邊界的。 2018年美國國會通過《打擊性販賣行為法》,明確規定互聯網公司有責任舉報和移除網路平臺上的此類違法內容,否則將會面臨相關法律的處罰;其中明確包括了兒童色情內容。 這是230免責條款的第一個豁口。
根據這一法律,如果用戶開通了iCloud圖片上傳,存在本地設備的圖片連上了互聯網,那麼蘋果作為互聯網平臺,就有責任和權力舉報和處理此類違法內容。 而大多數iPhone使用者,iCloud上傳功能是預設開啟的。
實際上,美國各大互聯網企業早就掃描用戶圖片庫,識別兒童色情相關內容。 Facebook、Twitter、Reddit都會對使用者存在自己平臺的內容進行比對掃描,無論是否公開發佈。 和蘋果一樣,他們也是通過NCMEC的資料庫進行比對,發現違規之後進行報警。
更為重要的是,兒童色情內容並不屬於美國憲法第一修正案關於言論自由權利的保護範圍。 使用者持有兒童色情圖片本就是違法行為,無論傳播與否。 美國《打擊兒童性剝削法》和《打擊販賣兒童法》都明確規定,生成、分發、接受和持有此類內容都屬於聯邦重罪,會面臨著至少5年,至多30年監禁的嚴厲懲罰。
在歐洲,這方面的互聯網監管措施甚至更早。 早在2013年,英國就已經制定監管細則,要求從互聯網服務提供者(ISP)這裡遮罩色情內容,用戶必須自己手動關閉過濾內容,才能訪問色情網站。 同一時期,英國政府還要求谷歌微軟等搜索服務商移除兒童色情搜尋結果。 不過,兒童色情圖片原本就很少出現在搜尋結果中。
不會掃描其他內容
即便美國互聯網企業早就開始打擊兒童色情內容,但蘋果宣布掃描使用者圖片依然引發了諸多質疑。 蘋果向美國媒體確認,此前也曾經對iCloud Mail內容進行此類內容的掃描,但卻從未掃描過使用者的iCloud Photos圖片數據。 網路資訊安全專家泰特(Matt Tait)指出,兒童色情圖片本來就是美國執法部門打擊的高壓線,執法部門很容易獲得傳票,要求蘋果掃描使用者iCloud圖片庫,蘋果也會願意配合這一要求。
蘋果所做的,和其他互聯網公司有什麼不同? 其他互聯網公司是掃描用戶上傳在雲端伺服器的內容,而此次蘋果則是在用戶本地進行掃描(前提是開啟iCloud同步)。 為什麼蘋果會選擇在本地進行掃描?
蘋果高級副總裁費德里希強調,這項掃描機制將在設備本地進行,而不是聯網進行比對,目前只面向美國市場。 “如果有人在雲端掃描圖片,那誰知道會掃描什麼內容(意思是可能會失控)。 在我們這項功能裡面,NCMEC的資料庫是傳輸到本地的。 ”
在iOS和iPad新版系統中,將自帶一個叫NeuralHash的工具,對圖片分解成諸多碎片進行標註與識別,對比NCMEC的數百萬份碎片數據進行比對。 發現吻合的違規內容之後,在iOS或iPadOS之中生成一個包括違規內容的”保險庫檔”,在此類違規內容積累到一定閾值之後才會發送給蘋果的審核人員。
蘋果隱私主管紐恩施萬德(Erik Neuenschwander)特別對此強調,如果使用者關閉了iCloud圖片同步功能,那麼NeuralHash工具就無法運行,蘋果不會,也無法進行兒童色情圖片掃描。
即便蘋果已經盡可能公開透明地宣佈這項掃描功能,依然引發了一些互聯網隱私保護機構的不滿和擔憂。 這畢竟是蘋果第一次對使用者在本地的檔進行掃描和監控,如果這次是打擊兒童色情,那麼下次又會是什麼,反恐?
蘋果高級副總裁費德里希再次強調,除了非法的CSAM兒童色情內容,蘋果不會擴大目前的數據掃描範圍。 他強調,「如果某國政府向我們提出CSAM內容之外的數據掃描要求,我們會直接拒絕。 如果你對此沒有信心,不相信蘋果會敢於拒絕,那麼我們還設置了多層的保護機制,我們希望讓使用者安心,在掃描什麼文件的問題上,你不需要相信任何公司,或是任何國家。 ”
可能開啟後門魔盒
蘋果的確公開拒絕過美國政府的反恐後門和解鎖手機的要求,也不害怕和美國政府打官司抵制行政命令,但是如果面臨著司法部門的合法傳票和命令,蘋果也只能接受和服從,這是他們所無力抗拒的。
就在兩個月前,蘋果承認他們曾經在2018年2月按照特朗普政府司法部的要求,提供了一系列使用者的身份識別碼,用於確認一些使用者的電子郵件和電話號碼。 當時處在「通俄門」調查中的特朗普政府正在秘密調查是誰向民主黨眾議員洩露了政府機密。
蘋果之所以願意配合特朗普政府調查,是因為收到了聯邦大陪審團的傳票,而且這份傳票還附帶保密要求。 這意味著蘋果不僅需要遵守命令要向政府交出數據,還必須就此事守口如瓶,直到今年5月保密期限結束后,蘋果才通知相關使用者。 除蘋果之外,微軟也收到了此類附帶保密要求的傳票。
美國電子前線基金會(Electronic Frontier Foundation)在向新浪科技發送的聲明中明確表示,蘋果以打擊兒童色情為由的掃描使用者文件行為違反了蘋果此前關於保密用戶隱私和加密通信的承諾,創造了一個很容易被政府利用進行監控和審核的技術架構。 這一機制會讓蘋果未來無力抵制政府的更多要求。
電子前線基金會談到,美國政府從不避諱要求獲得使用者加密通信,通過搜查令和法庭命令等手段施壓科技公司幫助他們獲得數據。 雖然蘋果一直承諾會抵制政府(設立後門)要求降低使用者隱私保護的命令,但在推出這一掃描機制之後,蘋果不得不繼續抵制政府擴大掃描範圍的壓力。
這樣的處境並不只是在美國。 2018年「五眼聯盟」(美國、英國、加拿大、紐西蘭和澳大利亞)曾經明確表示,如果科技公司拒絕提供加密數據,他們會通過技術、執法、立法以及其他手段實現合法獲取數據。 隨後英國通過《調查許可權法》(IPA),要求電信運營商通過技術手段,在政府發佈數據獲取命令時提供協助。
儘管這次蘋果在iOS和iPadOS系統設置掃描機制,是為了打擊兒童色情和性剝削的正義目的,但也給自己預埋了一個危險的”地雷”。 2016年蘋果在拒絕美國司法部解鎖聖伯納迪納恐怖分子iPhone時,曾經公開表示自己沒有在iOS設置任何後門。 但這一次呢? “如果你設置了(後門),他們就會跟進。 蘋果此舉是給全球各國加強監控審核開啟了後門。 「電子前線基金會這樣總結。
“iPhone裡發生的,就留在iPhone里”,蘋果的這一標誌性承諾現在需要加上一個豁免條款——如果不涉及兒童色情的話,未來是否還有更多的例外?