無節制的“刷臉” 叩問技術治理邊界
近日去某地調研時,當地的“智慧社區”建設引發了筆者的深刻思考。據管理者介紹,當地在大力推廣使用人臉識別門禁系統,但是遭到了部分居民的反對。讓筆者感慨之處在於兩點,一是從居民的角度來看,反對者的關注點,主要是對採集信息時需要上傳房產證存在擔憂,但對於“刷臉”所帶來的個人信息風險卻茫然不知。
文/陳千凌
編輯/朱弢
二是從管理者角度而言,竟然在“互聯網+政務”服務網絡尚未下沉到社區、居民辦事還需要來回跑腿的情況下,卻將“人臉識別”當作智慧社區的頭號工程。對技術優先級誤讀的背後,其實是對技術治理目標的認知缺乏——技術的應用是為了提升“治理”水平,是為了惠民,而不是僅僅是為了“管理”上的方便。
實際上,“刷臉進小區”爭議已在北京、廣東、浙江、江蘇等地一再發生,個別地方甚至強制“刷臉進小區”,並將實體門禁卡作廢,部分不願提交個人信息的業主連進出小區都成問題。
隨著人臉識別技術對人們生產生活的全方位滲透,我們亟需對“技術熱”進行“冷思考”:真的有必要使用這麼多“刷臉”技術嗎?技術所帶來的“人造風險”,是否已經超越了“自然風險”,本身成為了“風險社會”的主要內容?如何解決作為數據貢獻者的公眾得到的收益遠遠小於與數據掌控者,但卻承擔了絕大部分風險的矛盾?
技術已成為“社會風險”的一部分?
從社會學角度來看,人臉識別是數據時代的身份認證標識,延續人臉作為通用標識符的社會功能,通過人臉特徵向量化、數據化的方式開啟一個通向賽博空間的賬戶,並與個人權利行使相掛鉤,其本質代表了一種身份法律制度。
相比傳統的身份認證系統,人臉識別具有種種優勢,包括精準刻畫、無需接觸、不易被盜、高效迅速,不用攜帶小區門禁卡或者身份證,即可“一臉通行”各類場所,在公共治理、商務交易、安全防控、金融財務等方面得到了廣泛應用。
然而,隨時隨地的便利,也意味著無處不在的控制。隱藏在任何一個角落的高清攝像頭都可以毫不費力地抓拍到他人清晰的臉部照片,然後即時上傳到人臉信息數據庫中進行比對,從而快速識別出相關主體的身份。在此基礎上,如果再與其他數據庫打通,便可以進一步追踪到個體的活動軌跡、人際關係、財產狀況等隱私信息。這一系列迅速而復雜的動作,完全可以在你毫不知情的情況下發生。
可以說,人臉識別相當於一個接口,可以將各個點面的數據打通,與其他智能技術結合運用,將賦予數據控制者“千里眼”“順風耳”的能力,使其可以穿透信息迷霧,實現對個體全方位、全天候的精準洞察與追踪。
此前據央視3·15晚會曝光,科勒、寶馬等20多家知名企業在門店內安裝人臉識別攝像頭,在未經消費者同意的情況下,自動抓取顧客人臉信息,標註到店、男女、年齡等信息,精確掌握包括性別、年齡、職業、心情狀態等特徵數據,以及以前到店過幾次、消費過多少、行踪軌跡是什麼等行為數據。進而通過營銷分析,不僅能精準刻畫顧客的偏好,甚至能夠預測出消費行為,從而進行精準營銷。
在此情況下,活生生的人卻變成了一行行數據和代碼,不僅個人隱私無所遁形,一切行為信息都被精確“記錄在案”;同時個人也淪為被識別、被刻畫的客體,個人價值交由機器評級、每一分消費者剩餘被精準榨乾。
可以這麼說,人臉被精準識別後,得到的是數據,人的主體性卻得到貶損。
除了利益消減之外,社會公眾更將面臨風險的加劇,這已不僅僅是個人隱私與公共安全的平衡問題了。因為社會公眾作為“公共”的組成部分,其人身財產安全將會因為技術濫用而面臨巨大的威脅,個人隱私權與公共安全將遭到雙重侵害。
正如清華大學法學院教授勞東燕所言,“互聯網的基本邏輯是,安全問題的解決並不取決於安保水平與能力最高的部門或企業,而是取決於其中水平最低與能力最差的。允許各式各樣的組織與單位隨意收集民眾的人臉數據,就等於埋下一個個地雷,數據被洩露與濫用的可能性會急劇地提升,這勢必嚴重危及公眾的人身與財產安全。”
小區、商業機構在收集了大量人臉信息之後,是否具備起足夠的技術能力來防止數據庫不被黑客攻破從而被竊取?又如何保證這些機構(或者機構人員)不會為了獲利,將其收集來的人臉信息私下里賣給他人?
假如小區所採集的居民信息被加以分析,那麼就可以知道某個居民、某個時間段是否在家。一旦相關信息被不法分子獲得,那麼居民的財產、人身安全都將面臨巨大威脅。公共安全不僅不會得到有效改善,相反風險可能會大大增加。
特別值得注意的是,與姓名、電話號碼、銀行卡密碼等普通的個人信息不同,每個人的人臉都是獨一無二且不可更改的,一次洩露或將貽害終生。畢竟手機號碼若是洩露了,實在不行還可以換一個號碼,但人臉信息發生洩露,難道要去“換臉”嗎?
任何一項新技術、新舉措的使用,都要對其所帶來的風險與收益進行衡量。技術發展到今天,我們不僅要問,技術的使用是否已經過度?技術所帶來的“人造風險”,是否已經超越了“自然風險”,成為了“社會風險”的主要內容?
更進一步是對社會公平、社會倫理的拷問,數據掌控者攫取了大部分的收益,但作為數據貢獻者、同時承擔絕大多數風險的公眾得到的便利與人們的付出是否匹配。
再有,目前的個人信息收集以“知情同意”為基礎,如果作為數據主體的個人表示同意,那麼接下來你的數據收集、使用、處理就交給了各個機構,這幾乎等於完全脫離了個人的控制,但同時卻要由個人來承擔風險。理論上說,個人完全可以表示不同意自己的信息被收集,但在現實中卻很難做到——要使用各種App就不得不給予同意,或者在不知風險的情況下表示同意,更有如人臉識別這樣個人完全不知道自己的信息被採集的情況。這樣一來,以知情同意為基礎的法律保護框架就顯得疲軟乏力。
在這種機制之下,數據掌控者對於社會的掌控日趨完美,數據監控全面高效、商業挖掘深度進行,然而他們在從中獲益的同時,卻將風險轉嫁給公眾。而當個體的權利遭到侵害之後,卻很難找到為此承擔法律或道德責任的主體,即使找到的主體,也很難維權。
技術運用的邊界究竟在哪?
當然,人臉識別只是一個切口,其背後反映的是整個社會數字治理、技術治理的問題。近年來,無論是智慧城市、數字政府,還是智慧社區、智慧網格,各個治理主體紛紛將智能技術作為驅動治理能力現代化的重要抓手。市場上不計其數的各類商業機構,也爭先恐後的利用技術手段,挖掘商業機會和利潤。
但在看到技術產生巨大效益的同時,也必須對其潛在風險進行及時預判,當前亟待思考的一個問題是,技術的使用是否已經超限?
一方面,技術的風險溢出是否在可控範圍之內?雖然監管落後於創新是客觀規律,但如今新技術的發展就像是火箭,但對於其規製手段卻像是馬車。由於法規與管理的約束不足,相關開發和應用都往往在信息保護、身份認證等技術上明顯缺少主動性與責任感。此外,公眾的數字素養也未能同步提高,缺乏對新技術風險的評估能力以及自我保護能力,這都會進一步導致技術的風險彌散。
另一方面,技術的使用本身就應該存在一定限度。技術遵循的是“事本”邏輯,其背後是理性主義範式的支撐,並不能百分之百適用具有靈活性、非規則、模糊性的複雜社會。正因此,必須明確“人本”才是主體,“事本”是為了“人本”而服務的。
過度依賴技術,非但不會促進治理效率提升,反而會對治理價值和製度基礎構成反噬,社會的管理者將逐漸迷失在數據和算法的海洋中,凡事均習慣性地向技術“尋求幫助”,這不僅會導致人文關懷的缺失,也會使得治理和商業行為陷入冷冰冰的“技術窠臼”,還會大大影響人格的自主性,踏入過度依賴技術的“怪圈”。同時,這也可能導致過度仰賴技術創新,反而忽視了製度創新。
具體到人臉識別技術而言,一是要加快明確人臉識別的適用範圍,拋開安防、大型活動等場景,普通園區、企業、樓盤、校園等場所,是否真的必須應用人臉識別?即使真的要用,也應當確定非“強制性使用”,必須提出“替代性方案”,比如允許不同意使用人臉識別的人們通過替代性方式(比如使用門禁卡、身份證)通行。二是要建立健全配套制度,對人臉識別數據採集、存儲、使用,以及軟硬件認證等做出明確規定,並在立法、執法、監管、公眾教育等層面建立多維度的立體防護體系。
放大至數字治理、技術治理的整體視野,亟需揚棄技術決定論,在廣泛運用智能技術嵌入社會的同時,加快構建技術運用所需的底層環境,堅持工具理性與價值理性的統一:
一是要樹立牢固的思想根基——技術運用應著眼於人民福利的切實提升,而非為了“技術”而運用“技術”;二是要加快建立完善的製度基礎——治理技術的創新與製度體系的創新必須雙輪驅動;三是要明確技術運用的底線——圍繞技術嵌入社會治理的場域、深度、廣度做出相關規定,並建立起響應的保障機制。
總而言之,無論“數字”政府,還是“智慧”城市、“智慧”社區,亦或是“智慧”企業,都需要明確的是,前兩字都只是手段,後兩字才是真正的目的。人類社會需要回歸人的自身發展,“技術治理”需要回歸“治理”本身、“為人民服務”本身。
作者為互聯網政策研究人士