這些歐美國家為什麼限制使用人臉識別技術?
過去數年中,人臉識別技術是發展最快的新技術之一。助推人臉識別技術發展的主要是機器學習、雲計算等人工智能相關技術的突飛猛進,以及越來越清晰和便宜的攝像頭。人臉識別技術已經用在了很多人的手機上,刷臉購物、刷臉登機等等都不是什麼新鮮事。
文/方可成
在中國,很多時候人臉識別技術的發展都被認為是令人鼓舞的技術進步,它的廣泛應用也能引發很多人的自豪和稱讚。然而,在歐美國家,人臉識別技術正遭遇著越來越多的質疑和限制。
今年5月,舊金山市通過決議,禁止警察等公權力機構使用人臉識別技術。這項決議很有代表意義,因為舊金山所在的矽谷灣區一直是數字科技創新的中心。隨後,和舊金山同屬加州的奧克蘭市,以及馬薩諸塞州的薩默維爾市(Somerville)也出台了人臉識別禁令。在全國層面,兩位參議員提出了關於限制人臉識別技術應用的法案,這項法案目前獲得了共和黨和民主黨兩黨議員的支持。眾議院也有議員正在準備相關法案。
8月底,英國《金融時報》報導(https://www.ft.com/content/90ce2dce-c413-11e9-a8e9-296ca66511c9):歐盟正在考慮對人工智能技術進行嚴格限制。在正在籌劃的監管方案中,如果公權力機構或者商業公司想要使用人工智能技術,那麼所有被牽涉到的歐盟公民就有權知曉:他(她)的人臉數據何時被使用了。
為何這些歐美國家和城市對這項新技術有著如此強烈的警惕?本期會員通訊,我們就來聊聊這個問題。
限制的對象:
不是個人,而是公權力和商業公司
首先要明確的是,這些針對人臉識別技術的禁令,不是禁止個人使用這項技術,更不是禁止這項技術的發展。也就是說,你用自己的臉解鎖自己的iPhone,這完全不會受到限制。真正受到限制的,是公權力機構(政府、警察等)以及商業公司對人臉識別技術的應用。
這中間的一個核心邏輯是:消費者自己使用人臉識別技術的時候,是自願使用的,並且是知道自己的臉正在被識別的。但是,如果是公權力機構在使用的話,比如警察使用這項技術在公共場所進行監控,那麼公眾很可能並不知道自己的臉正在被拍攝、掃描、分析、比對、納入數據庫,即便知道也不可能把人臉識別系統關掉。這種差別,使得歐美國家普遍認為:對公權力使用人臉識別技術要設一個高得多的門檻。
當然,公權力機構使用人臉識別技術可以帶來不少好處,比如提高破案率、降低犯罪率等。一個實際的案例是:去年6月,馬里蘭州的《The Capital Gazette》報社曾經發生大規模槍擊案,造成5人死亡。警方在破案的時候,利用了人臉識別技術來鎖定犯罪嫌疑人。
但是,這些對於公共安全的好處,不足以抵消人們對這項技術被濫用的擔憂。美國公民自由聯盟(the American Civil Liberties Union,簡稱ACLU)是在倡導限制公權力機關使用這項技術方面最活躍的一家NGO。該機構的律師Matt Cagle說,“這項技術讓政府獲得了前所未有的追踪人們日常生活的權力。這樣的權力過大,和健康的民主制度並不相容。”他認為,舊金山的禁令能夠起到的作用,就是防止這項危險的技術被用來對付公眾。(https://www.nytimes.com/2019/05/14/us/facial-recognition-ban-san-francisco.html)
Cagle律師還強調,現在我們根本不知道政府和企業在多大範圍內使用著這項新技術,因為它們一直都對此保密,而公眾則經常被蒙在鼓裡,這是非常危險的狀況。
簡單而言,這些歐美國家限制公權力機構使用人臉識別技術,就是為了防止一個壓迫性的監控國家(surveillance state)的產生。這樣的國家也常被稱為“奧威爾式”(Orwellian)的國家——這種說法來自奧威爾的經典小說《1984》。在小說中,老大哥通過電幕無時無刻不在監視者人們的生活,支撐起一種恐怖的極權統治。
為了避免這種可怕的狀況成為現實,這些國家願意在一定程度上做出妥協,不用人臉識別去追求破案率的提高。
與公權力機構相比,商業公司看起來並沒有建立起“奧威爾式”統治的能力,為什麼也要受到限制呢?
這主要是因為,如果不對商業公司作出限制,那麼它們可能出於商業利益的追求,大規模地收集人臉數據,並且可能會在不經過消費者本人許可的情況下將這些數據出售、濫用。
很多人認為,人臉數據屬於個人信息當中最為敏感的生物識別數據(biometric data),被濫用造成的後果是最為嚴重的,應該得到最高限度的保護。
人臉識別技術的誤差和偏見
這些歐美國家和城市對人臉識別技術做出限制,還有一個非常重要的原因:技術本身依然不成熟,有很多誤差,並且會造成對不同人群的歧視。
今年4月,一名18歲的美國大學生起訴了蘋果公司,指責蘋果在店內使用人臉識別技術,並且這項技術錯誤地將他識別成了小偷,導致他莫名其妙收到傳票,後來還被警察逮捕,給他造成了嚴重的精神損失。這位大學生要求蘋果公司賠償10億美元。
蘋果公司否認了這些指控。不論該案的判決如何,我們可以明確知道的是:目前的人臉識別技術,確實可能造成“冤假錯案”。
今年1月,ACLU測試了亞馬遜公司開發的人臉識別系統Rekognition,讓這個系統來識別美國議員的照片。結果,系統將多達28名議員識別成了罪犯。
尤其值得關注的是,在歐美國家,人臉識別技術對白人的識別準確率要遠遠高於對有色人種(尤其是黑人)的識別準確率,對男性的識別準確率要高於對女性的識別準確率。(https://www.theverge.com/2019/1/25/18197137/amazon-rekognition-facial-recognition-bias-race-gender)
這樣的結果並不意外。在開發人臉識別技術的時候,研究者們用來訓練機器的照片大多是白人男性,因此機器辨認白人男性的能力更強。相比之下,由於缺乏辨認黑人、女性的經驗,機器也就更容易在識別少數族裔和女性的時候犯錯。這種偏見的產生,是由於社會上既有的不平等,而它又會進一步加強不平等的狀況,因為一旦警察大規模使用此技術,弱勢群體陷入冤假錯案的機率就會更高。
這種寫在技術裡面的偏見,常常容易被人們忽視,因為人們容易接受這樣的觀點:人是有感情的、容易產生偏見的,但機器是沒有感情的,所以應該是客觀公正的。然而,正如此前的新聞實驗室會員通訊反复提到的,技術是由人在特定的社會條件下開發的,技術本身也會帶有深刻的偏見。如果我們將一切都交給看似公正的機器,以為這樣就萬事大吉了,那麼可能導致的結果便是社會不平等的進一步加劇、公正的進一步喪失。
技術是由人在特定的社會條件下開發的,技術本身也會帶有深刻的偏見。
基於倫理的人工智能發展
正是因為以上兩個方面的原因,不少歐美國家和城市都對人臉識別技術的應用做出了嚴格的限制。
舊金山在通過限制法令的同時,還通過了另一項涵蓋內容更廣的規定。根據這項新規定,舊金山市的公權力部門要想購買監控技術,就必須提前申請獲得批准。這些監控技術包括自動的車牌掃描儀、帶有攝像頭的無人機等等。
科技媒體Recode的一篇文章(https://www.vox.com/recode/2019/5/14/18623897/san-francisco-facial-recognition-ban-explained)指出:美國對於數字隱私的立法速度是緩慢的,有一部分美國人看上去願意為了便利而犧牲隱私(而且基本上都是向企業提供個人數據,而非政府);但是,人臉識別這項技術很可能戳中了美國文化的敏感點,那就是對個人自由權利的看重,對政府濫用權力的恐懼。因此,美國在針對人臉識別的立法方面要快得多。
而對於歐盟來說,對人臉識別技術的限制,是一項更為宏大的監管計劃的一部分。這一計劃,可以稱為“基於倫理的人工智能法規”(ethically based laws governing AI)。此前的會員通訊也曾提到,歐盟在數字技術的發展方面不算領先,但在針對數字技術的監管方面走在世界前列。
當然,歐盟發展監管的目的並不是打壓新技術,而是希望新技術能夠盡可能造福社會,而不是帶來副作用。在歐盟的立法者看來,對人工智能技術作出限制,其實可以使得公眾對這項技術的信任度和接受度提高,這樣一來,最終實際上是有利於這項技術的健康發展和妥善應用。
根據《金融時報》的報導,歐盟希望通過這方面的立法,樹立一種“人工智能監管的世界標準”,這種標準可以通過清晰、可預測、統一的原則,