AI英雄| 揭秘李飛飛離職谷歌前後
根據斯坦福人工智能實驗室官方Twitter消息,李飛飛將離任斯坦福人工智能實驗室負責人,深度學習自然語言處理領軍人、斯坦福教授Chris Manning將接任。而李飛飛將繼續擔任斯坦福視覺與學習實驗室(SVL)負責人,以及新成立的斯坦福以人為本人工智能研究院共同院長。
《連線》近日刊文詳述人工智能界的大牛李飛飛探尋讓人工智能更好地造福人類的征程。眾所周知,人工智能存在一個非常棘手的問題:其創造者的偏見正在被硬生生地編碼到人工智能的未來中,因而帶來不少的隱患,李飛飛打算修復這一問題。
“必須採取行動讓AI可造福人類”
去年6月,李飛飛出席了美國國會一場主題為“人工智能——能力越大責任越大”的聽證會。李飛飛是會上的唯一一名女性,也是會上唯一一個在人工智能領域取得過突破性成就的人。作為打造出幫助計算機識別圖像的ImageNet的研究員,她是屈指可數的推動人工智能在近期取得非凡進展的科學家之一。
去年6月的時候,李飛飛還是谷歌云的首席人工智能科學家,離開了她在斯坦福大學人工智能實驗室主任的崗位。但她出現在委員會面前,還因為她的另一重身份:一家專注於招募婦女和有色人種成為人工智能的建設者的非營利組織的聯合創始人。
那天議員徵詢她的專業意見不足為奇。令人驚訝的是她的演講內容:她如此熱愛的領域所引發的種種嚴重威脅。
技術一經發明,可在短時間內引發翻天覆地的影響。在像ImageNet這樣的人工智能工具的幫助下,電腦可以學會處理特定的任務,並取得遠遠超過人類的辦事效率。隨著這項技術變得越來越成熟,它被用來過濾、排序和分析數據,以及就全球和社會的重要問題作出決策。雖然這些工具在某種程度上已經存在了60年以上,但在過去的十年裡,我們已經開始使用它們來執行會改變人類生活軌蹟的任務:今時今日,人工智能可以幫助確定各種各樣的問題,比如為病患提供什麼樣的治療,誰有資格辦理人壽保險,給犯罪者定多長的刑期,為哪些求職者提供面試機會。
當然,這些力量也會帶來危險。亞馬遜不得不棄用其學會過濾掉女性的簡歷的AI招聘軟件。谷歌2015年的醜聞還歷歷在目,當時其照片識別軟件將黑人誤標為大猩猩。微軟由人工智能驅動的聊天機器人也曾發錶帶有種族歧視的推文。但這些問題可以解釋清楚,因而也能夠糾正。李飛飛認為,在不久的將來,我們將達到一個無法採取糾偏措施的時刻,這是因為人工智能這項技術被採用得如此之快,影響如此深遠和廣泛。
李飛飛之所以到去年6月這場聽證會作證,是因為她堅定認為她所在的領域需要進行重新校準。多數是男性的科技行業大牛們一直在警告,未來由人工智能驅動的技術會給人類帶來存亡威脅。但李飛飛認為那些擔憂被嚴重放大了。她專注於不那麼誇張、但更為重要的問題:人工智能將會如何影響人們工作和生活的方式。它必將改變人類的體驗,但不一定是往好的方向改變。“我們有時間,”李飛飛說道,“但我們必須現在就採取行動。”她認為,如果我們在AI的設計方式以及設計者上做出根本性的變化,那麼該項技術就會成為一股可造福人類的變革性力量。否則的話,該項技術會變得十分缺乏人性。
在聽證會上,李飛飛是最後一個發言。“人工智能沒有什麼是人工的。它受人啟發,它由人創造出來,最重要的是,它對人產生影響。它是一個強大的工具,我們才剛剛開始理解它,我們有很大的責任去理解它。”
斯坦福大學人工智能實驗室的Segway平台移動機器人JackRabbot 1
ImageNet 的誕生
李飛飛在成都長大,她是一個孤獨而聰明的孩子,熱愛閱讀。她的家庭總是有不同尋常之舉:她家並不喜歡寵物,而她的父親卻給她買來了一隻小狗。她的母親出生於一個知識分子家庭,鼓勵她讀《簡愛》。在李飛飛12歲的時候,父親移居到新澤西帕西帕尼,她和母親一度好幾年沒見過他。家庭重聚那一年,她16歲。在兩年內,李飛飛學會了足夠多的英語來充當翻譯,在生活中為只會最基本的英語的父母帶來便利。
她在學校的表現也相當優異。李飛飛的一位高中數學老師鮑勃·薩貝拉(Bob Sabella)在學習和適應美國的新生活上給她帶來了很大的幫助。帕西波尼高中沒有高等微積分課,於是薩貝拉設計了一個臨時的課程,在午休期間教導李飛飛。薩貝拉和他的妻子把她當家人般來看待,和她一起到迪士尼遊玩,並藉了2萬美元給她開乾洗店,供她的父母經營。1995年,她獲得了到普林斯頓大學學習的獎學金。在那裡,她幾乎每個週末都會回家到她家的干洗店幫忙。
在大學裡,李飛飛興趣廣泛。她主修物理學,同時也攻讀計算機科學和工程。2000年,她開始在帕薩迪納市的加州理工學院攻讀博士學位,鑽研神經科學和計算機科學的交叉融合。
憑藉發現和打通看似不同的領域之間的聯繫的能力,李飛飛構想出了ImageNet。她從事計算機視覺的同輩在打造模型來幫助計算機感知和解碼圖像,但是那些模型的應用範圍十分有限:研究員可能要分別寫一個算法來識別貓和狗。李飛飛開始懷疑問題不是出在模型上,而是出在數據上。她認為,如果說小孩子是通過在年幼時觀察不計其數的物體和場景來學會識別物體的,那麼計算機也許能夠以類似的方式去學習:通過分析各式各樣的圖像以及它們之間的聯繫。這一概念是李飛飛的一大斬獲。“這是將世界的一整個視覺概念組織起來的一種方式。”她表示。
然而,她沒能說服她的同事,從事標記巨大數據庫中每一個物體的每一張圖片的巨大任務是理性的一件事。更重要的是,李飛飛認定,該理念要可行的話,標記需要由簡入繁,不管是一般的例如“哺乳動物”的標記,還是非常具體的例如“星鼻鼴”標記,都需要做好。2007年李飛飛回到普林斯頓大學擔任助理教授時,她談到了其打造ImageNet的想法,但她沒能勸服同事來幫忙。最後,一位專攻計算機架構的教授同意與她展開合作。
她的下一個挑戰是完成該項十分艱鉅的項目。那意味著許多人將得花大量的時間千篇一律地標記圖片。李飛飛嘗試向普林斯頓的學生支付10美元一個小時,讓他們幫忙完成,但進展還是十分緩慢。然後,有個學生問她是否聽說過亞馬遜的勞務眾包平台Amazon MechanicalTurk,借助該平台,她一下子就能夠以低得多的成本招攬到一大批工作者。但將勞動力從少數的普林斯頓的學生擴張到成千上萬工作者看不見,也會帶來挑戰。李飛飛必須要將工作者潛在的偏見考慮進來。“作為網絡工作者,他們的目標就是用最簡單的方式賺錢吧?”她說,“如果你叫他們從100張圖片中選擇出大熊貓,有什麼能阻止他們去不斷地點擊選擇呢?”於是,她嵌入和追踪了某些圖片——如已經正確地標記為狗的金毛尋回犬的照片——將它們用作對照組。如果Amazon MechanicalTurk上的工作者們能正確標記這些圖片,那就代表他們有在老老實實地工作。
2009年,李飛飛的團隊覺得其320萬張圖片的龐大數據集在用途上足夠全面廣泛,於是他們公佈了該數據庫,同時也發表了一篇相關的論文,後來該數據庫的圖片數量增加到1500萬。起初,該項目沒得到什麼關注。不過該團隊有一個主意:他們主動接洽了次年將在歐洲舉行的計算機視覺技術競賽的組織方,要求他們允許參賽者使用Image?Net數據庫來訓練他們的算法。該比賽由此變成了ImageNet大規模視覺識別挑戰賽。
與此同時,李飛飛加入斯坦福大學擔任助理教授。接著,她嫁給了機器人專家西爾維奧·薩瓦雷瑟(Silvio Savarese)。但是他是在密歇根大學工作,兩人相隔萬里。薩瓦雷瑟最終於2013年加入斯坦福大學,成為一名教員。
2012年,多倫多大學的研究人員杰弗裡·辛頓(Geoffrey Hinton)參加了ImageNet的競賽,使用李飛飛的數據庫來訓練一種名為深度神經網絡的人工智能。他發現該AI比迄今為止任何其它的東西都要準確得多——他也最終贏得該項比賽。辛頓打造的由ImageNet驅動的神經網絡改變了一切。到2017年的最後一屆ImageNet比賽,計算機識別圖像中的物體的錯誤率已經從2012年的15%減少到低於3%。至少在某種程度上,計算機已經變得比人類更善於識別圖像了。
ImageNet促使深度學習技術取得大躍進——為近年來自動駕駛汽車、面部識別和可識別物體的手機攝像頭等領域的進展打下了堅實的基礎。
在辛頓領獎後不久,李飛飛還在休產假的時候,她開始不斷思考為什麼她的同行鮮少有女性的問題。那時候,她覺得這一問題很嚴重;她知道從業人員男女比例嚴重失調將漸漸帶來麻煩。構建人工智能算法的科學家大多數是男性,而男性往往有著相似的背景。他們特定的世界觀滲透到了他們所追逐的項目,甚至滲透到他們所設想的危險場景。許多人工智能的創造者都是有著科幻夢想的男孩,他們的腦子裡充斥著來自《終結者》和《銀翼殺手》的場景。李飛飛認為,擔心像這樣的事情並無不妥。但那些想法會讓人無法全面看到人工智能的潛在危險。
李飛飛說,對於深度學習系統,“給它們輸入偏見,它們就會輸出偏見。”她承認,儘管驅動人工智能的算法可能是中性的,但造就那些算法的結果的數據和應用則不然。真正重要的是人工智能創造者和他們創造人工智能的初衷。李飛飛在美國國會聽證會作證時指出,沒有形形色色的工程師,我們可能會產生有偏頗的算法,進而就人們的貸款申請做出不公平的決策,又或者只在白人面孔上訓練神經網絡——創造出的模型無法有效應用於黑人面孔上。“我想,要是20年後,我們的科技行業、領導者和從業者缺乏多元性,那簡直就是世界末日。”她說道。
李飛飛開始覺得,讓人工智能的發展聚焦於幫助改善人類的體驗是至關重要的。她在斯坦福大學的其中一個項目是,與醫學院合作將人工智能引入重症監護室(ICU),以便減少諸如因住院而感染的問題。該項目涉及一個攝像系統來監視洗手台,提醒忘記正確地洗手的醫院人員。這種類型的跨學科合作是不同尋常的。“從來沒有別的來自計算機科學領域的人向我提出這樣的事情。”斯坦福大學臨床研究中心主任、醫學教授阿諾·米爾斯坦(Arnold Milstein)說到。
那個項目讓李飛飛看到了AI會如何演變的希望,它可以用來補充人們的技能,而不是直接取而代之。如果工程師與其他學科的人、甚至是普通人展開合作,他們能創造出擴展人類的能力的工具,比如可以節省自動化耗時的任務,讓ICU護士得以花更多的時間照料病人,而不是使用人工智能來自動化人們的購物體驗和淘汰收銀員的工作。
考慮到人工智能發展的速度太快,李飛飛認為她們需要盡可能快速地改變其團隊的構造。
李飛飛在斯坦福大學人工智能實驗室
幫助更多的女性入行人工智能
李飛飛一直對數學十分著迷,她也清楚女性和有色人種從事計算機科學需要付出巨大的努力。根據美國國家科學基金會的數據,在2000年獲得計算機科學學士學位的人當中,女性佔28%。在2015年這一數字下降至18%。即便是在自己的實驗室,李飛飛也招募不到足夠多的有色人士和女性。她稱,儘管要比過往典型的人工智能實驗室更加多元化,但它仍然大多是男性。“我們仍然沒有足夠多的女性,少數族裔尤甚,人才儲備上甚至也是如此。”她說,“學生們去一個AI會議,他們會看到90%的人是男性,非裔美國人的數量也遠遠少於白人男孩。”
李飛飛成為奧爾加·盧薩科夫斯基(Olga Russakovsky)的顧問的時候,後者一點都不看好該領域。那時盧薩科夫斯基已經是一位很有學問的計算機科學家——擁有斯坦福大學的數學學士學位和計算機科學碩士學位本科,但她的論文工作遲遲未能完成。由於自己是實驗室中唯一的一名女性,她感到有些孤獨。而李飛飛來到斯坦福以後,情況立馬發生了變化。盧薩科夫斯基說道,李飛飛幫助她學習到了研究成功所需的一些技能,也幫助她建立起了自信心。她現在是普林斯頓大學的計算機科學助理教授。
4年前,盧薩科夫斯基完成博士學位的時候,她請求李飛飛幫助創建一個旨在激發女生對人工智能的興趣的夏令營。李飛飛立即答應了她,她們把志願者召集在一起,並發佈公告呼籲高中二年級的學生參加。在短短一個月內,她們收到了多達200份的申請,儘管報名名額只有24個。兩年後她們擴張了該項目,成立非營利組織AI4All來將未被充分代表的年輕群體——包括女生、有色人種和經濟條件不佳的人——帶到斯坦福大學和加州大學伯克利分校的校園。
AI4All如今的發展規模,其位於加州奧克蘭市中心Kapor Center小小的共享辦公室已經快容納不下了。它目前在6所大學有夏令營。去年,新推出的卡內基梅隆大學夏令營有20個報名名額,但申請人數多達900人。有位AI4All學生使用計算機視覺來檢測眼疾。另一位學生利用AI編寫程序來按照緊迫性給911急救電話排序;她的祖母去世了,原因就是救護車沒能及時到達。這似乎證明,個人視角可以給未來的人工智能工具產生影響。
在斯坦福大學人工智能機器人實驗室的豐田人力支持機器人
在谷歌遭遇Maven軍事項目事件
在斯坦福大學運營人工智能實驗室3年以後,李飛飛於2016年離開,加入谷歌出任該公司的企業計算業務谷歌云(Google Cloud)AI的首席科學家。她想親身了解業界是如何運作的,同時也想看看接觸急於部署新工具的客戶是否會改變她的跨學科研究的範圍。像Facebook、谷歌和微軟這樣的科技巨頭悉數砸大錢發展人工智能,以期利用該項技術來更好地發展自身的業務。企業擁有的數據也通常比高校更多更好。對於人工智能研究員而言,數據就是燃料。
在谷歌,李飛飛最初的經歷很令人興奮。她接觸到了將她的科學成果公司應用於現實世界的企業。她主導了面向公眾的人工智能工具的推出,那些工具讓任何人不必編寫任何的代碼就能創建機器學習算法。她在中國開設了一個新的實驗室,幫助塑造AI工具,以期改善衛生保健。她在達沃斯世界經濟論壇上發表講話,期間還接觸到一些國家領導和大明星。
然而,在一家私企工作也帶來了新的壓力和不適感。去年春天,李飛飛捲入了谷歌與美國國防部的Maven項目合同爭議當中。該項目使用AI來解讀圖像,幫助無人機襲擊目標;據谷歌稱,那是“利用人工智能進行低分辨率物體識別”,“拯救生命是首要目的”。不過,很多員工都強烈反對他們的工作成果被用於軍用無人機,大約4000人簽署了一份請願書,要求公司“制定明確的政策來聲明,無論是谷歌還是承包商都不得打造用於戰爭的技術。”有幾個員工辭職以示抗議。
雖然李飛飛沒有直接參與該項目,但她所在的部門被指負責項目的執行。在她所撰寫的似乎是為了幫助公司避免難堪局面的電子郵件被洩露給《紐約時報》以後,她在公眾輿論中也備受爭議。大家覺得此事令人困惑,因為她被業界視作人工智能倫理學的象徵性人物。事實上,在輿論嘩然之前,她是認為該項技術是“無害的”,她沒有想到它會引起員工如此強烈的不滿。
但李飛飛有認識到該事件為什麼會引發軒然大波:“不完全是因為事情本身,是因為那個時間點——大家對於我們的責任有一種集體緊迫感,AI成為了新興力量,矽谷需要展開這樣的對話。這些問題Maven似乎都有觸及。”她說道,“不作惡”不再是一個具有說服力的口號。
在谷歌宣布不會續簽Maven項目合同以後,這場風波才平息。谷歌的科學家和高管團隊包括李飛飛在內還撰寫了公開的指引,承諾谷歌的人工智能研究會聚焦於打造造福社會的技術,避免讓它的工具出現偏頗,並避免技術最終可能會傷害到人的情況。李飛飛一直在準備回到斯坦福大學,但她覺得指引的完成極其重要。“我認為,認識到每個組織有一套原則和負責任的審查過程十分重要。你知道,本傑明·富蘭克林(Benjamin Franklin)在《憲法》出爐時說過,它可能不是完美無缺的,但它是我們目前能做到的最好的一個版本。”她說,“人們還會有不同意見,看法不一的人也還是可以繼續進行對話交流。“她說,該指引發布的時候,是她一年中最快樂的日子之一:“能親自參與其中,做出貢獻,對我而言意義十分重大。”
回到斯坦福啟動新項目
今年6月,筆者到李飛飛位於斯坦福大學校園的家中拜訪。我們開始交談時,她的手機不斷收到新短信。她的父母讓她將醫生給母親的服藥指示翻譯成中文,她的父母隨時都有可能給她發短信,請求她盡快提供幫助,不管她在谷歌總部開會,在世界經濟論壇發表演講,還是在出席國會聽證會期間,她能夠在不打斷她原來的思路的情況下給予父母回复。
在生活中的很多時候,李飛飛都是在一心二用,在同一時間專注於兩件似乎全然不同的事情。她是一位對藝術有著深切感受的科學家,她既痴迷於機器人,也痴迷於人類。
7月末,李飛飛給筆者打來電話問到:“你看到香農·瓦勒爾(Shannon Vallor)的聲明了嗎?”瓦勒爾是聖克拉拉大學的一位哲學家,主要鑽研新型科技的哲學和倫理學,她剛剛簽約成為谷歌云的倫理學顧問。李飛飛對此非常支持;她甚至引用了瓦勒爾在華盛頓聽證會上的證詞,說:“沒有獨立的機器價值。機器價值就是人類價值。”谷歌的這一任命並非沒有先例。其他的公司也已紛紛開始出台實施他們的人工智能軟件的用途和誰可以使用它方面的規範。2016年,微軟建立了一個內部倫理委員會。該公司表示,由於該委員會提出的倫理擔憂,它已經拒絕了與潛在的客戶進行生意來往。它也開始在其人工智能技術的使用上實施限制,如禁止部分人臉識別應用。
當我們7月進行交談時,李飛飛知道她要離開谷歌了,斯坦福大學給她的兩年學術休假要結束了。有很多人猜測她離開谷歌是因為Maven項目事件,但是她的說法是,她回斯坦福大學的原因是,她不想失去自己的學術地位。她聽上去也很疲憊。她稱,在谷歌經歷了一個動盪不安的夏天以後,她幫助撰寫的倫理指引可謂“黎明前的曙光”。
她渴望在斯坦福大學啟動一個新的項目。今年秋天,她和前斯坦福大學教務長約翰·艾切曼第(John Etchemendy)共同宣布成立一個學術中心,致力於融合人工智能和人性的研究,融合自然科學、設計研究和跨學科研究。“作為一門新科學,人工智能領域從未有大範圍地嘗試讓人文學者和社會科學家共同進行研究。”她指出。那些技能一直以來都被視為與人工智能領域沒多大的關聯性,但李飛飛堅稱它們是人工智能未來的關鍵所在。
李飛飛聽上去很樂觀。在去年6月的聽證會上,她告訴立法者,“我深入思考過目前對人類而言有危險的、有害的工種,比如救火搜救和自然災難恢復。”她認為,我們不僅要盡可能避免人受到傷害,也要意識到這些恰恰就是技術可帶來巨大幫助的工作。
當然,光憑一個學術機構的一個項目,能在多大程度上改變一整個領域呢?但是,李飛飛堅定地說道,她必須得盡其所能地將研究者訓練得能像倫理學家那樣思考,讓他們變得受原則指引,而非受利潤指引,讓他們能夠受到各種不同的背景領域的啟發。
在電話裡,筆者問李飛飛,她有沒有想像過有方法能以不同的方式開發人工智能,也許不會產生任何我們目前看到過的問題。“我覺得很難想像,”她說,“科學進步和創新來自於一代又一代人的枯燥乏味的辛勤工作以及孜孜不倦的嘗試。我們花費了一段時間才認識到這樣的偏見的存在。我六年前才意識到’哦,天啊,我們正在進入一個危機當中’。”
在國會山,李飛飛說到,“作為一名科學家,看到還處於相當初期的發展階段的人工智能科學,我深感卑微。這是一個只有60年曆史的科學領域。相比讓人類日常生活更美好的經典科學——物理學、化學和生物學——人工智能要走很長很長的路才能兌現它幫助人類的潛力。”她補充說,“有了適當的指引,AI會讓生活變得更美好。但沒有適當的指引,這項技術就會進一步擴大財富差距,讓科技變得更具排他性,且會強化我們花了幾代來試圖克服的偏見。”李飛飛讓我們覺得,現在我們處在人工智能在被發明之後還沒有充分發揮影響力的時期。