谷歌CEO皮查伊:AI必須受到監管不能任由市場放縱
據外媒報導,谷歌及其母公司Alphabet首席執行官桑達爾·皮查伊(Sundar Pichai)日前親自撰文,聲稱人工智能(AI)太過重要,必須受到監管,人們非常擔心AI造成的潛在負面後果。公司不能僅僅建立新技術,而放任市場力量來決定如何使用它。
皮查伊撰文全文如下:
我在印度長大,總是對技術痴迷不已。每項新發明都以意義非凡的方式改變了我和家人的生活。有了電話,我們就不必長途跋涉去醫院看檢查結果了。冰箱意味著我們可以花更少的時間做飯,電視讓我們可以在收聽短波收音機的同時看到我們只能想像的世界新聞和板球比賽。
現在,我很榮幸能幫助塑造新的技術,我們希望這些技術將改變世界各地人們的生活。其中,最有前途的技術包括AI:就在本月,關於Alphabet和谷歌如何挖掘AI潛力的三個具體例證已經發布。《自然》發表了我們的研究,顯示AI模型可以幫助醫生在乳房X光檢查中更準確地發現乳腺癌;作為應對氣候變化的重要組成部分,我們正在使用AI更快、更準確地對降雨量做出即時的預測;漢莎航空集團正在與我們的雲計算部門合作,測試使用AI來幫助減少航班延誤。
然而,歷史上有很多例子表明,技術的發展也會帶來出人意料的負面影響。內燃機讓人們可以長途旅行,但也造成了更多的事故。互聯網使人們有可能與任何人聯繫,從任何地方獲取信息,但也更容易傳播錯誤信息。這些教訓告訴我們,我們需要清醒地認識到可能會出現的問題。
人們確實擔心AI造成的潛在負面後果,從深度換臉(deepfakes)到抑制面部識別技術的使用。雖然許多公司已經做了很多工作來解決這些擔憂,但未來不可避免地會有更多挑戰,沒有任何單獨的公司或行業可以單獨應對。歐盟和美國已經開始製定監管提案,國際協調將是使全球標準發揮作用的關鍵。
要實現這個目標,我們需要在核心價值觀方面達成一致。像我們這樣的公司不能僅僅創造有前途的新技術,然後讓市場力量決定如何使用它。我們同樣有責任確保科技得到善用,讓每個人都可以使用。現在,在我看來,AI需要受到監管,這是毋庸置疑的。這項技術太過重要,不能放任不管。
唯一的問題是如何對待它。這就是為何谷歌在2018年發布了自己的AI原則的理由,旨在幫助指導這項技術以符合倫理道德的方式開發和使用。這些指導方針幫助我們避免偏見,嚴格測試安全性,在設計之初就將隱私放在首位,並使技術對人們負責。這些原則還指定了我們不會設計或部署AI的領域,例如支持大規模監視或侵犯人權。
但停留在紙面上的原則沒有任何實際意義。因此,我們還開發了將其付諸實施的工具,例如測試AI決策的公平性,以及對新產品進行獨立的人權評估。我們甚至走得更遠,讓這些工具和相關的開源代碼廣泛可用,這將使其他人能夠善意地使用AI。我們認為,任何開發新AI工具的公司都應該遵循這些指導原則和嚴格的審查程序,政府的監管也需要發揮重要作用。
我們不必從頭開始去做。現有的規則可以作為堅實的基礎,如歐洲的《通用數據保護條例》。好的監管框架將考慮安全性、可解釋性、公平性和問責性,以確保我們以正確的方式開發正確的工具。明智的監管還必須採取相稱的方法,平衡潛在的危害,特別是在高風險領域。監管可以提供廣泛的指導,同時允許在不同部門有針對性地部署技術。
對於有些AI技術的使用,例如包括AI輔助心臟監測器在內的受監管醫療設備,現有框架提供了很好的監管基礎。對於自動駕駛汽車等較新的領域,政府將需要建立適當的新規則,並考慮所有相關的成本和好處。谷歌的作用始於認識到,應用AI需要遵循原則性的、受監管的方法,但它並沒有到此為止。
我們希望在監管機構努力應對不可避免的緊張局勢和權衡取捨時,成為他們的合作夥伴。在共同應對這些問題時,我們可以提供我們的專業知識、經驗和工具。AI有可能改善數十億人的生活,而最大的風險可能是無法實現這個目標。通過確保以負責任的方式構建AI,使每個人都受益,我們可以激勵子孫後代像我一樣相信技術的變革力量。