IBM 謝東:AI 進入生活,我們該怎麼信任它?
在AI 進入人類生活每個角落的時候,人們一定會湧起一個疑問:AI 給我們的這些建議是對的嗎?如果一個技術非常強大,但是卻不能完全符合人類道德,那麼如何評價它的價值?如果不認真重視、有效解決AI 的可信性問題,那麼AI 越強大,人們越不敢用。
在2019 世界人工智能大會(WAIC)期間,IBM 副總裁、大中華區首席技術官謝東博士通過主題演講,闡述了IBM 主推的“可信AI”概念。
AI 飛速發展帶來可信性問題在計算機系統投入應用的第一天,計算機系統及算法的可信性問題就伴隨出現了。今年是人類登月50週年。遙想當年,我們在設計飛船時採用的計算機,其算力甚至難以同現在的智能手機相提並論。那麼,為什麼在計算人類從地球飛向月球的軌道時,我們足夠相信這個算法呢?這是因為當時的計算有完整的數學理論、物理定理支持。時至今日,以深度學習為代表的AI 算法,先天就有一些不可解釋性。更不用說,我們通常會模仿人對問題的理解和判斷來設計AI。由於人類對自身都不是很了解,連自己都搞不清楚自己到底是怎麼想的,到底為什麼做這個判斷。所以,在AI 進入人類生活每個角落的時候,人們一定會湧起一個疑問:AI 給我們的這些建議是對的嗎?
- 當AI 醫生診斷我們得了某種重病,或是提供治療方案時,我們會擔心它預測是否準確。
- 當AI 分析師做出投資建議時,我們會擔心是否可以把血汗錢押在這上面。
- 當AI 老師制訂了一套符合你能力的教學方案時,我們也會擔心這是否真的就適合自己。
- 當AI 算法綜合大數據對我們做分析和信息流推薦時,我們更會警惕它是不是“真的懂我”,自己有沒有被公正對待。
有些時候,AI 並不能完全符合我們的期待,會讓人失望甚至恐懼。
- 當行人違反交通規則,沒有走人行橫道的時候,有的無人駕駛汽車會判斷為不用剎車,全球首例無人駕駛車輛事故由此產生;
- 當醫療AI 試圖給病人開藥的時候,如果此前忘記錄入並發症信息,開出的藥方可能對某些患者是致命的;
- 若是沒有專門介入,人臉識別等算法無法準確地識別數據較少的少數族裔面孔,形成嚴重的偏見;
- 而訓練AI 算法的模型需要大量數據,這些數據也可能未經授權,讓普通人的隱私在不知不覺中被“偷走”。
如果一個技術非常強大,但是卻不能以符合人類道德的方式服務人類,那麼如何評價它的價值?所以,如果不認真重視、有效解決AI 的可信性問題,那麼AI 越強大,人們越不敢用。IBM 可信AI 概念的提出謝東介紹說,要正確的發展人工智能,就必須提出可信賴的人工智能。人工智能的未來在於信任,如果想要驅動業務成功,人工智能就不能隱藏在“黑盒子”中。IBM 對AI 發展有幾個基本論點:
- AI 不是代替人類的,而是人類的輔助;
- AI 的數據和洞察(即結論)均屬於其創造者,也就是客戶;
- AI 必須被人們所信任。
近年來,IBM 堅持不懈的向客戶和業界解釋,在其產品和服務中的AI 是何時,何處,以什麼方法植入的,其模型是用什麼數據來訓練的。在此基礎上,IBM提煉出可信AI (Trusted AI)的四條原則:
- 公平性(Fairness):AI系統應該採用不帶偏見的數據集和模型,從而避免對於特定群體的不公平;
- 可解釋性(Explainability):AI系統所提供的決策或建議不是一個不可解釋的黑箱,應該能夠被用戶和開發者所分析、理解;
- 健壯性(Robustness):AI系統應該安全和可靠,不會被篡改,也不會受被“污染”的訓練數據集影響;
- 透明性(Transparency):AI系統可以被透明化管理,其開發、部署、維護等可被追踪,能夠在生命週期範圍內被審核。
IBM 非常重視可信AI,不僅概述實現這些目標的各種方法論,還推出了各種實用工具,並在自身提供的解決方案設計和實踐的初期,就完整考慮了這些可信問題,讓客戶可以放心使用。IBM z系列大型主機、LinuxONE主機、Power 服務器、存儲等企業級專用硬件;數據管理、人工智能、應用管理和操作系統等企業級軟件;以及IBM研究院的各種創新實踐,及多年積累的行業經驗,讓IBM從硬件、軟件、服務方面入手,為企業交付可信AI的數字基礎設施。IBM 可信AI 的實際開發和應用謝東介紹稱,IBM 特別注重將對AI 的信任研究,轉化為實際產品和平台,同時強調構成技術團隊的人員多樣性和包容性。針對IBM 可信AI 四原則的每一方面,都有相對應的具體工具和產品投入使用。公平性:AI系統都是通過人提供的數據,人打的標籤,或者是人歷史上的經驗訓練出來的。我們不能保證這些基礎數據是沒有偏見的,但是不希望人造成的偏見就這麼帶到AI系統裡。IBM提供了開源工具集合 AI fairness 360,包含用於檢查和減輕AI中不必要偏見的算法。在一個訓練好的模型中,它的輸入輸出之間如果存在某種強相干因素,這些工具就能檢查此類強相干是不是開發者所期望的,是不是因為一些偏見造成的。
IBM AI OpenScale 技術平台也可以在各種AI應用運行時,檢測並解決其中的偏見問題。可解釋性:儘管機器學習存在著人類難以明白原理的“黑盒”,但在現有已經很成熟的技術和應用基礎上,它還是比決策樹類“白盒”更具潛力。IBM傾向於通過同樣是基於神經網絡的辦法,來解釋AI模型的決策。2019年8月,IBM發布開源算法集合 AI Explainability 360,以增強算法的可解釋性。
例如,如果手寫識別要區分一個手寫的圖片是數字3 還是5 ,該工具可以嘗試給出類似這樣的解釋:“我之所以沒有把它識別成5,是因為5 上面還要有小小的一橫。如果我看到這一橫,我就把它識別成5 了。”健壯性:開發者往往通過數據集訓練圖像識別模型。但是如果人為地給原始數據加噪聲,進行噪聲迭代,就有可能產生一些危險的誤導性案例:人看上去還是正確的結果,機器卻做出錯誤的識別。很多模型如果遭受這樣的攻擊,後果是很可怕的。比如自動駕駛系統遇到經黑客篡改的交通標誌,一旦識別錯誤,就可能導致交通事故。Adversarial Robustness 360 Toolkit 是IBM研究團隊開源的,用於檢測模型及對抗攻擊的工具箱,為開發人員加強AI模型被誤導的防禦性,讓AI系統更加安全。
透明性:AI OpenScale 是IBM提高所謂“黑箱方法”透明度的一部分,從而加速AI的規模化發展。
無論AI 應用在何種環境中構建或運行,AI OpenScale 都可讓企業在其整個生命週期中實現透明化管理,記錄每項預測、每個模型版本、所有使用的訓練數據及各種指標,幫助企業遵守GDPR 等法規。可信AI 的未來展望在IBM 提出“智慧地球”概念的2008 年,就提前預測了萬物互聯的現實演變。這也使得採納IBM 智慧城市改造方案的案例,都體現了AI 強力工具的正確“打開方式”。例如,面對全球變暖導致的森林火災風險提升,葡萄牙公司Compta與IBM合作,構建了名為 Bee2FireDetection 的新型火災檢測解決方案,利用AI來提高自動化程度並加快決策,減輕歐洲和北美的林火風險。
該工具最遠可發現15 公里範圍內的火災,可在森林火災發生後的前20 分鐘內檢測到,實現早發現,早撲救。它使用來自The Weather Company 的數據,計算未來幾天的火災風險水平,並分析出現火災時可能的蔓延方式。在IBM 及業內其它公司的共同推動下,值得信賴的人工智能將成為今後AI 發展的焦點所在。世界各國也都開始重視AI 的安全可控問題,並以不同形式加以規劃和治理。近日,由國家科學技術部、工信部、交通運輸部、教育部、中國工程院等單位人士牽頭組成的國家新一代人工智能治理專業委員會,發布了《新一代人工智能治理原則——發展負責任的人工智能》。在其提出的“和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協作、敏捷治理”等八條原則中,同樣體現了AI 設計需要安全可控可靠、公平公正、尊重隱私等要點。謝東在演講中提到,雖然AI 讓我們深刻思考其可信性問題,但也不需要為此過分焦慮。這也是AI 發展過程中不可避免的環節,重點在於相關方面的正義感和責任感。他引用IBM 董事長羅睿蘭的話說:“人工智能正在全方位地影響和改變整個社會。IBM 致力於AI 的研究和應用,為企業提供先進和完整的AI 技術和方案,並致力於打造可信任的AI,而社會也會選擇它所信任的公司。”