規範人工智慧:倫理問題在自動駕駛領域最為突出
人工智慧技術飛速發展,但由此引發的相關問題仍然突出和多發。 9月25日,在「2021中關村論壇」上,國家新一代人工智慧治理專業委員會發佈了《新一代人工智慧倫理規範》(下稱《規範》)。 《規範》提出了增進人類福祉、促進公平公正、保護隱私安全、確保可控可信、強化責任擔當、提升倫理素養等六項基本倫理要求。
無獨有偶。 9月28日,”2021年世界互聯網大會”舉行閉幕新聞發佈會,會上提出要堅持科技倫理,打擊不法行為,人工智慧發展要確保增進人類福祉,有效防範和打擊駭客等網络不法行為,保護公平競爭和推動創新,消除數位鴻溝,讓數位文明造福全人類。
有關專家對《財經》E法表示,自動駕駛、演算法推薦、金融及醫療人工智慧等領域,是目前人工智慧倫理問題的多發領域。
新規提18項具體倫理要求
《規範》提出,旨在將倫理道德融入人工智慧全生命週期,為從事人工智慧相關活動的自然人、法人和其他相關機構等提供倫理指引。 同時,增強全社會的人工智慧倫理意識與行為自覺,積極引導負責任的人工智慧研發與應用活動,促進人工智慧健康發展。
《規範》指出,人工智慧特定活動應遵守的倫理規範包括管理規範、研發規範、供應規範和使用規範等共18項具體要求。 其中,管理規範包含推動敏捷治理、積極實踐示範、正確行權用權、加強風險防範、促進包容開放;研發規範包含強化自律意識、提升數據品質、增強安全透明、避免偏見歧視;供應規範包括尊重市場規則、加強品質管控、保障使用者權益、強化應急保障;使用規範包含提倡善意使用、避免誤用濫用、禁止違規惡用、及時主動反饋、提高使用能力。
加強風險防範方面,需要增強底線思維和風險意識,加強人工智慧發展的潛在風險研判,及時開展系統的風險監測和評估,建立有效的風險預警機制,提升人工智慧倫理風險管控和處置能力;保障用戶權益方面,在產品與服務中使用人工智慧技術應明確告知使用者,應標識人工智慧產品與服務的功能與局限,保障使用者知情、同意等權利。 為使用者選擇使用或退出人工智慧模式提供簡便易懂的解決方案,不得為使用者平等使用人工智慧設置障礙。
上海交通大學網路資訊中心副主任姜開達表示,人工智慧技術以數據、演算法為驅動,發展速度確實迅猛,已經深刻改變了人類的社會生產和生活模式。 但人工智慧技術的濫用也衝擊法律與社會倫理、涉嫌侵犯個人隱私。 所以,既要大力發展人工智慧,又要高度重視風險和挑戰,科學處理好發展和安全的關係。 通過出臺法律法規、倫理規範以及行業自治,降低負面影響,促進人工智慧的健康和可持續發展。
事實上,針對人工智慧倫理問題,歐盟、美國此前已頒布類似規範。
2019年4月8日,歐盟委員會發佈人工智慧倫理準則。 該準則由歐盟人工智慧高級別專家組起草,列出了「可信賴人工智慧」的七個關鍵條件——人的能動性和監督能力、安全性、隱私數據管理、透明度、包容性、社會福祉、問責機制,以確保人工智慧足夠安全可靠。 歐盟將「人工智慧」定義為「顯示智慧行為的系統」 ,它可以分析環境,並行使一定的自主權來執行任務。
2019年10月,美國國防創新委員會發佈了一份關於人工智慧倫理原則的報告,這份報告名為《人工智慧原則:國防部人工智慧應用倫理的若干建議》,提出”負責、公平、可追蹤、可靠、可控”五大原則。
自動駕駛領域問題最突出
人工智慧倫理問題討論最多的領域當屬自動駕駛。 2018年3月18日晚,在美國亞利桑那州坦佩市(Tempe),一位名叫伊萊恩·赫茲伯格(Elaine Herzberg)的行人被一輛正在測試的自動駕駛汽車撞倒,因傷勢過重而不幸身亡。 肇事的車內當時有一名駕駛人,但車輛由一個完全的自駕系統(人工智慧)所控制。 此事件成為全球首例自動駕駛汽車撞死人案,事發後引發了全球各地公眾對人工智慧中倫理、道德和法律問題的思考。 屢被提及的問題是:究竟該由誰對這一不幸事件負責,是這輛自動駕駛汽車公司的測試部門,還是人工智慧系統的設計者,甚至是機載感測設備的製造商?
9月13日,上海交通大學開學第一天,”人工智慧思維與倫理”課程在閔行校區開講。 該校凱原法學院教授鄭戈的授課內容圍繞自動駕駛中的倫理問題及與現行法律的銜接展開。 鄭戈在「理性的人工智慧」專題中提出,自動駕駛系統如何盡到注意義務? 注意義務是一個重要的法律概念,法律上的過失就是指違反注意義務。 自動駕駛達到L3、L4級別後(美國汽車工程師學會(SAE)提出,自動駕駛的L3級別為「有條件自動化」,L4級別為「高度自動化」),如果發生交通事故,該由誰承擔違反注意義務的責任?
“《道路交通安全法(修訂建議稿)》已引入自動駕駛系統開發單位的責任,但這個問題其實很複雜。 自動駕駛系統是一個由感知、定位、決策和控制模組組成的複雜系統,每個模組都有開發者。 發生事故后,5G網路服務供應商有沒有責任? 高精地圖供應商有沒有責任? 這些單位的法律責任界定問題,需要進一步研究。 “鄭戈希望通過對這個問題的講解,讓學生認識到,今後開發自動駕駛系統的各個模組時要盡到注意義務,從而使整個系統成為”理性的人工智慧”。
除了自動駕駛領域的問題,多位人工智慧研究學者向《財經》E法介紹了人工智慧倫理問題在其他領域的情況,主要可以歸納為:以演算法為驅動的精準營銷、內容推送領域,以及金融領域的智慧風控、醫療人工智慧等領域。
在演算法驅動的精準行銷領域,網路經營者通過收集並處理用戶網路行為所形成的數據,繪製成數據化的人格圖像,並以此為依據進行精準的廣告投放。 這樣能夠讓經營者通過高效投放廣告獲得更高的行銷收益比。 但與此同時,「大數據殺熟」的問題屢被提及。
此外,使用者的性別、年齡、地點、興趣愛好、流覽行為、個人移動軌跡、手機型號、網路狀況等資訊,都是平臺常規收集的內容。 這可能會導致推薦系統過度收集用戶個人數據,甚至在使用者完全不知情的情況下跟蹤和識別使用者。
內容推送領域的問題如出一轍。 定向推送以使用者的喜好為主要標準,確實能為使用者精準推送他喜歡的內容。 但這也會出現由於使用者頻繁點擊其所喜歡的內容,推薦系統便如同收到指令一般,為其源源不斷地推送相似的內容,會導致限制使用者接受其他新領域的資訊,出現”資訊繭房”。
在金融領域的智慧風控領域,金融領域數據與用戶的個人信用直接相關,金融機構在收集使用者的海量數據(如年齡、收入、職業、學歷、資產等)時,既要保證數據的安全性,即數據不被洩露、竊取或篡改,又要保證數據的準確性。 現有的金融數據收集處理體系尚不完備、過程尚不夠透明,用戶的個人信用數據可能在使用者不知曉的情況下發生負面變化;演算法的缺陷,還容易引發大範圍的歧視問題。
在醫療人工智慧領域,人工智慧在醫療場景下主要被應用於診斷、治療和研究等領域。 在這個過程中,可能出現演算法安全和準確性問題,損害患者的身體健康; 人工智慧提供的醫療診斷方案源於演算法,而演算法存在的不可解釋性與作為病人基本權利的知情權可能產生衝突。
資深人工智慧專家、《計算廣告》作者劉鵬對《財經》E法表示,雖然中國出臺了人工智慧倫理規範,但人工智慧倫理問題依然複雜,面臨的挑戰還很多。 從緊迫性角度來看,自動駕駛領域問題擺在首位,因為它與安全性密切相關。
自動駕駛技術升級完善的過程中,同樣包含智慧性與安全性的博弈,也包含複雜的倫理問題。 劉鵬表示,目前智慧汽車廠商傾向於把測試的環節儘可能縮短,讓車的新功能先推向使用者,在實際使用中去打磨和優化,並解決遇到的各種問題。 但這種做法可能會讓車主、行人等承擔一定風險,在倫理上是值得商榷的。
文/張劍
編輯/魯偉