歐盟發佈人工智能倫理指南:AI系統要負責任且無偏見
歐盟本週一發布了一系列關於發展人工智能(AI)倫理的新指南,作為企業和政府開發人工智能倫理應用的指導方針。這些規則不同於美國科幻小說作家艾薩克·阿西莫夫(Isaac Asimov)的“機器人三定律”,沒有直截了當地提供一個道德框架來幫助人類控制凶殘的機器人。相反,當人工智能整合至醫療、教育和消費技術等領域時,它們可澄清一些影響社會的模糊而分散的問題。
因此,舉例來說,如果一套AI系統在未來某個時候診斷出你患有癌症,歐盟的指導方針將確保下列事情的發生:軟件不會因種族或性別而產生偏見;不會推翻人類醫生的反對意見;患者有權選擇聽取AI診斷意見。
這些指導方針有助於阻止人工智能胡作非為,並保證在行政和官僚主義的層面上,不會製造出阿西莫夫式的謀殺謎團。
為了幫助實現這一目標,歐盟召集了52名專家組成的小組,提出了他們認為未來AI系統應該滿足的七項要求。具體如下:
– 人類作用和監督:人工智能不應該踐踏人類的自主性。人們不應該被AI系統操縱或脅迫,而且,人類應該能夠干預或監督軟件做出的每一個決定。
– 技術的穩健性和安全性:人工智能應該是安全的、準確的。它不應該易於受到外部攻擊(例如對抗性實例)的影響,而且,應該是相當可靠的。
– 隱私和數據管理:人工智能係統收集的個人數據應該是安全的、私有的。它不應該讓任何人接觸,也不應該輕易被盜。
– 透明性:用於創建人工智能係統的數據和算法應該是可訪問的,軟件所做的決定應“由人類理解和跟踪”。換句話說,操作員應該能夠解釋AI系統所做的決定。
– 多樣性、非歧視和公平性:人工智能提供的服務應面向所有人,無論年齡、性別、種族或其他特徵。同樣地,系統不應該在這些方面存在偏見。
– 環境和社會福祉:人工智能係統應該是可持續的(即它們應該對生態負責)並“促進積極的社會變革”。
– 問責制:人工智能係統應該是可審計的,並被納入企業可舉報範疇,以便受到現有規則的保護。應事先告知和報告系統可能產生的負面影響。
人們會注意到上述一些需求非常抽象,很難從客觀的角度進行評估。(例如,“積極的社會變革”的定義因人而異,因國而異),但其他定義內容更為直截了當,可以通過政府監督進行檢驗。例如,用於訓練政府AI系統的數據實行共享,可能是對抗偏見性算法的好方法。
這些指導方針不具有法律約束力,但它們可能對歐盟未來起草的所有法律造成影響。歐盟一再表示,希望成為AI倫理領域的領導者,並通過《通用數據保護條例》(GDPR)表明,願意制定影響深遠的法律,以保護公眾的數字權利。
不過在一定程度上,歐盟是由於環境因素而迫不得已充當這一角色的。在投資和前沿研究方面,歐盟無法與美國和中國——AI領域的世界領先者——一爭高下,因此,它選擇了倫理作為塑造技術未來的最佳選擇。
作為這項工作的一部分,本週一的報告包括了一份所謂的“值得信賴的AI評估列表”,以便幫助專家找出AI軟件中存在的潛在弱點或危險。此列表中的問題包括“是否對系統在意外情況和環境中的行為進行了驗證?”和“是否對數據集內的數據類型和範圍進行了評估?”
這些評估清單只是初步措施,歐盟將在未來幾年收集企業反饋,並在2020年期限內提供一份最終報告。
范尼·希德韋吉(Fanny Hidvegi)現在是數字版權集團Access Now的政策經理,也是參與撰寫這份指南的專家之一,他說評估列表是報告中最重要的部分。希德韋吉向The Verge透露,“它提供了一個實用的、前瞻性的視角”,來緩解人工智能的潛在危害。
“在我們看來,歐盟有能力、有責任站在這項工作的最前線,”希德韋吉說,“但我們認為,歐盟不應停留在倫理指南水平……而應該上升到法律層面。 ”
另有一些人懷疑,歐盟試圖通過影響巨大的倫理研究來規範全球人工智能的發展方式。
智庫機構數據創新中心(Center for Data Innovation)的高級政策分析師艾琳·奇沃特(Eline Chivot)在接受The Verge採訪時說:“通過為AI倫理創建黃金標準來確認歐盟在全球AI發展中的地位,我們對正在採取的這種方法持懷疑態度。要成為AI倫理的領導者,首先你必須在人工智能領域遙遙領先。”