人工智能“憲法”出爐初創公司發布AI道德價值觀
谷歌支持的人工智能(AI)初創公司Anthropic公佈了一套針對AI發展的書面道德價值觀,該價值觀主要適用於訓練和保護人工智能。Anthropic成立於2021年,創始團隊大都來自ChatGPT的開發商OpenAI,也有類似於ChatGPT的人工智能聊天機器人,其名為“Claude”,可以處理一系列較為複雜的任務。
Anthropic一直強調其旨在構建“可靠、可解釋和可操縱的人工智能係統”,比如不會告訴用戶如何製造武器,也不會使用帶有種族偏見的語言。
這次公佈的人工智能道德價值準則也被該公司稱為“Claude憲法”,這些準則藉鑑了幾個來源,包括聯合國人權宣言,甚至還有蘋果公司的數據隱私規則。
上週四,谷歌、微軟、OpenAI和Anthropic四家公司的首席執行官們受邀在白宮與美國副總統哈里斯會面,討論了有關人工智能的一些關鍵問題,美國總統拜登也短暫出席了此次會議。
根據拜登在推特上發布的一段視頻,他在會上對這些公司首席執行官們表示:“你們正在做的事情具有巨大的潛力,但同時也存大巨大的風險。”
哈里斯在一份聲明中說:“科技公司需要承擔道德和法律責任來確保其產品的安全。每家公司都必須遵守現行法律,保護美國公民。”
沒想到在會面幾天之後,Anthropic首席執行官達里奧·阿莫代便做出了實際行動。
大多數人工智能聊天機器人系統在訓練過程中依賴於從真人那裡獲得反饋,以確定哪些反應可能是有害的或冒犯性的。但這些系統很難預測人們可能會問的某些問題,因此它們往往會避免一些可能有爭議的話題,比如政治和種族。
Anthropic則採用了不同的方法,它為其人工智能聊天機器人Claude提供了一套書面的道德價值觀,供其在決定如何回答問題時閱讀和學習。
Anthropic在周二的一篇博文中提到,這些價值準則包括“選擇勸阻和反對酷刑、奴役、殘忍和不人道或有辱人格的回答”。Claude還被要求選擇最不可能被視為冒犯非西方文化傳統的回答。
在一次採訪中,Anthropic的聯合創始人傑克·克拉克表示,可以修改系統的結構,以便在提供有用的答案和無害之間取得平衡。
克拉克認為:“幾個月後,我預測政界人士將非常關注不同人工智能係統的道德價值觀,而像’Claude憲法’這樣的方法將有助於這種討論,因為我們認為有必要寫下這些價值準則。”