OpenAI 正在資助一個研究人工智慧系統道德性的項目
透過資助”人工智慧道德”研究,OpenAI 正在涉足複雜的領域。 OpenAI 的非營利組織OpenAI 向杜克大學(Duke University)的研究人員提供了一筆名為”人工智慧道德研究”(Research AI Morality)計畫的研究經費。 這項工作隸屬於一項更大的計劃,該計劃在三年內提供100 萬美元,用於研究如何讓人工智慧具有道德意識。
該計畫由實踐倫理學專業教授沃爾特-辛諾特-阿姆斯特朗(Walter Sinnott-Armstrong)和雅娜-斯凱奇-博格(Jana Schaich Borg)領導,兩人在人工智慧如何處理道德決策方面的工作都得到了認可。 辛諾特-阿姆斯壯(Sinnott-Armstrong)在哲學領域大名鼎鼎,他深入研究了應用倫理、道德心理學和神經科學等領域。 他在杜克大學的團隊致力於解決現實世界中的兩難問題,例如設計演算法來決定誰應該接受器官移植,權衡公眾和專家的觀點來完善這些系統的公平性。
由OpenAI資助的計畫旨在創建一種演算法,預測人類在醫學、法律和商業等領域的道德判斷。 雖然這聽起來很有希望,但歷史顯示這並非易事。 以艾倫人工智慧研究所的Ask Delphi 為例,它旨在提供道德答案。 雖然它能夠解決簡單的兩難問題,但只要改變問題的措辭,就很容易被誘騙做出道德上可疑的回答。
限制源自於人工智慧的運作方式: 機器學習模型根據訓練資料預測結果,而訓練資料往往反映了主流文化的偏見。 這個問題引發了人們對人工智慧能否真正”合乎道德”的極大擔憂,尤其是在不同社會的道德觀各不相同,且缺乏普遍接受的框架的情況下。
人工智慧能否以有意義的方式與人類價值觀保持一致,甚至是否應該保持一致,仍然是一個懸而未決的問題。 但是,如果能做到這一點,其影響可能是深遠的,它將影響我們在道德決策中如何信任機器。 現在,世界可能要等到2025 年,也就是這項基金結束時,才能知道這個”道德人工智慧”計畫是否取得了突破性進展。