研究發現GPT-4o道德推理能力已勝過人類專家
最新研究顯示,人工智慧在道德推理方面的能力可能已經超越了人類專家。在美國北卡羅來納大學教堂山分校和艾倫AI研究所的研究人員進行的兩項研究中,OpenAI的新型聊天機器人GPT-4o在提供道德建議方面,被認為品質優於公認的道德專家。
在第一項研究中,501名美國成年人對GPT-3.5-turbo模型與人類參與者提供的道德解釋進行了比較,結果顯示,GPT的解釋被認為更符合道德標準、更值得信賴,也更周到。
在第二項研究中,GPT-4o產生的建議與「倫理學家」專欄中著名倫理學家Kwame Anthony Appiah的建議進行了比較。
900名參與者對50個「倫理困境」的建議進行了評分,GPT-4o在幾乎所有方面都勝過了人類專家。
AI生成的建議被認為在道德上更正確、更值得信賴、更周到,並且在準確性方面也更勝一籌。
不過這項研究僅針對美國參與者進行,未來還需進一步研究以探討不同文化背景下人們對AI生成的道德推理的接受度。
儘管如此,這項發現已經引發了關於AI在道德和倫理決策中角色的重要討論,預示著人工智慧在這一領域的應用潛力。
研究人員提醒,儘管AI在道德推理方面表現出色,但仍需謹慎對待其建議,特別是在缺乏人類監督的情況下。