研究發現ChatGPT可以影響用戶的道德判斷
根據發表在《科學報告》上的一項研究,人類對道德困境的反應可以由人工智能聊天機器人ChatGPT的聲明來塑造。結果顯示,人們可能沒有完全意識到聊天機器人對其道德決策的影響。
研究發現,ChatGPT可以影響人類對道德困境的反應,用戶往往低估了聊天機器人對他們判斷的影響程度。研究人員表示,這凸顯出需要更好地理解人工智能,開發出能更謹慎地處理道德問題的聊天機器人。
Sebastian Krügel和他的團隊向ChatGPT(由人工智能語言處理模型Generative Pretrained Transformer 3驅動)提出了一個道德難題,多次詢問它是否可以接受犧牲一條生命來拯救其他五條生命。他們發現ChatGPT產生的聲明既支持又反對犧牲一條生命的行為,顯示出它並不偏向於某種特定的道德立場。
然後,作者向767名平均年齡為39歲的美國參與者展示了兩個道德困境中的一個,要求他們選擇是否犧牲一個人的生命來拯救其他五個人。在回答之前,參與者閱讀由ChatGPT提供的聲明,支持或反對犧牲一個人的生命來拯救五個人。聲明是由道德顧問或ChatGPT提供的。回答後,參與者被問及他們閱讀的聲明是否影響了他們的答案。
作者發現,參與者更有可能認為犧牲一個人的生命來挽救五個人的生命是可以接受或不可接受的,這取決於他們讀到的聲明是支持還是反對這種犧牲。即使聲明是由ChatGPT提供的,情況也是如此。這些發現表明,參與者可能受到了他們所讀到的聲明的影響,即使這些聲明是由一個聊天機器人提供的。
80%的參與者報告說,他們的答案沒有受到他們所讀的聲明的影響。然而,作者發現,參與者認為他們在沒有閱讀聲明的情況下會提供的答案,仍然更有可能同意他們確實閱讀過的聲明的道德立場,而不是相反的立場。這表明,參與者可能低估了ChatGPT的聲明對他們自己的道德判斷的影響。
作者認為,聊天機器人有可能影響人類的道德判斷,這突出了教育的必要性,以幫助人類更好地理解人工智能。他們建議,未來的研究可以設計聊天機器人,拒絕回答需要道德判斷的問題,或者通過提供多種論據和注意事項來回答這些問題。