聊天神器ChatGPT還有這本事:“撰寫”論文摘要竟能騙過專家
據預印本平台bioRxiv12月底發布的一份預印報告顯示,一篇由人工智能(AI)聊天機器人寫出的研究論文摘要,甚至最終能騙過專家審核。這一報告一經發出就受到人們的廣泛關注,研究人員對該AI機器人的影響力有著巨大爭議。
聊天機器人ChatGPT的所有者是一家位於舊金山的軟件公司OpenAI,該公司於11月30日發布了這款AI工具,並提供了免費試用。
ChatGPT可以根據用戶的提示創建實際且智能的文本。它是一個“大型語言模型”,是一個基於神經網絡的系統,通過消化大量現有的人類生成的文本來學習並執行任務。
上週,有消息稱,美國科技巨頭微軟計劃向OpenAI投資高達100億美元,目前尚處於談判階段。
難以區分
自從它發布以來,由於該機器人的大部分輸出內容就很難與人工書寫出的文本進行區分,研究人員一直在努力解決圍繞其使用的倫理問題。
現在,伊利諾斯州西北大學Catherine Gao領導的一個小組已經開展了一項研究:使用ChatGPT生成研究論文摘要,以測試科學家是否能發現它們。
研究人員要求ChatGPT根據發表在四大醫學頂刊《美國醫學會雜誌》、《新英格蘭醫學雜誌》、《英國醫學雜誌》、《柳葉刀》以及《自然》子刊《自然醫學》上的精選文章,撰寫50篇醫學研究摘要。
隨後該小組通過抄襲檢測系統和人工智能輸出檢測器,將這些摘要與原始摘要混在一起匿名比較,要求一組醫學研究人員找出由ChatGPT輸出的摘要。
結果顯示,ChatGPT生成的摘要順利通過了抄襲檢查:其原創性平均得分為100%,這表明沒有檢測到抄襲。人工智能輸出檢測器發現了66%的由ChatGPT生成的摘要。
而人工審閱者錯誤地將32%的生成摘要識別為原始摘要。
重大爭議
Gao和他的同事在預印本報告中寫道,ChatGPT確實寫出了可信的科學摘要,不過使用大型語言模型來幫助科學方面的寫作,其道德界限和可接受程度仍有待商榷。
英國牛津大學技術和監管領域學者Sandra Wachter不是此次研究的參與者,但是她對此表示非常擔心。她補充道,“如果我們現在處於連專家都無法判斷真假的情況下,那麼我們就不會再看到那些能夠在復雜話題中指導我們的論文摘要。”
Wachter提醒道,如果由ChatGPT生成的論文內容無法確定是否正確,那可能會有“可怕的後果”。這不光會給研究人員帶來重大問題,因為他們閱讀的研究是被捏造出來的;而且對整個社會也有影響,因為科學研究在社會中扮演著重要角色。
Wachter警告,更嚴重的或許導致基於研究的政策決定出現失誤。
新澤西州普林斯頓大學的計算機科學家Arvind Narayanan認為,“任何嚴肅的科學家都不太可能使用ChatGPT來生成摘要。”
他补充道,“问题在于,该工具能否生成准确而令人信服的摘要。若是不能,那它的缺点是显著的。”
Narayanan還表態,此類問題的解決方案不在ChatGPT本身,而是應該集中在導致這種行為的不良動機上,例如招聘和晉升審查時只看論文的量、而不看質。
人工智能公司Hugging Face研究人員Irene Solaiman則認為,“這些AI模型是根據過去的信息進行訓練的,而社會和科學的進步往往來自於與過去不同的思維,或開放思維。”
Solaiman補充說,在醫學等關鍵領域,假信息可能危及人類的安全,所以一些期刊必須採取更嚴格的方法來驗證信息的準確性。
該預印報告的研究小組建議,那些評估科學傳播的人士應該制定政策,杜絕使用人工智能生成的文本。而要是機構選擇允許在某些情況下使用該技術,他們應該就披露建立明確的規則。