世界上最大的學術出版商認為ChatGPT不能被標記為作者
世界上最大的學術出版商施普林格-自然(Springer Nature)已經澄清了其在科學論文中使用人工智能寫作工具的政策。該公司本周宣布,像ChatGPT這樣的軟件在其數千種期刊上發表的論文中不能被記為作者身份。然而,斯普林格公司表示,他們對科學家使用人工智能來幫助寫作或產生研究想法沒有異議,只要作者適當披露這種貢獻。
施普林格-自然的旗艦出版物《自然》的主編Magdalena Skipper表示:”我們現在不得不澄清我們的立場:為我們的作者,為我們的編輯,也為我們自己。這種新一代的LLM工具–包括ChatGPT產生的內容真的在社區中爆發了,社區理所當然地對它們感到興奮和玩味,但[也]以超出目前真正可以使用的方式來使用它們。”
ChatGPT和早期的大型語言模型(LLMs)已經在少量發表的論文、預印本和科學文章中被列為作者,然而,這些工具的貢獻的性質和程度因個案而異。
在《腫瘤科學》雜誌上發表的一篇觀點文章中,ChatGPT被用來論證在帕斯卡爾賭注的背景下服用某種藥物,並明確標註了人工智能生成的文本。但在一篇研究機器人通過美國醫學執照考試(USMLE)能力的預印本論文中,對機器人貢獻的唯一承認是一句話,稱該程序”為本稿的幾個部分的寫作做出了貢獻”。
在後者的預印本論文中沒有提供進一步的細節,說明ChatGPT是如何或在哪裡被用來生成文本的。然而,資助這項研究的公司–醫療保健創業公司Ansible Health的首席執行官認為,該機器人做出了重大貢獻。Ansible Health首席執行官Jack Po表示:”我們之所以把[ChatGPT]列為作者,是因為我們相信它實際上對論文的內容做出了智力上的貢獻,而不僅僅是作為一個評估對象。”
科學界對將ChatGPT作為作者的論文的反應主要是負面的,社交媒體用戶稱USMLE案例中的決定是”荒謬的”、”愚蠢的”、”非常愚蠢的”。
反對給予人工智能作者資格的論點是,軟件根本無法履行所需的職責,正如Skipper和Nature Springer解釋的那樣。Skipper說:”當我們想到科學論文、研究論文的作者資格時,我們不只是想到寫論文。有一些責任是超越出版的,當然,目前這些人工智能工具還不能承擔這些責任。”軟件不能對一份出版物進行有意義的問責,它不能為其工作主張知識產權,也不能與其他科學家和媒體通信以解釋和回答關於其工作的問題。
如果在將人工智能作為作者的問題上有廣泛的共識,那麼在使用人工智能工具撰寫論文的問題上就不那麼明確了,即使有適當的致謝。這部分是由於這些工具的輸出存在有據可查的問題。人工智能寫作軟件可以放大社會偏見,如性別歧視和種族主義,並有產生”合理的廢話”的傾向–將不正確的信息作為事實呈現。
正是因為有這樣的問題,一些組織已經禁止在特定範圍內使用ChatGPT,包括學校、學院和依賴分享可靠信息的網站,如編程問答庫StackOverflow。本月早些時候,一個關於機器學習的頂級學術會議禁止使用所有人工智能工具來撰寫論文,儘管它確實說作者可以使用此類軟件來”打磨”和”編輯”他們的作品。寫作和編輯之間的界限到底在哪裡是很棘手的,但對於《自然-斯普林格》來說,這種使用情況也是可以接受的。
“我們的政策非常明確:我們不禁止將其作為撰寫論文的工具,”Skipper說,”最根本的是,要有明確的規定。關於一篇論文是如何組成的,以及使用什麼[軟件]。我們需要透明度,因為這正是科學應該如何完成和交流的核心所在。”
鑑於人工智能可用於廣泛的應用,這一點尤其重要。人工智能工具不僅可以生成和轉述文本,還可以迭代實驗設計,或者用來碰撞思想,就像機器實驗室夥伴一樣。像Semantic Scholar這樣由人工智能驅動的軟件可以用來搜索研究論文並總結其內容。Skipper指出,”另一個機會是使用人工智能寫作工具來幫助那些英語不是其第一語言的研究人員。從這個角度來看,它可能是一種有用而過程中沒有太大爭議的工具。”
“在科學工作中禁止人工智能工具將是無濟於事的,我認為我們可以有把握地說,直接禁止任何東西都是無效的。她說,相反,科學界–包括研究人員、出版商和會議組織者–需要走到一起,制定新的披露規範和安全護欄。作為一個社區,我們有責任關注積極的用途和潛力,然後規範和遏制潛在的濫用。我很樂觀,我們可以做到這一點。”