抽查用ChatGPT寫論文,該如何看待?
近日,江蘇省科技廳監督評估處處長顧俊在做客一檔媒體節目時表示,將組織開展科技人員公開發表論文的自查和主動抽查,並開展科技倫理審查,引導科技人員提高誠信意識。顧俊表示,ChatGPT能產生連貫的、有邏輯性文章的特性,提供了便利,但也可能被用來迴避論文查重問題,甚至列出虛構的參考文獻目錄,導致學術不端問題。
這不是一個新問題。幾乎從ChatGPT誕生之日起,圍繞著其對教育界和科技界可能帶來的衝擊,爭議聲就一直沒有斷過。比起主張「嚴禁ChatGPT入侵」者,和主張「積極擁抱新技術」者,一個越來越被接受的共識,是需要釐清ChatGPT的應用場景和邊界,劃定底線、明確規則,最大程度讓ChatGPT發揮正面作用、限制其負面影響。以科技人員發表論文為例,雖然這已經不是評估科技工作者學術科研水平的唯一標尺,但仍是檢驗學術成果、評估科研成色的重要標準之一,確保論文內容的原創性、創新性和撰寫的獨立性,仍是不可逾越的紅線。
透過自查與不定期抽查,更新學術不端的處理程序與標準,可以從技術手段上強化對已經發表論文的“體檢”,判斷論文的真偽性、原創性,讓科技人員不敢、不能劍走偏鋒;進行科技倫理審查,引導科技人員提高誠信意識,則抓住了使用新技術的人員這一核心要素,從思想覺悟上加強教育,讓其從內心真正做到遠離學術不端。在目前脈絡下,加強對核心人群的誠信教育和以技術手段完善監督機制,是防止科技人員使用ChatGPT寫論文的兩個重要面向。
目前,國內外許多大學已經開設了ChatGPT等相關課程,也鼓勵學生使用其完成部分作業,但對於使用ChatGPT寫論文,無一例外都是持禁止態度。暨南大學《暨南學報(哲學社會科學版)》、《天津師範大學學報(基礎教育版)》明確表示,暫不接受ChatGPT等任何大型語言模型工具單獨或聯合署名的文章。許多頂尖學術期刊也是如此,例如《自然》雜誌規定:禁止ChatGPT等任何大型語言模型工具成為論文作者,建議使用這些工具的研究人員在稿件中應特別說明使用了AI;《科學》雜誌明確表示不接受使用ChatGPT產生的論文,不允許ChatGPT作為論文作者,ChatGPT產生的論文等同於剽竊。
可見,從大學到頂尖權威期刊,從針對教育教學人員到所有科技人員,其治理邏輯都是一致的:審慎接受,嚴格限制使用。無論是從保障論文創新價值來看,或是從維護科研人員的公平競爭上看,亦或從確保科研成果真正服務於社會進步上看,這種嚴格規範的管理都是應有之義。
雖然目前我國尚未正式推出有關應對ChatGPT帶來問題的措施,但並不意味著沒有相關管理。例如,去年3月,中辦、國辦印發《關於加強科技倫理治理的意見》,將人工智慧視為需要加強科技倫理治理的重點領域之一。今年4月,國家網路資訊辦公室發布《生成式人工智慧服務管理辦法(徵求意見稿)》,其中擬規定:提供生成式人工智慧產品或服務,應尊重智慧財產權、商業道德;用於生成式人工智慧產品的預訓練、優化訓練數據,應不含侵犯智慧財產權的內容。
尤其值得一提的是,8月28日,學位法草案提請十四屆全國人大常委會審議。其中,對學位得主利用人工智慧代寫學位論文等行為,明確了相應的法律責任:經學位評定委員會審議決定由學位授予單位撤銷學位證書。這傳遞出的訊號再明顯不過:以法律威嚴,堅決捍衛學位論文不被人工智慧「入侵」。
在今天,ChatGPT作為一款功能強大、應用廣泛的新技術,我們固然不應對其一味排斥和迴避,但說到底,它仍是人創造出來的、服務於人類的工具,且它本身是中性的,如何使用取決於我們自己。相信隨著時間的推移,相關管理治理的製度措施也會愈發完善,最終讓ChatGPT在遵循科技倫理、知識產權和學術嚴肅權威等各領域各行業規則的基礎上,更好發揮優勢,服務於人類和社會的發展進步。