或被撤銷學位證AI立法能否解決學術道德問題?
當前,AI的熱潮正逐漸滲透至每個行業。到了畢業季、考試季,在社交平台上有“AI寫論文真快”“AI寫作也太絕了”等等經驗分享帖層出不窮。在網友眼裡,AI能夠快速生成大綱、歸納觀點,能夠幫助使用者省時省力地創造論文。
且不論AI到底是不是寫論文的神器,僅僅是AI代寫論文是否能夠受到認可的事情就足以引起討論。近日,我國擬立學位法,未來AI代寫論文能否獲得肯定或將有結論。
AI代寫論文或被撤銷學位
8月28日,學位法草案提請十四屆全國人大常委會第五次會議初次審議。其中,草案對學位獲得者利用人工智能代寫學位論文等行為,明確了相應的法律責任:經學位評定委員會審議決定由學位授予單位撤銷學位證書。
草案明確,已經獲得學位者,在獲得該學位過程中有下列情形之一的,經學位評定委員會審議決定,由學位授予單位撤銷學位證書:學位論文或者實踐成果存在抄襲、剽竊、偽造、數據造假、人工智能代寫等學術不端行為的;盜用、冒用他人身份,頂替他人取得的入學資格,或者以徇私舞弊等非法手段取得入學資格、畢業證書的;在學習期間存在不應當授予學位的其他違法違規行為的。
近一年來,生成式人工智能、多模態預訓練大模型橫空出世,在驚艷眾人的同時也影響到多行多業,連象牙塔也不例外。從媒體報導來看,AI已滲透學術訓練、學業評價等多個環節,如何看待AI對於教育的影響,也成為需要重視的問題。
儘管由AI“參與”的論文寫作尚未得到定性,有觀點認為AI不具備學術能力,只是筆替的角色,也有觀點認為“寫”始終是論文創作中不可分割的整體,但由AI帶來的學術造假、輿論安全風險等卻早已引關注。
2023年1月27日,法國一流大學巴黎政治學院向全體師生髮電郵,宣布禁止使用ChatGPT,以防欺詐和抄襲。香港大學則成為香港首所明文禁止在課堂等教學行為中使用ChatGPT或其他人工智能工具的大學。
此外,全國中文核心期刊、CSSCI核心庫期刊《暨南學報(哲學社會科學版)》在關於使用人工智能寫作工具的說明中提到,暫不接受任何大型語言模型工具(例如:ChatGPT)單獨或聯合署名的文章。在論文創作中使用過相關工具,需單獨提出,並在文章中詳細解釋如何使用以及論證作者自身的創造性。如有隱瞞使用情況,將對文章作直接退稿或撤稿處理。對於引用人工智能寫作工具的文章作為參考文獻的,需請作者提供詳細的引用論證。
對於此次草案的提出,全聯併購公會信用管理委員會專家安光勇認為,《學位法》草案的提出標誌著中國政府對於學術誠信和學位獲得的重視,旨在規範學位授予過程中的不端行為,保障學術的公平性和高質量。這一舉措有利於提升學術誠信意識、淨化學術環境、加強學位授予程序、整頓學術代寫行業等。
生成式AI 並非萬能工具
當前,市面上AI代寫工具五花八門,生成式AI只需一些提示即可快速生成內容,能在一定程度上輔助學生完成寫作,實現有效助力,但AI 或許也並非萬能。
財經網科技留意到,以某款AI論文工具為例,只需輸入論文標題,就可以得到一篇範文以及查重報告,其報價為78元/篇,若還需開題報告、任務書等增值服務,則需每項單獨額外支付9.9元。
該AI論文工具網站內容顯示:文件下載流程:支付寶/微信打開賬單,找到對應的支付記錄,點開詳情頁複製訂單號/交易單號後,查詢結果輸入編號即可下載對應的文件。
東南大學經濟管理學院教授吳芃曾對媒體指出,她早發現不少學生正借助AI工具完成論文或者課程作業。在她看來,論文寫作過程中的繁瑣和耗時常常令學生感到挑戰重重,而AI工具在提高論文寫作效率方面具有得天獨厚的優勢。如果學生善於運用AI工具,將有利於提升學生的綜合能力、提高論文質量。但AI工具數據分析、模型搭建、思路創新方面仍顯不足。僅僅依靠AI工具,學生並不能完成一篇高質量的論文。
2022年,即將參加答辯的李琳被室友安利了一款AI寫作工具。她稱,自己當時想偷懶,於是大手一揮就花了48元買了高級版,擺弄了一天終於有一篇大致覺得還可以的,於是便收拾行李回家。“沒想到後來仔細看的時候,發現法律不是最新的,不能用,有些還牛頭不對馬嘴,又花了19元生成的還是不行,最後還是自己熬夜通宵自己手動寫論文。”
在上海的沈雨則嘗試過更多AI論文工具。她表示,在寫開題報告時,她用一款工具續寫,結果導師直接說一半的內容語意雜糅,自己幾乎重寫了一遍。“有的就是有bug、非常卡,還有一款是主打降重,但根本沒用,甚至出現降重前55%、降重後76%的情況。”
學術道德與法律責任規範化箭在弦上
隨著ChatGPT掀起的AI熱潮席捲全球,越來越多AI應用開始遍地開花,隨之帶來了以假亂真等一系列問題,而學術訓練也面臨著技術變革所帶來的考驗。
當前,有大量學術論文在使用新一代大模型所支持的API開發工具產出,產生了較為嚴重的學術風險和產權確定等難題。自2022年開始,全球學術界掀起了針對ChatGPT的學術道德與法律責任的規範化行動,而今國內也加速了對風險的深刻認知。
立法能否解決相關問題,是否會遇到難點?在安光勇看來,鑑別AI生成的論文可能會變得越來越困難,尤其是當AI的寫作質量逐漸接近人類寫作水平時。然而,一些特定的模式、格式或語言使用可能會透露出AI生成的痕跡。
“確定AI參與論文寫作的標準可能是一個挑戰,”安光勇指出,通常情況下,簡單的語言潤色、資料查詢以及數據計算可能被視為正常輔助行為。然而,如果AI在思維、創意和文章主要內容上發揮了決定性作用,可能會被視為違規。總之,對於如何看待AI在學術領域的使用以及製定相關法律法規,目前尚無明確標準答案。
在獨立國際研究策略員陳佳看來,Open AI的大模型開發工具GPT已經打開了潘多拉魔盒,要想實現法律治理目標有著諸多現實難題:首先,從技術層面分析,短期內強人工智能與技術監管之間道高一尺魔高一丈的現象,恐怕還要持續相當長的一段時間;其次,越來越快的技術換代這導致監管目標定位往往產生嚴重失錨現象,短期內存在大量科技監管與學術研究的灰色地帶;再者,AGI本質上是一把雙刃劍,如果全面封禁則會造成比較嚴重的學術研究與科技進步機會成本;另外,真正的學術監管難題不在於道德原則和法律精神,而在於如何精準度量。
他表示,AGI科技監管最終還得要靠AGI監管技術進步與創新,利用API開發工具來追踪學生中期論文使用API工具的路徑與痕跡是一條正確的學術道德治理之路,但對學術監管的技術能力與發展速度都提出來極高的要求。
“在浩如煙海的學術論文中分辨究竟有多少借鑒、引用或者抄襲並不容易。法律法規寫入條款不過幾十上百字,要能夠讓實踐檢驗有效履行,則需要多年的經驗、教訓、技術與理念的厚積薄發。AGI產生的全球學術倫理道德衝突是全新的問題,學術界全面實現科學法治之路還任重道遠。” 陳佳表示。
文|丁一
編輯|靖程