ChatGPT vs. 人類:即使語言學專家也分不清誰寫了什麼
南佛羅里達大學的一位助理教授最近與人合著的一項研究表明,即使是語言學專家也很難區分人工智能撰寫的文章和人類撰寫的文章。這項發表在《應用語言學研究方法》(Research Methods in Applied Linguistics)雜誌上的研究結果表明,來自全球頂級期刊的語言學專家只有約39%的時間能夠準確區分人工智能和人類撰寫的摘要。
研究顯示,語言學專家很難區分人工智能和人類生成的文章,正面識別率僅為38.9%。儘管他們的選擇背後有邏輯推理,但卻經常出現錯誤,這表明人工智能生成的簡短文本也可以像人類寫作一樣勝任。
南加大世界語言系學者馬修-凱斯勒(Matthew Kessler)說:”我們認為,如果有人能夠識別人類撰寫的文章,那就應該是語言學家,他們的職業生涯一直在研究語言模式和人類交流的其他方面。”
凱斯勒與孟菲斯大學應用語言學助理教授埃利奧特-卡薩爾(J. Elliott Casal)合作,讓72 位語言學專家審查各種研究摘要,以確定它們是由人工智能還是人類撰寫的。
每位專家被要求審查四份寫作樣本。沒有人能夠正確識別所有四個樣本,而有13% 的人則全部弄錯了。凱斯勒得出結論說,根據研究結果,如果沒有尚未開發出來的軟件幫助,教授們將無法區分學生自己的寫作或由人工智能驅動的語言模型(如ChatGPT)生成的寫作。
儘管專家們在研究中嘗試使用理由來判斷寫作樣本,比如識別某些語言和文體特徵,但他們基本上都沒有成功,總體正面識別率為38.9%。
凱斯勒說:”更有趣的是,當我們問他們為什麼要判定某篇文章是人工智能寫的還是人類寫的。他們分享了非常合乎邏輯的理由,但這些理由並不准確,也不一致” 。
在此基礎上,凱斯勒和卡薩爾得出結論:鑑於人工智能通常不會出現語法錯誤,ChatGPT 可以像大多數人類一樣寫出短篇體裁的文章,甚至在某些情況下會寫得更好。
對於人類作者來說,長篇寫作才是一線希望。凱斯勒說:”眾所周知,對於較長的文本,人工智能會產生幻覺,編造內容,從而更容易識別出這是人工智能生成的。”
凱斯勒希望這項研究能引發更廣泛的討論,圍繞在研究和教育中使用人工智能製定必要的道德規範和準則。