有大學教師正在使用AI為論文評分專家提出倫理方面的擔憂
當伊薩卡學院的策略傳播學教授戴安娜-蓋斯基(Diane Gayeski)收到學生的作文時,她會透過ChatGPT 運行其中的一部分,請人工智慧工具進行點評,並提出如何改進作品的建議。她告訴美國有線電視新聞網(CNN):「看待人工智慧評分的最佳方式是將其視為助教或助研,他們可能會進行第一遍評分……而人工智慧在這方面做得相當不錯。”
她會向學生展示ChatGPT 的回饋,以及該工具是如何改寫他們的作文的。她說:「我也會分享我對他們介紹的看法,然後我們一起討論。」蓋斯基要求她班上的15 名學生也這樣做:透過ChatGPT 運行他們的草稿,可以發現哪裡可以改進。
人工智慧的出現正在重塑教育,它帶來了實實在在的好處,例如將一些任務自動化,從而騰出時間進行更個性化的教學,但同時也帶來了一些巨大的隱患,從圍繞準確性和剽竊的問題到維護誠信的問題。
教師和學生都在使用新科技。由學術剽竊檢測平台Turnitin 贊助的策略顧問公司Tyton Partners 的報告發現,2023 年秋季,半數大學生使用了人工智慧工具。同時,雖然使用人工智慧的教師人數較少,但2023年秋季,使用人工智慧的教師比例從2023年春季的9%增加至22%。
教師們正在求助於人工智慧工具和平台,如ChatGPT、Writable、Grammarly 和EssayGrader 等,來幫助他們批改考卷、撰寫回饋、制定教學計畫和佈置作業。他們還利用這些新興工具創建測驗、投票、視頻和互動,以”提高課堂預期”。
另一方面,學生則依賴ChatGPT 和Microsoft CoPilot 等工具,這些工具內建於Word、PowerPoint 和其他產品中。
不過,雖然有些學校已經制定了學生可以或不可以在學校作業中使用人工智慧的政策,但許多學校並沒有為教師制定指導方針。使用人工智慧撰寫回饋或批改作業的做法也會引發道德方面的考慮。而已經在學費上花費了數十萬美元的家長和學生可能會懷疑,在大學裡無休止地使用人工智慧生成和人工智慧評分內容的反饋循環是否值得花費時間和金錢。
蓋斯基說:”如果教師只用它來評分,而學生只用它來製作最終產品,那麼它就不會起作用。”
維吉尼亞大學(University of Virginia)商業倫理教授多蘿西-萊德納(Dorothy Leidner)認為,教師如何使用人工智慧取決於許多因素,尤其是在評分時。她認為如果大班測驗的材料主要是陳述性知識,因此有明確的對錯,那麼教師使用人工智慧評分”甚至可能優於人類評分”,人工智慧可以讓教師更快、更一致地批改試卷,避免疲勞或厭煩。
萊斯利-雷恩教導她的學生如何更好地使用ChatGPT,但她對一些教育工作者如何使用ChatGPT 給論文評分錶示不滿。
但萊德納指出,當涉及小班教學或答案不那麼明確的作業時,評分應保持個人化,這樣教師才能提供更具體的回饋,了解學生的作業,從而了解學生在一段時間內的進步。老師應該負責評分,但也可以讓人工智慧承擔一些責任。
她建議教師使用人工智慧來查看某些指標,如結構、語言使用和語法,並根據這些數據給出一個數字分數。但是,教師應該自己對學生的作品進行評分,以考察其新穎性、創造性和見解深度。
萊斯利-萊恩(Leslie Layne)在弗吉尼亞州林奇堡大學的寫作工作坊中教授ChatGPT 最佳實踐,她說,她看到了教師的優勢,但也看到了缺點。
她說:”使用並非真正來自我的反饋意見似乎有點破壞了這種關係。”她還認為,將學生的作品上傳到ChatGPT 是一個”巨大的道德考慮”,有可能侵犯他們的知識產權。像ChatGPT 這樣的人工智慧工具會利用這些作品來訓練它們的演算法,從說話模式到如何造句,再到事實和數字無所不包。
倫理學教授萊德納對此表示贊同,他說博士論文和碩士論文尤其應該避免這種情況,因為學生可能希望發表作品。她說:”在沒有事先告知學生的情況下將資料上傳到人工智慧中是不對的。也許還需要徵得學生的同意”。
一些教師正在使用名為Writable 的軟體,該軟體使用ChatGPT 幫助批改論文,但採用了”標記化”技術,因此論文不包含任何個人信息,也不會直接與系統共享。
該平台最近被教育公司Houghton Mifflin Harcourt 收購。
其他教育工作者正在使用Turnitin等平台,這些平台擁有剽竊檢測工具,幫助教師辨識作業是否由ChatGPT 和其他人工智慧撰寫。但這類檢測工具遠非萬無一失;OpenAI 去年關閉了自己的人工智慧檢測工具,因為該公司稱其”準確率很低”。
一些學校正在積極制定針對教師和學生的政策。約翰霍普金斯大學教育研究與改革中心(CRRE)的助理研究員艾倫-里德(Alan Reid)說,他最近花時間與K-12教育工作者一起工作,這些教育工作者使用GPT工具在成績單上建立季度末個人化評語。
但與萊恩一樣,他也承認該技術撰寫有見地的回饋意見的能力仍然”有限”。他目前是所在學院一個委員會的成員,該委員會正在為教職員工製定一項人工智慧政策;討論正在進行中,不僅是關於教師如何在課堂上使用人工智慧,還包括一般教育工作者如何使用人工智慧。
他承認,學校正在就使用生成式人工智慧工具創建晉升和終身教職檔案、績效考核和職位發布等內容進行對話”。
林奇堡大學(University of Lynchburg)哲學副教授尼古拉斯-弗蘭克(Nicolas Frank)說,大學和教授在政策方面需要保持一致,但也需要保持謹慎。他說:「在現階段製定有關人工智慧的政策非常危險。」他擔心,現在了解人工智慧將如何融入日常生活還為時過早。他也擔心,一些不在課堂上授課的管理者所製定的政策可能會忽略教學中的細微差別。 “這可能會造成將人工智慧用於評分和教學的問題過於簡單化的危險,過度簡化就是製定糟糕政策的方式”。
“首先,教育工作者可以識別人工智慧的明顯濫用,並開始圍繞這些濫用制定政策。”萊德納表示,”大學可以提供非常高水平的指導,例如將透明度作為優先事項–這樣學生就有權知道人工智慧何時被用於給他們的作業打分–並確定哪些類型的信息絕不能上傳到人工智能中,也不能向人工智能詢問。大學也必須持開放態度,”隨著技術和用途的發展,定期進行重新評估”。