「幻覺」被選為《劍橋字典》年度詞彙
《劍橋字典》2023 年的年度詞彙是”hallucinate”(幻覺)–這個動詞在今年增加了一個新的意義。該詞的原始定義是”似乎看到、聽到、感覺到或聞到”不存在的東西,通常是因為”健康狀況或服用了藥物”。現在,這個詞又多了一層意義,即人工智慧系統(如ChatGPT)在產生模仿人類書寫的文本時,會產生”幻覺”並產生虛假訊息。
字典網站上的一篇文章稱,之所以選擇這個詞,是因為它的新意義”直指人們談論人工智慧的核心原因”。生成式人工智慧是一種”強大”但”遠非完美”的工具,”我們仍在學習如何安全有效地與之互動–這意味著既要認識到它的潛在優勢,也要認識到它目前的弱點”。
字典今年增加了許多與人工智慧相關的詞條,包括大型語言模型(或LLM)、生成式人工智慧(或GenAI)和GPT(生成式預訓練轉換器的縮寫)。
“人工智慧的幻覺提醒我們,人類在使用這些工具時仍需具備批判性思考能力。”大型語言模型的可靠性取決於其演算法所學到的信息。可以說,人類的專業知識比以往任何時候都更加重要,因為只有這樣,才能創造出權威的最新訊息,供LLM 訓練使用。
圖為生成式AI在報導時事時出現”幻覺”的例子
“人工智慧”被柯林斯字典評為2023 年最值得關注的詞彙
劍橋大學的人工智慧倫理學家亨利-謝夫林(Henry Shevlin)說,令人”震驚”的是,詞典團隊沒有選擇”glitch”或”bugs”這樣的計算機專用詞來描述法律碩士們所犯的錯誤,而是決定使用一個”生動的心理動詞”。他說,這可能是因為”人們很容易將這些系統擬人化,把它們當作有自己思想的系統”。
謝夫林還說,今年可能會成為人工智慧幻覺”擔憂的高點”,因為人工智慧公司正在努力透過吸取人類的反饋意見來遏制錯誤的發生頻率,用戶也在了解哪些任務可以信任人工智慧,而且人工智慧模型正變得越來越專業化。
字典提供了兩個與人工智慧相關的”幻覺”用法範例:”法學碩士因產生AI幻覺而臭名昭著–生成完全錯誤的答案,通常還輔以虛構的引文”,以及”最新版本的聊天機器人有了很大改進,但仍會產生幻覺”。
在劍橋做出這項決定之前,柯林斯字典將其年度詞彙命名為”人工智慧”。