AI接近具備常識推理
名叫GPT-2的深度學習網絡最近因為能根據幾段提示就產生一整篇看起來合理的文章而名聲大振。AI研究員Gary Marcus於是對它進行一番測試,輸入了一句話“What happens when you stack kindling and logs in a fireplace and then drop some matches is that you typically start a …”如果它足夠聰明的話後面的文字顯然是“火(fire)”,但GPT-2的回答是“ick”。
Marcus對此並不感到意外,常識推理是AI領域的一大難題,困擾了AI研究人員數十年。他把結果發佈在Twitter上,還加了表示“笑死人”的縮略詞(LMAO)。GPT-2也許有令人影響深刻的語言模仿能力,但它缺乏基本常識。華盛頓大學的AI研究員 Yejin Choi在幾分鐘後看到了Marcus的帖子,她正準備發表演講談論利用GPT-2的系統COMET(預印本)去執行常識推理。她將Marcus寫的句子輸入到COMET,它產生了10個推斷,前兩個都與火相關。COMET將常識推理設想為一種對新輸入產生可信但可能不完美的反應的過程,而不是通過查閱類似百科全書的龐大數據庫去做出無懈可擊的推論。它嘗試將兩種基礎上差異巨大的方法融合進AI。