語言AI原來知道自己的回答是否正確
語言AI,具備了人類的自我審視能力:最近,一個來自加州大學伯克利分校和霍普金斯大學的學術團隊研究表明:它不僅能判斷自己的答案正確與否,而且經過訓練,還能預測自己知道一個問題答案的概率。
研究成果一經發布,就引起熱議,有人的第一反應是恐慌:
也有人認為,這項成果,對神經網絡研究具有正面意義:
語言AI具備自我審視能力
研究團隊認為,如果要讓語言AI模型自我評估,必須有一個前提:
語言AI回答問題時,會校準自己的答案。
這裡的校準,就是語言AI預測一個答案的正確概率,是否與實際發生的概率一致。
只有這樣語言AI才可以運用這種校準的能力來評估自己輸出的答案是否正確。
所以第一個問題是,語言AI能否對自己的答案進行校準?
為了證明這個問題,研究團隊為AI準備了5個選擇題:
答案選項,以A、B、C的形式給出。
如果AI模型答案的正確率超過偶然機率,那麼就證明AI模型給出的答案是經過校準的。
而測試的結果是,語言AI給出的答案,正確率明顯超過任意選項的偶然機率。
也就是說,語言AI模型可以對自己的答案進行很好的校準。
但研究團隊發現,語言AI的校準能力,是建立在選項答案明確的前提下的。
如果在選項中加入一個“以上都不是”的不確定選項,就會損害語言AI的校準能力。
也就是說,在特定格式的選擇題中,語言AI模型可以對答案進行很好的校準。
明確了這個前提之後,下一個問題是,驗證語言AI模型能夠判斷自己的答案是否正確。
在這一輪的測試中,為了能讓AI模型的預測更接近自己的有效決策邊界。
研究團隊仍然選擇上一輪測試的問題,以及語言AI模型的答案樣本。
同時讓AI模型選擇自己的答案真假與否,之後再針對這個“真”或“假”的答案,分析AI模型是否做出有效的校準。
問題設置舉例如下:
在經過20次的真假測試之後,研究團隊發現,語言AI模型對自己答案或“真”或“假”的評價,都經過明顯的校準。
也就是說,如果在一個範圍內,給AI模型提出若干問題,然後AI模型對這些問題的答案進行真假評價,具有合理的,且經過校準的置信度。
這也證明,語言AI模型確實可以判斷自己對一個問題的主張是否正確。
最後,研究團隊對語言AI模型提出了一個更難的問題:AI模型經過訓練,能否預測他們是否知道任何給定問題的答案。
在這一環節,研究團引入一個數據P(IK)(我知道這個答案的概率)並在下面兩種訓練方式中挑選一種進行訓練:
Value Head(價值導向):把P(IK)訓練成為一個額外的價值導向,再添加到模型的對數(獨立於語言建模的對數,這種方法的優勢在於,研究團隊可以很容易的探測P(IK)的一般標記位置。
Natural Language(自然語言):這種方法比較簡單,就是要求AI模型從字面上回答“你知道這個答案的概率是多少”,同時輸出一個百分比數據答案。
在训练初期,研究团队比较倾向于自然语言训练方式,但结果并不显著,由此转向价值导向方式,不过研究团队同时表示,最终对AI模型的训练还将回归自然语言方法。
在經過訓練之後,研究團隊發現,語言AI模型可以很好的預測P(IK),並且在不同類型的問題中,這種預測能力具有部分通用性。
不過,研究團隊也發現,在某些類型的問題,比如算術問題,語言AI模型在OOD校準時有一些困難。
對於這一學術成果,研究團隊表示,將來的方向,是將這些成果,推廣到語言AI模型不模仿人類文本的前提下,自我學習和事實推理領域。
作者介紹
論文通訊作者Jared Kaplan博士,是一位理論物理學家,同時也是一位機器學習專家,現擔任霍普金斯大學助理教授,主要研究領域,機器學習研究,包括神經模型的縮放規律以及GPT-3語言模型。
共同通訊作者Saurav Kadavath,Anthropic公司研究員,現在加州大學伯克利分校EECS專業攻讀碩士學位,主要研究領域是機器學習,大規模語言學習等。