超級智能AI是否會悄悄湧現?新研究說倒不會那麼突然
人工智慧(AI)的超級智慧會突然出現,還是科學家會預測到它出現並有機會警告世人?隨著大語言模型(如ChatGPT)的崛起,這個問題最近受到了許多關注,這些人工智慧隨著體積增加而獲得了重大的新能力。有人指出了「湧現」現象,所謂人工智慧模型以不可思議的方式急速獲得智慧的現象。但最近一項研究稱這些情況是「幻景」——系統測試中出現的假象——並認為建立創新能力其實是漸進的過程。
「我認為他們說出來『沒發生什麼魔法事件』這一點做得很好。」Mozilla 基金會的計算科學家Deborah Raji說,她研究人工智慧審計。“這是一個很好的、很可靠且基於測量的批評。”
這項工作已於去年12月在新奧爾良舉行的NeurIPS機器學習會議上發表。
越大越好
大語言模型一般都是用海量文字或其他資訊進行訓練,透過預測接下來會發生什麼,來產生現實回答。就算沒有經過特定訓練,它們也能翻譯語言、解決數學問題,寫詩或計算程式碼。模型越大(有些有超過千億的可調參數),它表現就越好。一些研究者懷疑,這些工具最終可能實現通用人工智慧(AGI),在大多數任務上和人類表現相當,甚至超過人類。
這項新研究用一些方式測試了湧現的說法。其一是,科學家比較了4個規模的OpenAI GPT-3模型在四位數相加方面的能力。從絕對準確率來看,第三和第四大的模型之間的表現差異從接近0%到接近100%不等。但如果從答案中正確預測的位數來看,表現水準的差異就沒那麼極端了。研究者還發現,給模型許多測試問題也能壓平曲線——在這種情況下,較小的模型有時能正確解答。
然後研究者檢視了Google的LaMDA語言模型在一些任務中的表現。在檢測反諷或翻譯諺語時它表現出了急速增長的智力,這些通常是多選題,其回答的對錯是不連續的。但當研究者調查模型賦予每個答案的機率(一種連續的度量標準)時,湧現跡象就消失了。
最後,研究者調查了電腦視覺,這個領域不太有湧現的說法。他們訓練了模型壓縮然後重建圖像。但只要設定嚴格的正確性閾值,他們就能誘導出明顯的湧現。「他們設計調查的方式很有創意。」美國華盛頓大學的電腦科學家Yejin Choi說,她研究人工智慧與常識。
尚未排除
研究共同作者Sanmi Koyejo是史丹佛大學的電腦科學家,他說人們產生湧現的看法並不荒誕,因為有些系統表現出了意外的「階段改變」。他還指出,這項研究不能完全排除大語言模型出現這種情況的可能性(更不要說未來的系統了),但補充說,「迄今為止的科學研究有力地表明,語言模型的大多數方面還是確實可預測的。”
Raji很高興看到學術界更關注基準測試而非開發神經網路架構。她想要研究者能更進一步,提問這些任務與真實世界運用的關係。例如,像GPT-4一樣在LSAT(法學院入學考試)中成績優異,是否代表模型也能做律師助理的工作?
這項工作也對人工智慧安全和政策有所影響。「AGI 人群一直在吹噓湧現能力的說法。」Raji說。無端的恐懼可能會導致扼殺性的法規,或轉移人們對更緊迫風險的關注。「模型正在不斷進步,它們是有用的。」她說。“但它們離出現意識還遠。”