GPT-4王者加冕:讀圖做題性能炸天憑自己就能考上斯坦福
Open AI的GPT-4在萬眾矚目中閃亮登場,多模態功能太炸裂,簡直要閃瞎人類的雙眼。李飛飛高徒、斯坦福博士Jim Fan表示,GPT4憑藉如此強大的推理能力,已經可以自己考上斯坦福了!果然,能打敗昨天的Open AI的,只有今天的Open AI。
剛剛,Open AI震撼發布了大型多模態模型GPT-4,支持圖像和文本的輸入,並生成文本結果。
號稱史上最先進的AI系統!
GPT-4不僅有了眼睛可以看懂圖片,而且在各大考試包括GRE幾乎取得了滿分成績,橫掃各種benchmark,性能指標爆棚。
Open AI 花了6 個月的時間使用對抗性測試程序和ChatGPT 的經驗教訓對GPT-4 進行迭代調整,從而在真實性、可控性等方面取得了有史以來最好的結果。
大家都還記得,2月初時微軟和Google鏖戰三天,2月8日微軟發布ChatGPT版必應時,說法是必應’基於類ChatGPT技術’。
今天,謎底終於解開了——它背後的大模型,就是GPT-4!
圖靈獎三巨頭之一Geoffrey Hinton對此讚歎不已,’毛蟲吸取了營養之後,就會化繭為蝶。而人類提取了數十億個理解的金塊,GPT-4,就是人類的蝴蝶。’
順便提一句,ChatGPT Plus用戶現在可以先上手了。
考試幾乎滿分,性能躍遷炸天
在隨意談話中,GPT-3.5和GPT-4之間的區別是很微妙的。只有當任務的複雜性達到足夠的閾值時,差異就出現了,GPT-4比GPT-3.5 更可靠、更有創意,並且能夠處理更細微的指令。
為了了解這兩種模型之間的差異,Open AI在各種基準測試和一些為人類設計的模擬考試上進行了測試。
GPT-4在各種考試中,有幾個測試幾乎接近了滿分:
- USABO Semifinal 2020(美國生物奧林匹克競賽)
- GRE Writing
以美國BAR律師執照統考為例,GPT3.5可以達到10%水平,GPT4可以達到90%水平。生物奧林匹克競賽從GPT3.5的31%水平,直接飆升到99%水平。
此外,Open AI 還在為機器學習模型設計的傳統基准上評估了GPT-4。從實驗結果來看,GPT-4 大大優於現有的大型語言模型,以及大多數SOTA 模型:
另外,GPT-4在不同語種上的能力表現:中文的準確度大概在80% 左右,已經要優於GPT-3.5的英文表現了。
許多現有的ML 基準測試都是用英語編寫的。為了初步了解GPT-4其他語言的能力,研究人員使用Azure翻譯將MMLU 基準(一套涵蓋57個主題的14000個多項選擇題)翻譯成多種語言。
在測試的26 種語言的24 種中,GPT-4 優於GPT-3.5 和其他大語言模型(Chinchilla、PaLM)的英語語言性能:
Open AI表示在內部使用GPT-4,因此也關注大型語言模型在內容生成、銷售和編程等方面的應用效果。另外,內部人員還使用它來幫助人類評估人工智能輸出。
對此,李飛飛高徒、英偉達AI科學家Jim Fan點評道:’GPT-4最強的其實就是推理能力。它在GRE、SAT、法學院考試上的得分,幾乎和人類考生沒有區別。也就是說,GPT-4可以全靠自己考進斯坦福了。’
(Jim Fan自己就是斯坦福畢業的!)
網友:完了,GPT-4一發布,就不需要我們人類了……
讀圖做題小case,甚至比網友還懂梗
GPT-4此次升級的亮點,當然就是多模態。
GPT-4不僅能分析匯總圖文圖標,甚至還能讀懂梗圖,解釋梗在哪裡,為什麼好笑。從這個意義上說,它甚至能秒殺許多人類。
Open AI稱,GPT-4比以往模型都更具創造力和協作性。它可以生成、編輯和迭代用戶進行創意和技術寫作任務,例如創作歌曲、編寫劇本或學習用戶的寫作風格。
GPT-4可以將圖像作為輸入,並生成標題、分類和分析。比如給它一張食材圖,問它用這些食材能做什麼。
另外,GPT-4能夠處理超過25,000字的文本,允許用長形式的內容創建、擴展會話、文檔搜索和分析。
GPT-4在其先進的推理能力方面超過了ChatGPT。如下:
梗圖識別
比如,給它看一張奇怪的梗圖,然後問圖中搞笑在哪裡。
GPT-4拿到之後,會先分析一波圖片的內容,然後給出答案。
比如,逐圖分析下面這個。
GPT-4立馬反應過來:圖裡的這個’Lighting充電線’,看起來就是個又大又過氣的VGA接口,插在這個又小又現代的智能手機上,反差強烈。
再給出這麼一個梗圖,問問GPT-4梗在哪裡?
它流利地回答說:這個梗搞笑的地方在於’圖文不符’。
文字明明說是從太空拍攝的地球照片,然而,圖裡實際上只是一堆排列起來像地圖的雞塊。
GPT-4還能看懂漫畫:為什麼要給神經網絡加層數?
它一針見血地點出,這副漫畫諷刺了統計學習和神經網絡在提高模型性能方法上的差異。
圖表分析
格魯吉亞和西亞的平均每日肉類消費量總和是多少?在給出答案前,請提供循序漸進的推理。
果然,GPT-4清楚地列出了自己的解題步驟——
1.確定格魯吉亞的平均每日肉類消費量。
2.確定西亞的平均每日肉類消費量。
3.添加步驟1和2中的值。
做物理題
要求GPT-4解出巴黎綜合理工的一道物理題,測輻射熱計的輻射檢測原理。值得注意的是,這還是一道法語題。
GPT-4開始解題:要回答問題I.1.a,我們需要每個點的溫度T(x),用導電棒的橫坐標x表示。
隨後解題過程全程高能。
你以為這就是GPT-4能力的全部?
老闆Greg Brockman直接上線進行了演示,通過這個視頻你可以很直觀的感受到GPT-4的能力。
最驚豔的是,GPT-4對代碼的超強的理解能力,幫你生成代碼。
Greg直接在紙上畫了一個潦草的示意圖,拍個照,發給GPT說,給我按照這個佈局寫網頁代碼,就寫出來了。
另外,如果運行出錯了把錯誤信息,甚至錯誤信息截圖,扔給GPT-4都能幫你給出相應的提示。
網友直呼:GPT-4發布會,手把手教你怎麼取代程序員。
順便提一句,用GPT-4還可以進行報稅。要知道,每年美國人要花好多時間金錢在報稅上面。
訓練過程
和以前的GPT模型一樣,GPT-4基礎模型的訓練使用的是公開的互聯網數據以及Open AI授權的數據,目的是為了預測文檔中的下一個詞。
這些數據是一個基於互聯網的語料庫,其中包括對數學問題的正確/錯誤的解決方案,薄弱/強大的推理,自相矛盾/一致的聲明,足以代表了大量的意識形態和想法。
當用戶給出提示進行提問時,基礎模型可以做出各種各樣的反應,然而答案可能與用戶的意圖相差甚遠。
因此,為了使其與用戶的意圖保持一致,Open AI使用基於人類反饋的強化學習(RLHF)對模型的行為進行了微調。
不過,模型的能力似乎主要來自於預訓練過程,RLHF並不能提高考試成績(如果不主動進行強化,它實際上會降低考試成績)。
基礎模型需要提示工程,才能知道它應該回答問題,所以說,對模型的引導主要來自於訓練後的過程。
GPT-4模型的一大重點是建立了一個可預測擴展的深度學習棧。因為對於像GPT-4這樣的大型訓練,進行廣泛的特定模型調整是不可行的。
因此,Open AI團隊開發了基礎設施和優化,在多種規模下都有可預測的行為。
為了驗證這種可擴展性,研究人員提前準確地預測了GPT-4在內部代碼庫(不屬於訓練集)上的最終損失,方法是通過使用相同的方法訓練的模型進行推斷,但使用的計算量為1/10000。
現在,Open AI 可以準確地預測在訓練過程中優化的指標損失。例如從計算量為1/1000的模型中推斷並成功地預測了HumanEval數據集的一個子集的通過率:
還有些能力仍然難以預測。比如,Inverse Scaling競賽旨在找到一個隨著模型計算量的增加而變得更糟的指標,而hindsight neglect任務是獲勝者之一。但是GPT-4 扭轉了這一趨勢:
Open AI認為能夠準確預測未來的機器學習能力對於技術安全來說至關重要,但它並沒有得到足夠的重視。
而現在,Open AI正在投入更多精力開發相關方法,並呼籲業界共同努力。
貢獻名單
就在GPT-4發布的同時,Open AI還公開了GPT-4這份組織架構及人員清單。
上下滑動查看全部
北大陳寶權教授稱,
再好看的電影,最後的演職員名單也不會有人從頭看到尾。Open AI的這台戲連這個也不走尋常路。毫無疑問這將是一份不僅最被人閱讀,也被人仔細研究的’演職員’(貢獻者) 名單,而最大的看頭,是詳細的貢獻分類,幾乎就是一個粗略的部門設置架構了。
這個很’大膽’的公開其實意義挺深遠的,體現了Open AI背後的核心理念,也一定程度預示了未來進步的走向。