百度又搞了一個大動作:只要會說話,不寫程式碼也能開發
文心大模型4.0,半年時間又提升了52.5%,在智能體、程式碼、多模型上也有了新進展!像人一樣思考的智能體,達到了一定程度的白盒;智慧程式碼助理Comate,讓開發者動動嘴就能開發應用了。
文心大模型,又有新進展了!就在昨天,Create 2024百度AI開發者大會成功舉辦,又公佈了一波智能體、程式碼、多模型等方面的新進展。去年3月16日,文心一言發布,此後不斷迭代。基於更大的算力、更多的數據和更強的演算法,依托飛槳平台,文心已經從3.0、3.5,進化到了4.0版本。
AI智能體,像人一樣思考
毫無疑問,智能體是業界一致被看好的方向。
對此,百度CTO王海峰也表示,智能體會帶來更多的應用爆發。
而如今的百度智能體,已經學會像人一樣思考了!
在基礎模型上,它進一步進行了思考增強訓練,包括思考過程的監督精調、行為決策的偏好學習、結果反思的增強學習,進而得到思考模型。
於是,它學會了像人一樣閱讀說明書、學習工具試用,甚至還能呼叫工具完成任務。
為了詳細說明這個過程,我們可以參考《思考,快與慢》這本書中的理論。
人的認知系統,可以分為2個部分:系統1反應很快,但容易出錯。系統2反應慢,但更理性,更準確。
在強大的基礎大模型之上,百度的研發團隊進一步發展了系統2,包括理解、規劃、反思和演化。
這樣,智能體的思考過程在某種程度上就白盒化了,於是機器可以像人一樣思考和行動,自主完成複雜任務,持續學習,實現自主進化。
讓我們來具體感受一下,百度智能體的思考過程。
在文心大模型4.0工具版上,我們可以這樣提問——
“我要到大灣區出差一周。想了解一下天氣變化,好決定帶什麼衣服。請幫我查一下未來一周北京和深圳的溫度,告訴我出差應該帶什麼衣服,並整理成表格。”
接下來,它就會展示真正的技術了。
首先,它會呼叫一個「高級連網」工具,來查詢當地的天氣資訊。
然後,它會呼叫“程式碼解釋器”,來畫出一幅溫度趨勢圖。
根據未來一周的天氣,它選擇了合適的衣物。
最後,它也對結果進行了思考和確認,自動匯總成了一個表格。
整個過程中,它展現出了嫻熟的思考和規劃能力,有條不紊地把用戶需求拆解成多個子任務,一整套流程行雲流水。
不僅如此,從萬億級的訓練資料中,文心大模型學到的,除了自然語言能力外,還有程式碼能力。
程式碼智能體
顧名思義,這個智能體,能夠幫我們寫程式碼。
程式設計師和普通人的之間的壁壘,從此徹底打破,以前程式設計師才能做的事,現在人人都能做。
程式碼智能體,由思考模型和程式碼解釋器兩個部分組成。
首先,思考模型會先理解我們的需求,經過一番思考後,把完成任務的指令和相關資訊整合成提示,輸入給程式碼解釋器。
根據這個提示,程式碼解釋器就把自然語言的使用者需求翻譯成了程式碼,隨後執行,這樣就得到了執行結果,或偵錯資訊。
最後,思考模型也會對程式碼解釋器的結果進行反思確認。
結果正確,就會把結果回傳給使用者;不正確,就會繼續進行自主迭代更新。
在這次大會現場,王海峰更是當場讓代碼智能體秀了一番技能。
現場的任務是,讓它為本次大會嘉賓客製化邀請函。
只見一波操作之後,賓客的姓名都被填入了邀請函裡的正確位置。
而新產生的邀請函文件,也都是以嘉賓的名字命名的,並且打包好一起輸出。
動嘴開發,智慧代碼助理已來
而這位傳說中的智慧代碼助手Comate,聽名字就知道它比較專業。
沒錯,它的角色是──程式設計師的AI同儕,也就是說,可以幫專業的程式設計師更有效率地寫出更好的程式碼。
過去,開發者用程式碼改變了世界。
而現在,自然語言已經成為新的開發語言。也就是說,開發者未來只要動動嘴,就能完成應用程式開發。
在模型效果不斷提升的基礎上,百度進一步建構了情境增強、私域知識增強、流程無縫整合等能力。
因此,目前百度智慧代碼助理Comate整體採納率達到了46%,新增程式碼中產生的比例已經達到了27%。
程式碼理解、產生、最佳化等各種能力,都被Comate無縫整合到研發的各個環節。
例如,僅需告訴Comate“幫我梳理當前專案的架構”,幾秒鐘的時間,它就以清晰的條理給出了解答。
它就像助理一樣,能幫助程式設計師提升程式碼的開發品質和效率。
下面這個範例,就展示Comate是如何幫工程師接手程式碼的。
可以看到,只透過一條簡單的指令,它就快速了解整個程式碼的架構,甚至細到每個模組的具體實作邏輯。
舉個例子,當你問到更加細緻,具體的內容時——“該項目核心RAG邏輯是如何實現的”,可以迅速得到解答。
更驚訝的是,還有直接跳轉查閱的索引連結。
而且,它還可以根據當前的專案代碼以及第三方程式碼,自動產生滿足要求的新程式碼。
如下所示,給出一個外部的參考程式碼,以及千帆大模型的API,以產生呼叫Ernie Bot 4.0的程式碼。
Comate分分鐘給了一個基礎程式碼範例。
大小模型一同訓
此外,王海峰在現場也分享了「多模型」技術。
如今,我們為什麼需要多模型?
在推動大模型應用落地的過程中,開發者、企業不僅需要關注成本,還需要顧及效果和效率。
因此,在實際應用中,就需要從落地場景出發,選擇最適合自己的模型。
一方面,高效率低成本的模式生產亟待解決。
對此,百度發展了大小模型協同的訓練機制,可以有效進行知識繼承,高效生產高品質小模型。
小模型不僅推理成本低,反應速度快。而且在一些特定場景中,經過微調後的小模型,效果可以媲美大模型。
它也可以利用小模型來實現對比增強,幫助大模型完成訓練。
同時,百度也建立了種子模型矩陣,資料提質與增強機制,以及一系列配套工具鏈,從預訓練、精調對齊、模型壓縮到推理部署。
這樣一來,高效率低成本的模型生產機制,可以加速應用,降低部署成本,取得更優的效果。
我們最常見的MoE便是「多模型」技術的典型代表。
可以看到,不論是GPT-4(據猜測),還是開源Grok、Mistral都採用了MoE架構。
它們都在基準測試中,並且取得了優異的表現。
百度認為,未來大型的AI原生應用基本上都是MoE架構。透過大小模型的混用,而非單一模型去解決問題。
因此,針對場景匹配,什麼時候呼叫大模型,什麼時候呼叫小模型,都需要技術考量。
另一方面,是多模型推理。
百度開發了基於回饋學習的端到端多模型推理技術,建構了智慧路由模型,進行端到端回饋學習,充分發揮不同模型處理不同任務的能力,達到效果、效率和成本的最佳平衡。
正如Robin會上所言,透過強大的文心4.0裁剪出更小尺寸的模型,要比直接拿開源模型,微調出來的效果要好得多。
這段時間,一張開源模型與閉源模型之間的差距不斷拉近的圖,在全網瘋轉。
許多人樂觀地認為,開源模型很快就突破極限,取得逼近GPT-4,甚至取代閉源模型的能力。
實則不然,開源模型並非拿來即用,而需要更多客製化的微調。
這也是百度發布了ERNIE Speed、Lite、Tiny三個輕量車型的原因。
透過文心大模型4.0,壓縮蒸餾出一個基礎模型,然後再用專門資料訓練。這要比基於開源模型,甚至重訓一個模型效果好得多。
文心4.0性能提升52.5%
除了上述這些之外,文心4.0的創新還包括基於模型回饋閉環的資料體系、基於自回饋增強的大模型對齊技術,以及多模態技術等等。
發售後的半年時間,文心4.0的表現又提升了52.5%。
文心大模型之所以能如此快速持續地進化,離不開百度在晶片、框架、模型和應用上的全端佈局,尤其是飛槳深度學習平台和文心的聯合優化。文心大模型的周均訓練有效率達98.8%。
相較而言,一年前文心一言發佈時,訓練效率直接提升到了當時的5.1倍,推理則達到了105倍。
截至目前,飛槳文心生態已經凝聚了1,295萬開發者,服務了244,000個企事業單位。基於飛槳和文心,已經有89.5萬個模型被創造出來。
如今,文心一言累計的用戶規模已達2億,每日平均呼叫量也達到了2億。
這2億用戶的工作、生活和學習,已經被文心一言改變。
500萬AI人才培育計劃,提前收官
最後值得一提的是,百度的500萬AI人才培育計劃,提前結束!
在2020年,百度曾提出5年內要為全社會培養500萬AI人才,如今目標已提前完成。
而王海峰表示,在未來,百度還會繼續投身人才培養,讓人才的點點星光,匯成璀璨星河。
智慧時代,人人都是開發者,人人都是創造者。
參考資料: