國產AI大模型ChatGLM開測:為中文優化、支持國產CPU訓練
ChatGPT今天升級了GPT-4模型,AI能力更加強大,國內在這方面也在迅速追趕,有國歌國產版ChatGPT問世了,現在清華大學教授唐杰宣布由該校AI成果轉化的ChatGLM開始內測。
據介紹,對話機器人ChatGLM(alpha內測版:QAGLM),這是一個初具問答和對話功能的千億中英語言模型, 並針對中文進行了優化,現已開啟邀請制內測,後續還會逐步擴大內測範圍。
與此同時,繼開源GLM-130B 千億基座模型之後,我們正式開源最新的中英雙語對話GLM 模型: ChatGLM-6B,結合模型量化技術,用戶可以在消費級的顯卡上進行本地部署(INT4 量化級別下最低只需6GB 顯存)。
經過約1T 標識符的中英雙語訓練,輔以監督微調、 反饋自助、人類反饋強化學習等技術的加持,62 億參數的ChatGLM-6B 雖然規模不及千億模型,但大大降低了用戶部署的門檻,並且已經能生成相當符合人類偏好的回答。
ChatGLM 參考了ChatGPT 的設計思路,在千億基座模型GLM-130B1 中註入了代碼預訓練,通過有監督微調(Supervised Fine-Tuning)等技術實現人類意圖對齊。
ChatGLM 當前版本模型的能力提升主要來源於獨特的千億基座模型GLM-130B。它是不同於BERT、GPT-3 以及T5 的架構,是一個包含多目標函數的自回歸預訓練模型。
2022年8月,我們向研究界和工業界開放了擁有1300億參數的中英雙語稠密模型GLM-130B1,該模型有一些獨特的優勢:
雙語: 同時支持中文和英文。
高精度(英文): 在公開的英文自然語言榜單LAMBADA、MMLU 和Big-bench-lite 上優於GPT-3 175B(API: davinci,基座模型)、OPT-175B 和BLOOM-176B。
高精度(中文): 在7個零樣本CLUE 數據集和5個零樣本FewCLUE 數據集上明顯優於ERNIE TITAN 3.0 260B 和YUAN 1.0-245B。
快速推理: 首個實現INT4 量化的千億模型,支持用一台4 卡3090 或8 卡2080Ti 服務器進行快速且基本無損推理。
可複現性: 所有結果(超過30 個任務)均可通過我們的開源代碼和模型參數復現。
跨平台: 支持在國產的海光DCU、華為昇騰910 和申威處理器及美國的英偉達芯片上進行訓練與推理。
2022年11月,斯坦福大學大模型中心對全球30個主流大模型進行了全方位的評測2,GLM-130B 是亞洲唯一入選的大模型。
在與OpenAI、谷歌大腦、微軟、英偉達、臉書的各大模型對比中,評測報告顯示GLM-130B 在準確性和惡意性指標上與GPT-3 175B (davinci) 接近或持平,魯棒性和校準誤差在所有千億規模的基座大模型(作為公平對比,只對比無指令提示微調模型)中表現不錯(下圖)。
圖1. 斯坦福大學基礎模型中心對全球30 個大模型的評測結果(2022年11月)