華為版ChatGPT將於7月初發布名為“盤古Chat”
近日從華為內部獨家獲悉,華為公司將發布一款直接對標ChatGPT的多模態千億級大模型產品,名為“盤古Chat”。預計華為盤古Chat將於今年7月7日舉行的華為雲開發者大會(HDC.Cloud 2023) 上對外發布以及內測,產品主要面向To B/G政企端客戶。
這意味著,在國產大模型軍備競賽中,繼阿里、百度之後,又一重要科技巨頭入局。基於華為的技術能力,盤古Chat有望成為國內技術能力最強的ChatGPT產品,同時華為生態產業鏈企業也將因此受益。
據悉,盤古大模型於2020年11月在華為雲內部立項成功。對於盤古大模型定位,華為內部團隊確立了三項最關鍵的核心設計原則:一是模型要大,可以吸收海量數據;二是網絡結構要強,能夠真正發揮出模型的性能;三是要具有優秀的泛化能力,可以真正落地到各行各業的工作場景。
2021年4月,盤古大模型正式對外發布。其中,盤古NLP大模型是首個乾億參數中文預訓練大模型,CV大模型則首次達到30億參數。2022年4月,華為盤古升級到2.0,發布層次化開發方案(LO, L1,L2) ,打造工業級盤古大模型。
根據華為雲高管的演講PPT信息,目前華為“盤古系列AI 大模型”基礎層主要包括NLP大模型、CV大模型、以及科學計算大模型等,上層則是與合作夥伴開發的華為行業大模型。
華為雲人工智能領域首席科學家田奇今年4月稱,盤古NLP大模型覆蓋的智能文檔檢索、智能ERP、小語種大模型等落地領域,2022年華為剛交付了一個阿拉伯語的千億參數大模型。在應用方面,盤古大模型可以應用於智能客服、機器翻譯、語音識別等多個領域,提供AI技術支持。
去年華為將盤古大模型在垂直產業領域落地應用。一個例子是,基於盤古AI 大模型,華為在礦山領域打造了首個“基於大模型的人工智能訓練中心”,實現Al 應用“工業化” 開發,不僅降低成本——比人工核查節省80%+、每噸成本降低8元(年產能260萬噸),而且增加效益——防衝禦壓比人工核查節省80%+,提升效率——智能客戶效率提升30%。
與其他廠商相比,華為的優勢或在於擁有完整的產業鍊和較強的算力調配能力。據浙商證券此前披露,在訓練千億參數的盤古大模型時,華為團隊調用了超過2000塊的昇騰910芯片,進行了超2個月的數據訓練能力。華為內部稱,每年大模型訓練調用GPU/TPU卡超過4000片,3年的大模型算力成本高達9.6億元人民幣。
東吳證券3月27日公佈的研報中稱,華為盤古大模型的優勢在於人才儲備和算力自主可控,有望成為國內領先的大模型,其生態產業鏈標的有望迎來加速發展,包括拓維信息、四川長虹、麒麟軟件(中國軟件)、統信軟件(誠邁科技)、麒麟信安等華為生態公司。國盛證券則認為,華為盤古為首個多模態千億級大模型,有望賦能百業。
根據華為公佈的一份論文數據顯示,華為盤古PanGu-Σ大模型參數最多為1.085萬億,基於華為自研的MindSpore框架開發。整體來看,PanGu-Σ大模型在對話方面可能已接近GPT-3.5的水平。
值得注意的是,由於盤古大模型擁有超大規模的參數,因此訓練成本較高。儘管盤古大模型在中文語言的處理方面具有很高的準確度和質量,但在語義理解方面仍存在一定的局限性,尤其是在處理複雜的語言結構和語義推理方面。同時,盤古Chat大模型也將面臨著行業激烈的競爭壓力,需要不斷優化和提高模型的性能和質量,才能以保持在市場中的領先地位。