微軟翻譯迎來Z-code專家混合模型更新顯著增強翻譯服務質量
微軟剛剛宣布了自家翻譯服務的一項更新,為用戶引入了新的機器學習技術,有望顯著改善多語種之間的翻譯質量。具體說來是,基於“備用專家混合”(spare Mixture of Experts)方案的Project Z-Code 項目,可讓新模型在盲測評估中的得分較以往提升3~15% 。
(來自:Microsoft Research Blog)
據悉,Z-code 是微軟更廣泛的XYZ-Code 計劃的一部分,著眼於結合多種語言的文本、視覺和音頻模型,以創建更強大、實用的AI 系統。
雖然“專家組合”並不是一套新穎的技術,但它在翻譯環境中還是相當實用。該系統的核心,本質上是將任務分解為多個子任務,然後將之委託給更小、更專業的所謂“專家”模型。
Z-code MoE 模型示例:從英語翻譯成法語時,可為每個輸入動態選擇其參數的子集。
各個模型會根據自身特性來預測、並決定將哪個任務委派給哪個專家,從而極大地簡化了開發思路。對於普通用戶來說,你可將之視作包含多個更專業模型的大模型集合。
微軟技術研究員兼Azure AI 首席技術官黃學東表示:借助Z-code,我們確實取得了驚人的進步。
我們正在利用遷移學習和多任務學習,以從單語言和多語種數據中創建一個極具質量和性能的最佳組合。
最終帶來一個最先進的語言模型,並為客戶帶來高效的體驗。
結果是,我們看到了一套全新的系統,現能夠直接在10 種語言之間進行翻譯,從而消除了對多個系統的需求。
此外微軟最近還開始使用Z-code 模型來改進其AI 系統的其它功能,包括實體識別、文本摘要、自定義文本分類、以及關鍵詞提取,但將其用到自家翻譯服務上還是首次。
傳統意義上的翻譯模型相當笨拙,因而很難將其帶入生產環境。不過微軟團隊選擇了一套“稀疏”方案—— 僅激活每個任務的少量模型參數、而不是動輒調用整個系統。
這使得模型的運行更具成本效益,就像僅在冬日里為最常用的時段和空間提供室內加熱一樣經濟高效,而無需讓暖爐一直保持全速運轉。