蘋果發表四款開源新模型有助於提高未來人工智慧的準確性
蘋果公司已經公開分享了四個開源模型,這些模型具有更高的查詢準確性,有助於未來人工智慧模型的開發。隨著科技業在人工智慧方面的不斷發展,蘋果也不斷提供更多關於其正在研發的技術的資訊。在最新的公開版本中,蘋果發布了四款開源模型。
這些指導模型稱為開源高效能LLMs 或OpenELMs,託管在協作平台Hugging Face 上。 Hugging Face 用於託管人工智慧模型,以及對其進行訓練和與他人合作改進。
OpenELM 是指一個開源函式庫,它利用演化演算法將多個大型語言模型(LLM) 結合在一起。
這四個OpenELM 模型採用”分層縮放策略”,在變壓器機器學習模型的各層中分配參數,以提高精確度。
這些模型使用CoreNet 庫進行了預訓練。蘋果提供了使用2.7 億、4.5 億、11 億和30 億個參數的預訓練和指令調整模型。
預訓練資料集由Dolma v1.6 子集、RefinedWeb、重複PILE 和RedPajama 子集組合而成。這樣得到的資料集約有1.8 兆個標記。
在本週二發布的一篇相關論文中,該計畫的研究人員表示,大型語言模型的可重複性和透明度”對於推進開放式研究至關重要”。它還有助於確保結果的可信度,並允許對模型偏差和風險進行調查。
至於模型的準確性,根據解釋,在使用10 億個參數預算的情況下,OpenELM 比OLMo 的準確性提高了2.36%,而所需的預訓練代幣數量僅為OLMo 的一半。
模型和論文的作者包括Sachin Mehta、Mohammad Hossein Sekhavat、Qingqing Cao、Maxwell Horton、Yanzi Jin、Chenfan Sun、Iman Mirzadeh、Mahyar Najibi、Dmitry Belenko、Peter Zatloukal 和Mohammad Rastegari。
發布這些模型的原始碼是蘋果宣傳其人工智慧和機器學習發展成果的最新嘗試。
這並不是蘋果第一次公開發佈人工智慧程式。今年10 月,蘋果分享了一個名為Ferret 的開源LLM,它改進了模型分析影像的方式。
今年4 月,Ferret 的新版本增加了解析應用程式截圖中資料點的功能,並大致了解應用程式的功能。此外,還發布了關於生成式人工智慧動畫工具和創建人工智慧頭像的論文。預計6 月的WWDC 將包括蘋果產品在人工智慧方面的許多進展。