零一萬物發表Yi大模型API開放平台首批開放3款大模型
零一萬物正式發布Yi 大模型API 開放平台,今天起為開發者提供通用Chat“Yi-34B-Chat-0205”、200k 超長上下文“Yi-34B-Chat-200K” 、多模態交互作用「Yi-VL-Plus」模型。
在全球多項權威評測名單中,Yi 大模型表現優異,效能直追GPT-4。先前,Yi 大模型API已經小範圍開放內測,全球已有不少開發者申請使用,並普遍回饋效果超出預期。基於此,此次Yi 大模型API 正式推出3款模型,給開發者更多驚喜。
目前,Yi 大模型API名額限量開放中,新用戶贈送60元。Yi 大模型API 與OpenAI API 完全相容,開發者只需修改少量程式碼,可以平滑遷移。
此次Yi 大模型API 開放平台提供以下模型:
• Yi-34B-Chat-0205:支援通用聊天、問答、對話、寫作、翻譯等功能。
• Yi-34B-Chat-200K:200K 上下文,多重文件閱讀理解、超長知識庫建構小能手。
• Yi-VL-Plus: 多模態模型,支援文字、視覺多模態輸入,中文圖表體驗超過GPT-4V。
零一萬物API開放平台連結:https://platform.lingyiwanwu.com/
零一萬物Yi-34B-Chat-200K模型支援處理約30 萬個中英文字符,適合用於多篇文件內容理解、海量資料分析挖掘和跨領域知識融合等,在「大海撈針」測試中,Yi -34B-Chat-200K的效能提高了10.5%,從89.3%提升到99.8%。
例如,金融分析師可以用Yi-34B-Chat-200K模型快速閱讀報告並預測市場趨勢、律師可以用它精準解讀法律條文、科研人員可以用它高效提取論文要點、文學愛好者可以用它快速掌握作品精髓等,應用場景非常廣泛。
Yi-34B-Chat-200K 經典文學作品《呼嘯山莊》進行複雜角色和角色關係的歸納總結
零一萬物開發的多模態模型Yi-VL-Plus,可支援文字、視覺多模態輸入,面向實際應用場景大幅增強,包括:
增強Charts, Table, Inforgraphics, Screenshot 辨識能力,支援複雜圖表理解、資訊擷取、問答以及推理。中文圖表體驗超過GPT4V;
Yi-VL-Plus模型在一些中文圖表理解場景,比GPT-4V準確率更高
在Yi-VL 基礎上進一步提高了圖片分辨率,模型支援1024*1024 分辨率輸入,顯著提高生產力場景中的文字、數位OCR 的準確性;
保持了LLM 通用語言、知識、推理、指令跟隨等能力。
同時,零一萬物也表示,近期零一萬物將為開發者提供更多更強模型和AI 開發框架,提供更豐富和靈活的開發工具,以適應多樣化的應用場景。