Mistral Small 3模型發布比OpenAI和Google類似產品更快更好
歐洲領先的人工智慧公司之一Mistral AI 推出了一款名為Mistral Small 3 的新模型。這是一個包含240 億參數的模型,但與Llama 3.3 70B 和Qwen 32B 等大型模型相當(至少在MMLU-Pro 基準測試中)。它不僅運行速度與Llama 3.3 70B 不相上下,而且速度更快。
ChatGPT 上最常用的模型是GPT-4o mini,它是使用者用完GPT-4o 請求後的備用模型。 Mistral Small 3 的效能比這個OpenAI 模型更好,據說延遲也更低。

Mistral AI介紹:”我們在Apache 2.0 下發布了預訓練和指令調整的檢查點。檢查點可以作為加速進展的強大基礎。需要注意的是Mistral Small 3 既未使用RL 也未使用合成資料進行訓練,因此與Deepseek R1(一項偉大而互補的開源技術!)等模型相比,它在模型製作流程中處於較早階段。採用和定制它。
作為一個偏小型的模型,如果你的電腦配置較高,也有可能在自己的電腦上本地運行它。 Mistral AI 表示,它可以在單塊NVIDIA RTX 4090 顯示卡或配備32GB 記憶體的MacBook 上運行。
雖然此機型在MMLU-Pro 基準測試中的表現優於上述其他機型,但它並不總是人類評估人員的首選。 Mistral 在一組超過1k 的專有編碼和通用提示中將其模型與其他模型進行了比較。研究發現,與Gemma-2 27B 和Qwen-32B 相比,Mistral Small 3 是首選方案,但與Llama 3.3 70B 和GPT-4o mini 相比,Mistral Small 3 的首選度較低。

Mistral Small 3 現以mistral-small-latest 或mistral-small-2501 的形式在平台上提供。