微軟將OpenAI o3 和o4-mini 模型引入Azure 和GitHub
今天早些時候,OpenAI發布了其最新的推理模型o3 和o4-mini。與先前的o1 和o3-mini 相比,這些新車型的效能顯著提升。微軟今日宣布, o3 和o4-mini 模型已在Azure AI Foundry 的Azure OpenAI 服務上架。
o3 模型的定價為每百萬輸入詞元10 美元,每百萬輸出詞元40 美元。 o4-mini 模型的定價為每百萬輸入詞元1.10 美元,每百萬輸出詞元4.40 美元。

這兩個新模型現在都具備視覺功能,支援涉及影像輸入的應用。 Responses API 和Chat Completions API 皆支援視覺分析功能。這兩個推理模型首次提供完整的工具支援和平行工具呼叫。
除了這些新的推理模型之外,Azure OpenAI 服務現在在Azure AI Foundry 上的東部US2 區域推出了新的音訊模型:GPT-4o-Transcribe、GPT-4o-Mini-Transcribe 和GPT-4o-Mini-TTS。
微軟GitHub今日宣布,o3 和o4-mini 型號現已在GitHub Copilot 和GitHub Models 中推出。 o4-mini 型號現已推廣至所有付費GitHub Copilot 套餐,o3 型號則推廣至Enterprise 和Pro+ 套餐。
部署完成後,使用者可以透過Visual Studio Code 中的模型選擇器以及github.com上的GitHub Copilot Chat 選擇這些新模型。對於Copilot Enterprise 用戶,管理員必須透過Copilot 設定中的新策略啟用對這些新模型的存取。
新的o3 和o4-mini 模型也可在GitHub Models 上取得。這將使開發者能夠使用這些模型輕鬆探索、建構和部署AI 功能。開發者還可以嘗試這些模型以及微軟的其他模型。和其他提供者。