OpenAI推出一對AI推理模型:o3和o4-mini
OpenAI 週四宣布推出o3 和o4-mini,這是新的AI 推理模型,旨在在回答問題之前暫停並思考問題。該公司稱o3 為迄今為止最先進的推理模型,在數學、編碼、推理、科學和視覺理解能力的測試中均超越了該公司先前的模型。
同時,o4-mini 提供了OpenAI 所說的價格、速度和性能之間的平衡——這三個因素是開發人員在選擇用於支援其應用程式的AI 模型時經常考慮的。

與先前的推理模型不同,o3 和o4-mini 可以使用ChatGPT 中的工具(例如網頁瀏覽、Python 程式碼執行、圖像處理和圖像生成)來產生回應。從今天開始,這些模型以及o4-mini 的一個變體o4-mini-high(花費更多時間精心設計答案以提高其可靠性)可供OpenAI 的Pro、Plus 和Team 計劃的訂閱者使用。
這些新模型是OpenAI 在激烈的全球AI 競賽中擊敗Google、Meta、xAI、Anthropic 和DeepSeek 的努力之一。雖然OpenAI 率先發布了AI 推理模型o1,但競爭對手也迅速跟進,推出了性能匹敵甚至超越OpenAI 的版本。事實上,隨著AI 實驗室不斷提升系統效能,推理模型已開始成為該領域的主導。
O3 差點沒能在ChatGPT 中發布。 OpenAI 執行長Sam Altman 今年2 月曾表示,該公司打算投入更多資源,開發一個融合O3 技術的更複雜的替代方案。但競爭壓力似乎最終促使OpenAI 改變了方向。
OpenAI 表示,o3 在SWE-bench 驗證中達到了最佳效能,該測試衡量了程式設計能力,得分為69.1%。 o4-mini 模型也達到了類似的性能,得分為68.1%。 OpenAI 的次優模型o3-mini 在測試中得分為49.3%,而Claude 3.7 Sonnet 得分為62.3%。
OpenAI 聲稱,o3 和o4-mini 是其首批能夠「用圖像思考」的模型。實際上,使用者可以將圖像上傳到ChatGPT,例如白板草圖或PDF 中的圖表,模型會在「思維鏈」階段分析圖像,然後再做出答案。憑藉這項新發現的能力,o3 和o4-mini 能夠理解模糊和低品質的圖像,並在推理過程中執行縮放或旋轉圖像等任務。
除了影像處理功能之外,o3 和o4-mini 還可以透過ChatGPT 的Canvas 功能直接在瀏覽器中運行和執行Python 程式碼,並在被問及時搜尋網路。
除了ChatGPT 之外,所有三種模型(o3、o4-mini 和o4-mini-high)都將透過OpenAI 面向開發人員的端點Chat Completions API 和Responses API 提供,從而允許工程師按照基於使用率的費率使用該公司的模型建立應用程式。
鑑於o3 效能的提升,OpenAI 向開發者收取的費用相對較低,每百萬輸入詞元(約75 萬字,比《魔戒》系列更長)收費10 美元,每百萬輸出詞元收費40 美元。對於o4-mini,OpenAI 的收費與o3-mini 相同,每百萬輸入詞元收費1.10 美元,每百萬輸出詞元收費4.40 美元。
OpenAI 表示,未來幾週內,它計劃發布o3-pro,這是o3 的一個版本,它使用更多的運算資源來產生答案,專門供ChatGPT Pro 訂閱者使用。
OpenAI 執行長Sam Altman 表示,o3 和o4-mini 可能是GPT-5 之前ChatGPT 中的最後幾個獨立AI 推理模型,該公司表示,GPT-5 將把GPT-4.1 等傳統模型與其推理模型統一起來。