OpenAI持續為開發者提高o1系列模型的呼叫速率最高每分鐘可呼叫1000次
早期OpenAI 推出基於o1 系列的新模型,分為o1-preview 預覽版和更快更便宜的o1-mini 版,該系列模型的主要特點是可以解決更複雜推理任務。需要強調的是o1 模型並不能直接取代GPT-4o 模型,原因在於o1 模型僅提高推理能力,但不支援影像功能、函數呼叫和快速反應時間。
對大多數開發者而言可能需要混合使用GPT-4o、GPT-4o-mini 和o1 系列模型,即在不同的使用情境中搭配不同的模型以獲得最佳效能。
今天OpenAI 宣布提高Tier 5 開發者的o1 系列模型調用速率,鼓勵更多開發者積極使用o1 系列模型,但目前這僅適用於5 級開發者,後續OpenAI 會陸續擴展支持1~4 級開發者。
此調整前o1-preview 模型的呼叫速率為每分鐘100 個請求,o1-mini 的呼叫速率則是每分鐘250 個請求;此次調整後o1-preview 呼叫速率提高到每分鐘500 個請求,而o1-mini 呼叫速率提高到每分鐘1000 個請求。
調整後開發者可以在更大並發場景中使用o1 系列模型解決複雜的推理任務,並在獲得推理結果後再使用GPT-4o 系列模型進行接下來的處理等。
除了針對開發者調整速率外,OpenAI 在本週還針對ChatGPT Plus 和ChatGPT Team 用戶調整了o1-mini 的速率限制,從每周可以發送50 則訊息提高到每天可以發送50 則訊息。
但因為o1-preview 模型的服務成本更高,所以OpenAI 只將該模型的訊息限制從每週30 條提高到每週50 條,所以總體來說還是有一些使用限制的。