OpenAI發布GPT-4o長輸出支援64K輸出詞元
OpenAI 昨天低調地宣布了一項重要消息,其旗艦前沿模型GPT-4o現在支援更多的輸出詞元。 GPT-4o 的實驗版本名為GPT-4o Long Output,現在每個請求最多可支援64000 個輸出標記。
這將有助於開發人員將GPT-4o 模型用於需要較長時間完成的用例。加入OpenAI alpha 計畫的開發人員可以使用”gpt-4o-64k-output-alpha”模型名稱存取GPT-4o Long Output。
由於長補全的成本較高,OpenAI 提高了該模型的單位代幣定價。 gpt-4o-64k-output-alpha 的價格為6.00 美元/100 萬個輸入詞元,18.00 美元/100 萬個輸出詞元。
與此相關,微軟昨天宣布發布GPT-4o mini API,為全球和美國東部地區標準部署提供視覺支持,微軟將很快把它推廣到更多地區。
有了GPT-4o mini 的視覺支持,開發人員可以在涉及視覺識別、場景理解等應用中使用API 處理圖像和影片。此外,GPT-4o mini 還能根據視覺輸入產生詳細、情境準確的文字輸出。
Microsoft Azure 團隊就GPT-4o mini 在Azure 上的可用性撰文如下:
“GPT-4o mini 增加了視覺輸入功能,擴大了其多功能性,為開發人員和企業開闢了新天地。這項增強功能使用戶能夠處理和分析視覺數據,提取有價值的見解,並產生全面的文字輸出”。
Azure 客戶現在可以在Azure OpenAI Studio Playground 中試用GPT-4o mini,他們可以在這裡了解更多關於該模型的資訊。
OpenAI 和微軟產品的這些進步顯示了人工智慧領域的快速發展,尤其是在語言和視覺模型方面。隨著這些模型變得更加強大和易於使用,它們為開發者和企業重新思考為消費者提供的體驗開闢了新的可能性。