商湯宣布通用視覺平台OpenGVLab開源平台已正式上線
商湯科技今日宣布通用視覺平台OpenGVLab正式開源,開放內容包括超高效預訓練模型,和千萬級精標註、十萬級標籤量的公開數據集,將為全球開發者提升各類下游視覺任務模型訓練提供重要支持。
OpenGVLab開源模型推理結果:左側為輸入的圖片,右側為識別出來的標籤
針對藝術作品,OpenGVLab預訓練模型展示出了強大的泛化能力,例如,針對這幅大熊貓畫作,模型不但“看”出了這是一張“毛筆劃”“水粉畫”,而且由於圖中的黑白色,模型還給出了“yin yang”(陰陽)的推測,這也體現了數據集標籤的豐富性。
目前,人工智能已經能夠識別萬物,但很多AI模型只能完成單一的任務,比如識別單一的物體,或者識別風格較為統一的照片,如果換一種類型或者風格,就愛莫能助。為了能夠識別不同類型的圖片,這就需要有獨特的模型訓練及標籤體系,也要求模型具有一定的通用性,這樣才能對不同類型的圖片做出準確的描述。
據介紹,基於此前商湯科技聯合上海人工智能實驗室、香港中文大學、上海交通大學等共同發布的通用視覺技術體系“書生”(INTERN),使用此模型,研究人員可以大幅降低下游數據採集成本,用極低的數據量,即可快速滿足多場景、多任務的AI模型訓練。
目前OpenGVLab開源平台已正式上線,供各界研究人員訪問和使用,後續項目還將開通在線推理功能,供所有對人工智能視覺技術感興趣的社會人士自由體驗。此外,OpenGVLab還同步開放業內首個針對通用視覺模型的評測基準,便於開發者對不同通用視覺模型的性能進行橫向評估和持續調優。