指數級成長使Hugging Face上的人工智慧模式達到100萬個
本週四,人工智慧託管平台Hugging Face的人工智慧模型清單首次突破100 萬個,這標誌著快速擴張的機器學習領域的一個里程碑。 人工智慧模型是一種電腦程式(通常使用神經網路),透過資料訓練來執行特定任務或進行預測。 該平台在2016年以聊天機器人應用程式起步,在2020年轉向成為人工智慧模型的開源中心,現在為開發人員和研究人員提供了大量工具。
機器學習領域所代表的世界遠不止像ChatGPT 這樣的大型語言模型(LLM)。 Hugging Face 執行長克萊門特-德朗格(Clément Delangue)在X 上發表的一篇文章中談到了他的公司如何託管了許多著名的人工智慧模型,如”Llama、Gemma、Phi、Flux 、Mistral、Starcoder、Qwen、Stable diffusion、Grok、Whisper、Olmo、Command、Zephyr、OpenELM、Jamba、Yi”,而且還有”999984 個其他模型”。
Delangue說,原因在於客製化。 “他寫道:”與’一個模型統治所有模型’的謬論相反,針對你的用例、你的領域、你的語言、你的硬體以及你的一般限制條件而定制的小型專門優化模型會更好。 事實上,很少有人意識到,’擁抱臉譜’上幾乎有同樣多的模型只對一個組織開放,供公司私下構建人工智能,專門用於他們的用例。
由Hugging Face 提供的圖表顯示了隨著時間推移逐月添加到Hugging Face 的人工智慧模型數量。
隨著整個科技產業人工智慧研發步伐的加快,Hugging Face 已轉型成為一個重要的人工智慧平台。 短短幾年間,隨著人們對這一領域的興趣日益濃厚,網站上託管的模型數量也急劇增加。 在X 上,Hugging Face 產品工程師Caleb Fahlgren張貼了一張平台上每月創建的模型圖表(以及一個指向其他圖表的鏈接),他說:”模型逐月呈指數增長,而九月還沒有結束。
微調的力量
正如德朗格在上文所暗示的,平台上的模型數量之多源於平台的協作性質以及針對特定任務對現有模型進行微調的做法。 微調是指對現有模型進行額外訓練,為其神經網路添加新概念,並改變其產生輸出的方式。 世界各地的開發人員和研究人員都在貢獻自己的成果,從而形成了一個龐大的生態系統。
例如,該平台上有許多不同的Meta 開放權重Lama 模型,它們代表了原始基礎模型的不同微調版本,每個版本都針對特定應用進行了最佳化。
Hugging Face 的資源庫包含適用於各種任務的模式。 瀏覽其模型頁面,可以在”多模態”部分看到圖像到文字、視覺問題解答和文件問題解答等類別。 在”計算機視覺”類別中,有深度估計、物件偵測和影像生成等子類別。 自然語言處理任務(如文字分類和問題解答)以及音訊、表格和強化學習(RL)模型也有體現。
放大/ 2024 年9 月26 日拍攝的擁抱臉模型頁面截圖。
如果按”下載次數最多“排序,Hugging Face 模型列表揭示了人們認為哪些人工智慧模型最有用的趨勢。 排名第一的是麻省理工學院的音頻譜圖轉換器,其下載量高達1.63 億次,遙遙領先,該模型可對語音、音樂和環境聲音等音訊內容進行分類。 緊隨其後的是Google的BERT,其下載量為5420 萬次,這是一個人工智慧語言模型,透過預測遮蔽的單字和句子關係來學習理解英語,使其能夠協助完成各種語言任務。
排在前五名的人工智慧模型是all-MiniLM-L6-v2(該模型將句子和段落映射為384 維密集向量表示,適用於語義搜尋)、 Vision Transformer(將圖像處理為補丁序列,以執行圖像分類),以及OpenAI 的CLIP(連接圖像和文本,允許使用自然語言對視覺內容進行分類或描述)。
不管是什麼模型或任務,該平台都在不斷發展壯大。 Delangue 寫道:「如今,HF 上每10 秒鐘就會創建一個新的儲存庫(模型、資料集或空間)。」最終,模型的數量將和程式碼庫的數量一樣多,我們將為此而努力! “