Opera已允許用戶在本地下載和使用大語言模型
網路瀏覽器公司Opera 今天宣布,現在用戶可以在電腦上下載和使用大型語言模型(LLM)。此功能將首先向獲得開發者串流更新的Opera One用戶推出,用戶可以從50 多個系列的150 多個模型中進行選擇。
這些模型包括Meta 的Llama、Google 的Gemma 和Vicuna。該功能將作為Opera 人工智慧功能發布計畫的一部分提供給用戶,讓用戶提前使用部分人工智慧功能。
該公司表示,它在瀏覽器中使用Ollama 開放原始碼框架在電腦上運行這些模型。目前,所有可用的模型都是Ollama 庫的子集,但該公司希望將來能加入不同來源的模型。
該公司提到,每個變體都會佔用本地系統超過2GB 的空間。因此應謹慎使用可用空間,以免儲存空間耗盡。值得注意的是,Opera 在下載模型時不會做任何節省儲存空間的工作。
“Opera現在首次在瀏覽器中直接提供了大量第三方本地LLM。”Opera 副總裁Jan Standal 在一份聲明中表示:”隨著第三方本地LLM 越來越專業,預計它們的規模可能會縮小。 “
如果使用者打算在本地測試各種模型,這項功能會很有用,但如果想節省空間,也可以使用Quora’s Poe和HuggingChat等大量線上工具來探索不同的模型。
自去年以來,Opera 一直在嘗試人工智慧功能。去年5 月,該公司在側邊欄推出了一款名為Aria 的助手,並於8 月將其引入iOS 版本。今年1 月,Opera 表示,由於歐盟數位市場法案(DMA)要求蘋果放棄對行動瀏覽器WebKit 引擎的強制要求,該公司正在為iOS 建立一款自帶引擎的人工智慧瀏覽器。