谷歌發布三款開放式人工智慧模型重點關注安全問題
Google發布了三款新的、”開放的”人工智慧生成模型,並稱這些模型比大多數模型”更安全”、”更小巧”、”更透明”。它們是Google Gemma 2生成模型系列的新成員,該系列於今年5 月首次亮相。這些新模型包括Gemma 2 2B、ShieldGemma 和Gemma Scope,它們針對的應用和用例略有不同,但共同著眼點都是安全。
Google的Gemma 系列模型與Gemini 模型不同,Google不提供Gemini 的源代碼,Gemini 的源代碼用於Google自己的產品,同時也提供給開發者。相反,Gemma 是Google為促進開發者社群的善意而做出的努力,就像Meta 試圖透過Llama 所做的那樣。
Gemma 2 2B 是一個用於產生分析文字的輕量級模型,可在包括筆記型電腦和邊緣設備在內的各種硬體上運作。它獲得了某些研究和商業應用的授權,可以從Google的頂點人工智慧模型庫、數據科學平台Kaggle 和Google的人工智慧工作室工具包等管道下載。
至於ShieldGemma,它是一個”安全分類器”集合,試圖檢測仇恨言論、騷擾和色情內容等毒性。 ShieldGemma 建立在Gemma 2 的基礎上,可用來過濾生成模型的提示以及模型產生的內容。
最後,Gemma Scope 允許開發人員”放大”Gemma 2 模型中的特定點,使其內部運作更易於解釋。以下是Google在一篇部落格文章中的描述:”[Gemma Scope 由]專門的神經網路組成,幫助我們解讀Gemma 2 處理的密集、複雜的信息,將其擴展為更易於分析和理解的形式。透過研究這些擴展視圖,研究人員可以對Gemma 2 如何識別模式、處理資訊並最終做出預測以獲得有價值的見解”。
新的Gemma 2 模型發布不久前,美國商務部在初步報告中認可了開放式人工智慧模型。報告稱,開放模式擴大了生成式人工智慧對小型公司、研究人員、非營利組織和個人開發者的可用性,同時也強調了監控此類模式潛在風險的能力需求。