Anthropic希望為新一代更全面的AI基準提供資金支持
Anthropic 正在啟動一項計劃,資助開發能夠評估人工智慧模型效能和影響的新型基準,包括像其Claude這樣的生成模型。 Anthropic 的計劃於本週一公佈,將向第三方組織發放補助金,正如該公司在一篇部落格文章中所說的那樣,”有效衡量人工智慧模型的先進能力”。 有興趣的機構可以提交申請,接受滾動評估。
“我們對這些評估的投資旨在提升整個人工智慧安全領域,提供有益於整個生態系統的寶貴工具,”Anthropic 在其官方部落格上寫道。 “開發高品質、與安全相關的評估仍具有挑戰性,而且供不應求。”
正如之前強調過的,人工智慧存在基準問題。目前最常引用的人工智慧基準並不能很好地反映普通人是如何實際使用所測試的系統的。此外,有人質疑某些基準,尤其是在現代生成式人工智慧誕生之前發布的那些基準,鑑於其年代久遠,是否能衡量它們聲稱要衡量的東西。
Anthropic 提出的解決方案等級非常高,比聽起來更難,它正在透過新的工具、基礎設施和方法,創建具有挑戰性的基準,重點是人工智慧的安全性和社會影響。
該公司特別呼籲進行測試,評估模型完成任務的能力,如實施網路攻擊、”增強”大規模殺傷性武器(如核武)以及操縱或欺騙他人(如透過深度偽造或錯誤訊息)。對於與國家安全和國防有關的人工智慧風險,Anthropic 表示將致力於開發一種”早期預警系統”,用於識別和評估風險,但在博文中並未透露這種系統可能包含的內容。
Anthropic還表示,它打算在新項目中支持對基準和”端到端”任務的研究,以探究人工智能在協助科學研究、多語言對話、減少根深蒂固的偏見以及自我審查毒性方面的潛力。
為了實現這一切,Anthropic 公司設想建立新的平台,允許主題專家開發自己的評估項目,並對涉及”成千上萬”用戶的模型進行大規模試驗。該公司表示,它已為該計劃聘請了一名全職協調員,並可能購買或擴大它認為有潛力擴大規模的項目。
“我們根據每個專案的需求和階段提供一系列的資助方案,”Anthropic 在貼文中寫道,不過Anthropic 發言人拒絕提供有關這些方案的更多細節。 “團隊將有機會與Anthropic的前沿紅隊、微調、信任與安全以及其他相關團隊的領域專家直接互動。”
Anthropic 支持新人工智慧基準的努力值得稱讚–當然,前提是背後有足夠的資金和人力支援。但考慮到該公司在人工智慧競賽中的商業野心,要完全相信它可能很難。
在這篇文章中,Anthropic 相當透明地表示,它希望自己資助的某些評估能與自己制定的人工智慧安全分類相一致(第三方也提供了一些意見,如非營利性人工智慧研究組織METR) 。這完全是公司的特權。但這也可能迫使計畫申請者接受他們可能不完全認同的”安全”或”有風險”的人工智慧定義。
人工智慧界的一部分人也可能會對《人類學》中提到的”災難性”和”欺騙性”人工智慧風險(如核武風險)提出異議。許多專家說,幾乎沒有證據表明,我們所知的人工智慧會在短期內(如果有的話)獲得毀滅世界、超越人類的能力。這些專家補充說,即將出現”超級智慧”的說法只會把人們的注意力從當前緊迫的人工智慧監管問題上吸引開,例如人工智慧的幻覺傾向。
Anthropic 在貼文中寫道,希望自己的專案能成為”推動未來人工智慧綜合評估成為業界標準的催化劑”。這是許多開放的、與企業無關的、旨在創建更好的人工智慧基準的努力所認同的使命。但這些努力是否願意與一家最終忠於股東的人工智慧供應商聯手,還有待觀察。