英國在舊金山設立辦公室用以因應人工智慧風險
本週晚些時候,人工智慧安全峰會將在韓國首爾拉開序幕,在此之前,峰會的共同主辦國英國正在擴大自己在這一領域的努力。人工智慧安全研究所(AI Safety Institute)是英國於2023 年11 月成立的一個機構,其雄心勃勃的目標是評估和解決人工智慧平台的風險。
灣區是OpenAI、Anthropic、Google和Meta 等公司開發人工智慧基礎技術的所在地。
基礎模型是生成式人工智慧服務和其他應用的基石,有趣的是,雖然英國已經與美國簽署了諒解備忘錄,兩國將在人工智慧安全方面開展合作,但英國仍然選擇在美國投資建立自己的直接機構來解決這個問題。
英國科學、創新和技術大臣米歇爾-多納蘭(Michelle Donelan)在接受採訪時說:”透過在舊金山派駐人員,可以讓他們接觸到許多人工智慧公司的總部。其中一些公司在英國本土設有基地,但我們認為在那裡設立基地也非常有用,可以接觸到更多的人才庫,並能與美國開展更多的合作,攜手共進。
部分原因在於,對英國來說,更接近產業核心不僅有助於了解正在建設的項目,還能讓英國在這些公司中擁有更高的知名度–這一點非常重要,因為英國將人工智慧和技術整體視為經濟成長和投資的巨大機會。
鑑於OpenAI 最近圍繞其”超級對齊”團隊發生的戲劇性事件,在這裡設立辦事處顯得尤為及時。
人工智慧安全研究所成立於2023 年11 月,目前規模相對較小。如果考慮到建立人工智慧模型的公司所面臨的數十億美元投資,以及這些公司將其技術推廣應用到付費用戶手中的經濟動機,那麼該機構目前僅有32 名員工,對於人工智慧技術領域的歌利亞來說,是名副其實的”大衛”。
本月早些時候,人工智慧安全研究所發布了第一套用於測試基礎人工智慧模型安全性的工具–Inspect。
多納蘭今天稱這次發布是”第一階段”的努力。事實證明,迄今為止,為模型設定基準不僅具有挑戰性,而且目前的參與在很大程度上是一種選擇性的、不一致的安排。正如一位英國監管機構的資深人士所指出的,公司目前沒有法律義務對其模型進行審核;而且並非每家公司都願意在模型發布前對其進行審核。這可能意味著,在可能發現風險的情況下,馬可能已經跑了。
多納蘭說,人工智慧安全研究所仍在研究如何以最佳方式與人工智慧公司接觸,對其進行評估。 “我們的評估流程本身就是一門新興科學,因此,在每一次評估中,我們都將開發流程,使其更加精細。”
多納蘭說,在首爾的一個目標是向參加高峰會的監管機構提交檢查報告,希望他們也能採納。 “現在我們有了一個評估系統。第二階段還需要在全社會範圍內確保人工智慧的安全,」她說。
從長遠來看,多納蘭認為英國將制定更多的人工智慧立法,不過,英國首相蘇納克(Rishi Sunak)也表示,在更了解人工智慧風險的範圍之前,英國不會這麼做。
該研究所最近發布的國際人工智慧安全報告主要側重於試圖全面了解迄今為止的研究情況,”我們不相信在我們正確掌握和充分了解之前就立法,”她說,”報告強調,目前還存在很大的差距,我們需要在全球範圍內激勵和鼓勵更多的研究。
“在英國,立法也需要一年左右的時間。如果我們一開始就開始立法,而不是[組織][去年11月舉行的]人工智慧安全峰會,我們現在可能還在立法,而實際上我們不會有任何成果。
人工智慧安全研究所主席伊恩-霍加斯(Ian Hogarth)說:「從研究所成立的第一天起,我們就清楚地認識到,在人工智慧安全、共享研究成果以及與其他國家合作測試模型和預測前沿人工智慧風險等方面採取國際化方法的重要性。 ,為我們在倫敦的員工從一開始就帶來的令人難以置信的專業知識錦上添花。