吳恩達:美國加州AI安全法案將扼殺開源大模型
今年2月7日,美國加州議會擬定了《SB-1047前沿AI大模型安全創新法案》。經過4個月6次修訂、審議,該法案已經通過了一些關鍵條款,距離正式發布已經很近了。表面上,這是一個增強大模型安全、透明性、促進公平、吸引投資的法案。實際上,你仔細閱讀其中一些關鍵條款,會發現這對一些科技企業、開發者將帶來非常大的負面影響。
例如,根據該法案的定義,Meta的Llama-3被定義為超過1億美元訓練成本的「前沿模型」。如果有人將該模型用於非法用途,Meta也會受到嚴重處罰。咱們2000多年前大秦的連坐制度,咋還出口了呢~
加州的地理位置非常特殊,這裡既有史丹佛、加州理工、南加州大學等名校,也是Google、蘋果、OpenAI、Meta等科技巨頭總部的所在地,所以,該法案也受到了吳恩達、Yann LeCun等AI界泰斗的抵制。
例如,該法案中的22603(a)(3)(4)條要求”有限職責豁免”向政府部門提交證明,並在有錯誤時停止模型的運行;
第22603(b)條要求開發者需要報告任何模型的潛在的AI安全事故。如果開發者無法完全掌控基於其模型的各種衍生版本,若發生安全事故,責任將歸屬於第一開發者。
也就是說,開發者需要對模型的能力做出保證,一旦大模型開源後被他人修改,能力發生變化,會面臨合規風險的處罰。所以,企業、個人開發者在開源大模型權重時會非常謹慎,這相當於一個連帶責任。
此外,該法案中的22604(a)(b)規定,當使用者使用其「前沿模型」和算力資源時,開發者需要提交客戶的所有資料,包括客戶的身份、信用卡號、帳號、客戶標識符、交易識別碼、電子郵件、電話號碼。
同時,每年都要提交一次資料,並對使用者的行為、意圖進行評估。用戶的所有資料會備份7年,也會在海關、邊境總署備案。
而開發者也需要具備緊急停止大模型的能力,例如,使用者使用其模型用於別的業務場景,可以不用透過使用者本地直接關閉模型。
像這種嚴格的監理條例還有不少,無形之中會加重企業、開發者對大模型的合規成本和開放權重的態度。
尤其是那種“秦朝連坐制度”,用戶使用了你的模型開發了其他潛在危險的應用,特別是這個判定還很模糊,那麼第一開發者弱沒有“豁免權”將會一起被處罰,真的是挺離譜的。
對於SB-1047法案的擬定,吳恩達發表了一篇深度長文來回應。他表示,法案中有很多問題,首先是危險範疇定義不合理,如果有人使用他們的模型做超出規定的事情,原作者一起被處罰。此外對造成的傷害定義也不太好,例如,造成5億美元的損失,這在AI領域還是很難實現的。
如果最終議會通過了這個方案,那麼將會對AI大模型領域造成很大影響,將徹底扼殺開源大模型的技術創新。
吳恩達進一步指出,應該監管的是AI應用程式而不是大模型本身。例如,馬達是一種技術。當我們把它放在攪拌機、電動車、透析機或飛彈中時,它就成為了一種應用。
如果我們透過法律規定,如果任何人以有害的方式使用電機,製造商將承擔相應的責任。那麼,馬達製造商要么關閉生產,要么將馬達的性能製造的非常小,難以大範圍應用。
SB-1047法案似乎沒有考慮過大模型有益處的應用,而是全部針對他的有害來處理的,這是不公平的。
如果這樣的監管法案最終通過了,可能會阻止人們使用馬達製造飛彈,但我們也會失去使用攪拌機、電動車和透析機的機會。
吳恩達在最近演講中談SB-1047
更大的憂慮是,加州的SB-1047法案一旦通過,其他州可能會效仿,整個負面影響會不斷擴大。
圖靈獎得主、Meta首席科學家- Yann LeCun直言,SB-1047法案意味著,加州的科技產業將直接面臨終結。
知名架構師Daniel Jeffries也贊成Yann的觀點,並發表長文強烈呼籲加州議會對SB-1047法案提反對票。並認為,SB-1047根本就不是一個法案,就是一個「特洛伊木馬」。
原因很簡單,這是由一群小範圍利益群體制定的規則,他們堅信AI大模型會帶來“世界毀滅”,完全不顧他的好處。
此外,他提出中國已經具備與OpenAI等科技巨頭競爭的大模型,在電動車、自動駕駛、城市AI大腦皆處於領先地位。這個方案要是通過了,將直接壓制美國AI領域的發展進程。
一般用戶對SB-1047法案也是相當抵制的,這個法案的最終目的,就是讓第一開發者為自己的大模型永久負責,並保證不會有任何危險。這簡直是難以執行的監管,會嚴重影響開源領域的發展。
同時嘲諷道,讓一群平均年齡63歲的人,來監管AI大模型有點不可靠啊~~
也有人建議,不行就把開源大模型這事交給中國來做吧,Quen 2、零一萬物等開源大模型的性能已經和GPT-4、GPT-4o等旗鼓相當。