美國人工智慧監管法案SB 1047遭Meta、Google反對將重新修訂
一項美國人工智慧監管法案因備受爭議,將重新修改。這項被加州眾議院撥款委員會通過的SB 1047法案,即《前沿人工智慧模型的安全可靠創新法案》要求對訓練成本超過1億美元的AI模型實施安全監管,需向國家機構報告安全工作,否則需承擔刑事責任。
同時,將成立一個新機構協助加州政府執行該法案並制定新的安全標準。
該法案一發布就遭到Meta和谷歌等大型科技公司,以及代表矽谷的民主黨國會議員羅-卡納(Ro Khanna)和佐伊-洛夫格倫(Zoe Lofgren)的反對。
卡納議員在聲明中說:「作為來自矽谷的代表,我一直在推動對人工智慧的監管,我完全同意立法的必要性,並讚賞SB 1047法案背後的初衷,但擔心該法案會損害個人企業家和小型企業的發展,阻礙創新。
眾議院科學、太空與技術委員會洛夫格倫也表示,該法案只是在解決假設性風險,但卻忽略了真正可能造成人工智慧風險的因素。
身為人工智慧新創公司的Aitomatic執行長克里斯托弗-阮(Christopher Nguyen)也明確表達了他的意見,他表示,該法案可能會影響依賴大型語言模型(如Meta 的Llama 31)的新創企業生態系統、小企業,甚至是街頭的普通人。
在一片反對聲浪中,該法案進行了修訂,修訂後的法案將不再要求這類AI模型公司提交安全測試結果證明,只需提交公開聲明概述其安全實踐。
目前,修正後的法案正提交加州眾議院批准。