AI領袖警告美國:AI難控制兩年就可製造出生化武器
三位人工智能(AI)行業領袖在美國國會參議院司法委員會舉行的聽證會上作證。他們警告稱,AI的瘋狂發展速度可能會在未來幾年內造成嚴重危害,比如流氓國家或恐怖分子會利用這項技術製造生化武器。
此次聽證會很好地展示了人們對於AI會超過人類智慧的擔憂。多年來,人們的這種擔憂原本只存在於科幻小說中。然而,隨著ChatGPT橫空出世並引發AI競賽,這一擔憂迅速成為主流聲音。
兩年就可製造生化武器
美國AI創業公司Anthropic CEO達里奧·阿莫代伊(Dario Amodei)在聽證會上表示,他擔心尖端AI技術可能在短短兩年時間內就會被用來製造危險的病毒和其他生化武器。
蒙特利爾大學AI教授、“現代AI科學之父”約書亞·本吉奧(Yoshua Bengio)認為,美國應該推動國際合作來控制AI的發展,他還概述了一種類似於核技術國際監管規則的管理制度。
“最近,我和其他許多人都對ChatGPT等AI系統實現的巨大飛躍感到驚訝。AI進步的加快更令人擔憂。”本吉奧表示。
現代AI科學之父本吉奧
加州大學伯克利分校計算機科學教授斯圖爾特·拉塞爾(Stuart Russell)指出,AI的工作方式意味著,與其他強大技術相比,它更加難以被完全理解和控制。
過去六個月裡,包括本吉奧在內的一些知名研究人員已經將他們所認為的“超級智能”AI可能出現的時間從幾十年後提前到了僅僅幾年後。目前,這些擔憂在矽谷、媒體界和華盛頓引發反響。政客們把這些威脅列為政府需要通過立法的原因之一。
參議院司法委員會小組委員會主席理查德·布盧門撒爾(Richard Blumenthal)主持了此次聽證會。他表示,人類已經證明自己有能力發明當時令人難以置信的新技術。他把AI比作美國研製核武器的“曼哈頓計劃”或美國宇航局的載人登月計劃。
“我們已經做到了人們以前認為不可思議的事情,”他在聽證會上說,“我們知道如何干大事。”
司法委員會小組委員會主席布盧門撒爾
不過,對於週二聽證會上概述的超級智能AI到來的激進時間表,並不是所有研究人員都認同。質疑者指出,炒作AI的潛力可能有助於企業兜售這項技術。其他知名AI領袖表示,那些討論AI接管世界等生存威脅的人,是在誇大這項技術的能力,不必要地散播恐懼。
巨頭壟斷
在此次聽證會上,一些參議員還提出了未來可能會出現的反壟斷擔憂。密蘇里州共和黨參議員喬希·霍利(Josh Hawley)表示,其中一個風險是微軟和谷歌等大型科技公司對AI的壟斷。多年來,霍利一直是大型科技公司的嚴厲批評者,他利用此次聽證會的機會辯稱,這些技術背後的公司本身就是一種風險。
“我相信壟斷會有利於企業,我對此毫不懷疑,”霍利表示,“但我不太確信的是,人們是否會因此受到傷害。”
新監管機構
加州大學伯克利分校計算機科學教授斯拉塞爾認為,有必要成立一個專門聚焦AI的新監管機構。他預測,AI最終將徹底改變經濟,為GDP的增長做出巨大貢獻,因此需要健全和專門的監管。
Anthropic CEO阿莫代伊則表示,他對於是否成立一個新的機構,或者是否利用美國聯邦貿易委員會(FTC)等現有監管機構來監管AI持“不可知論”態度,但他表示,必須為AI公司建立標準測試,以檢驗這些公司的技術來識別潛在危害。
“從監管角度而言,在我們確定並製定相關程序之前,我們都是在瞎猜,”阿莫代伊表示,“如果我們沒有適當的東西來限制AI系統,我們的日子就不會好過。”
與本吉奧、拉塞爾不同的是,阿莫代伊經營著一家正在推動AI技術向前發展的公司Anthropic。該公司的員工都是前谷歌和OpenAI的研究人員,試圖將自己定位為比大型科技公司的技術考慮更周到、更謹慎的替代品。而且,Anthropic從谷歌那裡獲得了大約3億美元的投資,並依靠谷歌的數據中心來運行其AI模型。
他還呼籲為AI研究提供更多聯邦資金,以學習如何降低AI帶來的一系列風險。阿莫代伊預測,在未來兩到三年內,惡意分子可能會利用AI來幫助開發生化武器,繞過旨在阻止人們開發此類武器的嚴格行業控制。“我擔心我們能否及時做到這一點,但我們必須嘗試。”他表示。