頂級AI研究人員和CEO在22字聲明中對”滅絕人類的風險”提出警告
一批頂級人工智能研究人員、工程師和首席執行官就他們認為人工智能對人類構成的生存威脅發出了新的警告。這份22個英文詞彙的聲明被修剪得很短,以使其盡可能地被廣泛接受,內容如下:”減輕人工智能帶來的滅絕風險應該是一個全球優先事項,與其他社會規模的風險如大流行病和核戰爭並列。”
這份聲明由位於舊金山的非營利組織人工智能安全中心發布,包括GoogleDeepMind首席執行官Demis Hassabis和OpenAI首席執行官Sam Altman以及Geoffrey Hinton和Youshua Bengio在內的人物共同簽署了這份聲明–他們是因其在人工智能方面的工作而獲得2018年圖靈獎(有時被稱為”計算界的諾貝爾獎”)的三位人工智能研究人員中的兩位。在撰寫本報告時,今年的第三位獲獎者、現任Facebook母公司Meta的首席人工智能科學家Yann LeCun還沒有簽字。
該聲明是對人工智能安全的複雜和有爭議的辯論的最新高調干預。今年早些時候,一封由許多支持22字警告的人簽署的公開信,呼籲人工智能發展”暫停”6個月。這封信在多個層面受到了批評。一些專家認為它誇大了人工智能帶來的風險,而另一些人同意風險,但不同意信中建議的補救措施。
人工智能安全中心(Center for AI Safety)的執行董事丹-亨德利克斯(Dan Hendrycks)告訴《紐約時報》,今天聲明的簡潔性–沒有提出任何潛在的方法來減輕人工智能帶來的威脅–是為了避免這種分歧的產生。”我們不想推動一個非常大的30種潛在干預措施的菜單,”亨德利克斯說。”當這種情況發生時,它稀釋了信息。”
Hendrycks將這一信息描述為擔心人工智能風險的行業人士的”出櫃”。”有一個非常普遍的誤解,甚至在人工智能界,認為只有少數的末日主義者,”亨德利克斯告訴《紐約時報》。”但是,事實上,許多人私下里會對這些事情表示擔憂。”
這場辯論的大體輪廓是熟悉的,但細節往往是無休止的,是基於人工智能係統迅速提高能力,並不再在安全可控運行下的假設情景。許多專家指出,像大型語言模型這樣的系統的迅速改進,證明了未來智能的預期收益。他們說,一旦人工智能係統達到一定的複雜程度,可能會變得無法控制其行動。
其他人則懷疑這些預測。他們指出,人工智能係統甚至無法處理相對平凡的任務,比如說,駕駛汽車。儘管在這一研究領域付出了多年的努力和數十億的投資,但完全自動駕駛的汽車仍遠未成為現實。懷疑論者說,如果人工智能連這一個挑戰都處理不了,那麼在未來幾年,這項技術還有什麼機會與人類的其他成就相媲美呢?
同時,人工智能風險倡導者和懷疑論者都認為,即使不改進其能力,人工智能係統在今天也會帶來一些威脅–從它們的使用導致大規模監視,到為錯誤的”預測性警務”算法提供動力,以及為製造錯誤信息和虛假信息提供便利。