OpenAI首席策略長:AGI可能比預期更早到來
根據朝鮮日報報道,OpenAI 首席戰略官Jason Kwon 8月7日在舊金山OpenAI 總部接受《朝鮮日報》採訪時表示,沒有人知道AGI 出現後的結果會怎樣,人工智能應該受到監管,安全措施也將到位。
人工智慧(AI) 革命正在改變全球各行各業的範式,這場革命的真正開始源於2022 年11 月OpenAI 發布ChatGPT。今年5 月,OpenAI 再次震撼世界,發布了生成式人工智慧模型GPT-4o,能夠即時與人類互動,甚至能夠偵測情緒,讓人想起科幻電影。人們對人工智慧可能主宰人類時代的擔憂愈演愈烈。
OpenAI 首席策略長(CSO) Jason Kwon 負責監督未來策略,解決與人工智慧相關的道德和法律問題,以及技術開發。他是一位正在塑造全球標準的韓裔美國人。
8 月7 日,權永哲在舊金山OpenAI 總部接受《朝鮮日報》採訪時表示,人工智慧(AGI)的關鍵技術可能比許多人預期的更快出現。 AGI 是一種智力超越人類的人工智慧。儘管許多人預測AGI 將在3 到5 年內出現,但權永哲認為它可能會更早出現。
不過,他補充說:我們不會在一夜之間突然推出一款無所不包的人工智慧。
當被問及這是否是因為它可能導致重大社會崩潰時,他確認是的。這表明,儘管AGI 技術已經相當先進,但其開發速度正在謹慎管理,以減輕潛在的負面影響。這是權永哲首次接受韓國媒體採訪。
這是否意味著AGI的出現已經指日可待了?
「我們假設這項技術很快就會實現,並正在尋找適當管理它的方法。然而,僅僅因為技術存在並不意味著它會立即成為產品。這類似於電發明後的第二天照明和電器並沒有出現。核心技術的開發與其在社會中的應用之間可能會有很長的延遲。
“將人工智慧業務利潤再投資於安全研究”
有人猜測下一個模型GPT-5 可能接近AGI。
“(微笑)我們將在發佈時進行更多討論。”
OpenAI CSO 並沒有明確說明GPT-5(OpenAI 的下一代AI 模型)的發佈時間或效能。儘管最初預計將在10 月的開發者大會上亮相,但科技業現在認為它可能會被推遲到明年。
OpenAI 認為AGI 的哪些面向最危險?
有四個主要領域可以被視為災難性風險。其中包括極端的說服力、網路攻擊、對核武、化學武器和生物武器的支持以及人工智慧模型的自主性。
權先生提到的極強說服力,是指人工智慧能夠利用各種數據,使人類盲目相信某些事情。人工智慧自主性是指人工智慧能夠從自己的數據中創造和學習。
關於支援化學和生物武器,權先生說:如果有人試圖利用人工智慧執行具有生物學風險的任務,我們會監視和管理使用者。到目前為止,人工智慧似乎並不比Google等搜尋引擎更危險。
他補充說:然而,最大的風險在於人工智慧創造出前所未有的知識,並超越人類的控制。
OpenAI不是解散了負責AI控制的超級對齊團隊嗎?
「這方面存在一些混亂,但超級對齊團隊在人工智慧控制方面的工作並沒有停止。相反,團隊成員已被重新分配,繼續在公司內部進行這項關鍵工作。我們仍然專注於開發安全技術,以阻止危險的用戶請求並監控任何試圖使用人工智慧模型進行惡意活動(如網路攻擊)的行為。
協調工作是指引導和控制人工智慧系統按照人類預期的目標和道德原則運作的技術。
“我們的AI控制小組解散了?真是個大誤會。”
一些批評人士認為,人工智慧公司現在優先考慮盈利能力而不是安全性。
「這完全不是事實。盈利和安全可以齊頭並進。成功的企業可以將其利潤再投資於安全研究,從而創建一種可持續的模式。就像汽車行業利用汽車銷售收入來資助最終使汽車更安全的研究一樣,我們的創收能力直接支持我們目前正在進行的安全研究。
人類有能力應付AGI 的潛在威脅嗎?
「沒有人能夠準確預測AGI 將如何影響世界,但公司需要做好準備。我的工作是深入了解AGI 的潛在心理和經濟影響,就必要的法律提供建議,並指導企業如何與全球政府合作。我們一直認為人工智慧應該受到監管,這一承諾始終沒有改變。
OpenAI 最近因開發檢測學生濫用人工智慧的技術但未公開而受到批評。
「這項技術仍處於試驗階段,遠非完美。我們的目標是創造一個讓技術造福人類的世界,而不是讓人們因此受到不公平指責的世界。不當使用人工智慧的背後往往有著複雜的原因,而僅僅依靠只能檢測人工智慧使用情況的審查工具可能會導致教師做出錯誤的決定。
您對韓國的人工智慧人才有什麼建議?
「韓國的人工智慧能力已經非常出色,OpenAI 的一些頂尖研究人員就是韓國人。然而,韓國人才可以改進的一個領域是利用網路的力量。我天生就很內向,但在矽谷,我透過不斷與人會面、溝通和抓住機會才達到現在的地位。