OpenAI稱ChatGPT幫助製造生物武器的可能性很小
根據OpenAI 的一項自行研究,在研究生物武器方面,OpenAI 的GPT-4 只比一般網路搜尋工具略勝一籌。根據彭博社報道,這項研究是由OpenAI 的新準備團隊進行的,該團隊於去年秋天成立,目的是評估該公司前沿人工智慧模式的風險和潛在濫用。
![lp_logo_3.0.jpg](https://i0.wp.com/static.cnbetacdn.com/article/2024/0202/5c63b69ddf61376.jpg?w=640&ssl=1)
OpenAI 的研究結果似乎反駁了科學家、立法者和人工智慧倫理學家的擔憂,即像GPT-4 這樣強大的人工智慧模式可以為恐怖分子、罪犯和其他惡意行為者提供重要幫助。多項研究都警告說,人工智慧可能會為那些製造生物武器的人帶來額外的優勢,例如牛津大學有效風險基金會(Effective Ventures Foundation)的這項研究考察了ChatGPT 等人工智慧工具,以及為科學家專門設計的人工智慧模型,如ProteinMPNN(可協助產生新的蛋白質序列)。
這項研究由100 名參與者組成,其中一半是高級生物學專家,另一半則是修過大學生物學課程的學生。然後,參與者被隨機分為兩組:一組可以無限制地存取OpenAI 高級人工智慧聊天機器人GPT-4 的特殊版本,另一組只能存取普通網路。然後,科學家要求這兩組人完成五項與製造生物武器有關的研究任務。其中一個例子是,參與者被要求寫下合成和搶救伊波拉病毒的步驟方法。然後,根據準確性、創新性和完整性等標準,對他們的答案進行1 到10 分的評分。
研究的結論是,使用GPT-4 的學生組和專家組的平均準確率略高。但OpenAI 的研究人員發現,這種提高並不具有”統計意義”。他們也發現,依賴GPT-4 的參與者回答得更詳細。
研究報告的作者寫道:”雖然我們沒有觀察到在這一指標上有任何統計上的顯著差異,但我們確實注意到,獲得模型訪問權的參與者的回答往往更長,並且包含更多與任務相關的細節。”
此外,在某些任務上,使用GPT-4 的學生幾乎與專家小組一樣熟練。研究人員還注意到,GPT-4 使學生組的答案達到了”專家基線”,尤其是在兩個任務上:放大和表達。可惜的是,出於”資訊危害考量”,OpenAI 不會透露這些任務的內容。
根據彭博社報道,該防備團隊也正在進行研究,探索人工智慧在網路安全威脅方面的潛力及其改變信念的力量。 OpenAI 在去年秋天成立該團隊時曾表示,其目標是”追蹤、評估、預測和保護”人工智慧技術的風險,以及減輕化學、生物和放射性威脅。
鑑於OpenAI 的準備團隊仍在代表OpenAI 進行工作,我們必須謹慎對待他們的研究。研究結果似乎低估了GPT-4 為參與者帶來的優於普通網路的優勢,這與外部研究以及OpenAI 本身對GPT-4 的賣點之一相矛盾。新的人工智慧模型不僅可以完全存取互聯網,而且是一個在大量科學數據和其他數據基礎上訓練出來的多模態模型,OpenAI不願透露這些數據的來源。研究人員發現,GPT-4 能夠對科學手稿提出回饋意見,甚至可以作為科學研究的合作者。總而言之,與Google相比,GPT-4 只為參與者帶來微不足道的提升似乎不太可能。
雖然OpenAI 創始人薩姆-奧特曼承認人工智慧有潛在的危險,但其自己的研究似乎在貶低其最先進聊天機器人的實力。雖然研究結果表明,GPT-4 為參與者帶來了”準確性和完整性的輕微提升”,但這似乎只適用於以某種方式調整數據的情況。這項研究衡量了學生與專家的表現,也檢視了五種不同的”結果指標”,包括完成任務所需的時間或解決方案的創造能力。
不過,該研究的作者後來在腳註中指出,總體而言,GPT-4 在總準確率方面給所有參與者帶來了”統計學意義上顯著的”優勢”。作者指出:”不過,如果我們只評估總準確率,因而不對多重比較進行調整,那麼這一差異在統計上將是顯著的。 “