OpenAI最新AI模型GPT-4o:披著羊皮的狼?
OpenAI近日發布了一份關於其最新AI模型GPT-4o的安全評估報告,稱該模型的整體風險等級為「中等」。這看似一份坦誠的自我審視報告,實則暗藏玄機。
GPT-4o自今年5月發布以來,備受矚目。 OpenAI聲稱在發布前,曾邀請外部安全專家對模型進行「紅隊攻擊」(在網路實戰攻防演習中,紅隊成員針對目標系統、人員、軟體、硬體和設備同時執行的多角度、混合、對抗性的模擬攻擊),以發現潛在風險。結果顯示,儘管GPT-4o能夠產生虛假資訊、暴力內容等,但整體風險被評估為「低」。
然而,在風險評估的四個類別中,「勸說」這個類別風險較高,GPT-4o產生的文本在某些情況下甚至比人類撰寫的更能影響讀者意見,即使它整體上並不具有更可靠的說服力。
值得注意的是,這份報告的發佈時機頗為敏感。 OpenAI正面臨前所未有的安全質疑,從內部員工到政界人士批評聲不斷。就在GPT-4o安全報告發布前,美國麻省參議員伊麗莎白·沃倫和眾議員洛麗·特拉漢聯名共同簽署了公開信,要求OpenAI公開回應安全審查和舉報機制的相關問題。此前,OpenAI內部也曾因安全問題引起董事會擔憂,CEO山姆·阿爾特曼甚至一度被解職。
更令人擔憂的是,GPT-4o的發布恰逢美國總統選舉前夕。在這種情況下,該模型極有可能被濫用於傳播虛假訊息,甚至被惡意行為者利用。雖然OpenAI強調了其對安全性的重視,但這份報告卻讓人不禁質疑,所謂的「安全評估」是否只是為了平息輿論的煙霧彈?
對此,加州參議員史考特·維納正在推動一項旨在監管大語言模型的法案,其中包括要求公司對AI的潛在危害承擔法律責任。如果該法案通過,OpenAI等公司將面臨更嚴格的安全監管。
OpenAI的「透明度」一直備受詬病。不僅訓練資料來源不明,連同安全測試細節也缺乏公開。 GPT-4o的安全評估報告雖然已經朝著「透明」邁出一步,但仍遠遠不夠——公眾有權知道這些強大AI的真實面目,以及它們可能帶來的潛在風險。
OpenAI聲稱的“中等風險”,能否經得起時間的考驗,還有待觀察。