GPT-4可實現自主入侵零日安全漏洞成功率高達53%
研究人員利用自主的GPT-4 機器人團隊成功入侵了半數以上的測試網站,這些機器人協調工作並隨意產生新的機器人。而且,這還是利用了以前未知的、現實世界中的”零日”漏洞。
幾個月前,一個研究團隊發布了一篇論文,表示他們已經能夠使用GPT-4 自主入侵一日(或N 日)漏洞–這些漏洞是已知的安全漏洞,但尚未發布修復程序。如果給出常見漏洞和暴露(CVE)列表,GPT-4 能夠自行利用87% 的臨界嚴重性CVE。
轉眼到了本週,同一組研究人員發布了一篇後續論文,稱他們已經能夠利用一組自主、自傳播的大型語言模型(LLM)代理,採用任務特定代理的分層規劃(HPTSA)方法,入侵零日漏洞(尚未被發現的漏洞)。
HPTSA 使用一個”規劃代理”來監督整個過程,並啟動多個”子代理”來完成特定任務,而不是指派一個LLM 代理來解決許多複雜的任務。規劃代理與管理代理之間的關係就像老闆與下屬之間的關係一樣,規劃代理負責協調管理代理的工作,而管理代理則負責分派每個”專家子代理”的所有工作,從而減輕了單個代理在其可能難以完成的任務上的負擔。
這種技術與Cognition Labs 的Devin 人工智慧軟體開發團隊所使用的技術類似;它規劃出一項工作,找出需要哪些類型的員工,然後透過專案管理完成工作,同時根據需要催生自己的專業”員工”來處理任務。
以15 個真實世界的網路漏洞為基準,HPTSA 在利用漏洞方面的效率比單一LLM 高出550%,並能入侵15 個零日漏洞中的8 個。而單一LLM 只能入侵15 個漏洞中的3 個。
黑帽還是白帽?人們有理由擔心,這些模式會讓使用者惡意攻擊網站和網路。不過,研究人員之一、白皮書作者丹尼爾-康(Daniel Kang)特別指出,在聊天機器人模式下,GPT-4″不足以理解LLM 的能力”,無法獨立入侵任何設施,這至少是個好消息。
當我們詢問ChatGPT 能否可以利用零日漏洞時,它通常會回答說:”不,我沒有能力利用零日漏洞。我的目的是在道德和法律範圍內提供資訊和幫助”,並建議諮詢網絡安全專業人士。