當AI學會設計病毒人類如何築起「數位防火牆」?
人工智慧(AI)正在加速設計新型蛋白質,這些蛋白質有望應用於藥物、疫苗等領域,但也可能被用於開發生物武器或有毒物質。為此,科學家提出了一系列可內建在AI工具中的防護措施,以阻止惡意使用或追蹤生物武器的源頭。

美國約翰斯霍普金斯大學的專家指出,建立防護框架對平衡技術潛力與風險至關重要。近年來,AI模型已能根據胺基酸序列預測蛋白質結構,甚至產生全新功能的蛋白質。例如,RF diffusion和ProGen等大模型可在數秒內定制蛋白質,其醫學價值顯著,但易用性也帶來隱患——即便非專業人士也可能利用AI生成有毒物質。
麻省理工學院媒體實驗室的研究人員認為,目前AI設計生物武器的風險仍屬理論層面,尚無證據顯示現有技術能引發疫情。儘管如此,130名蛋白質研究人員已簽署協議,承諾安全使用AI。普林斯頓大學的研究團隊進一步提出技術方案,例如FoldMark防護系統,透過在蛋白質結構中嵌入可追溯的識別碼,確保危險物質可被追蹤。
此外,研究團隊建議改良AI模型,採用「數據遺忘(unlearning)」技術剔除危險數據,或透過「防越獄(antijailbreaking)」訓練使AI拒絕惡意指令。美國國防高級研究計畫署(DARPA)的研究人員表示,實施這些措施需建立監管機制。史丹佛大學的專家則認為,監管重點應放在AI蛋白質設計的量產環節,生產設施需核查分子來源及用途,並進行安全性檢測。
目前,AI與生物安全的關係尚未得到足夠重視,但相關研究正逐步展開,以防範潛在風險。