黃仁勳預言步入現實谷歌展示即時遊戲生成AI模型GameNGen
由AI模型即時生成遊戲的時代,已經悄悄來到了我們身邊。本週來自Google公司和特拉維夫大學的研究人員發表了一篇名為《Diffusion模型是即時遊戲引擎》的論文,介紹了電腦史上第一個完全由神經網路模型支援的遊戲引擎GameNGen。
(圖片來源:Github)
研究人員在論文中寫道:“今天,電子遊戲是由人類編程的,GameNGen是遊戲引擎新範式的部分概念驗證——遊戲將會變成神經模型的權重,而不是代碼行。”
換一種更容易理解的說法,目前所有的電子遊戲都是預先設計好的,開發者需要編寫程式碼、準備遊戲文字和貼圖模型,然後放置在遊戲地圖上——遊戲畫面的渲染和狀態更新取決於手動編輯的規則。但GameNGen模型開啟了一個完全不同的思路:使用AI生成模型,根據玩家的動作和反應,即時演算和生成遊戲畫面。
在演示中,研究人員透過機器學習,讓GameNGen模型成功即時生成90時代的第一人稱射擊遊戲《毀滅戰士》。影片顯示,在AI生成的遊戲中,玩家可以在場景中轉彎、發射武器,同時能夠準確反映剩餘的子彈數量、遭到攻擊後的剩餘血量,以及是否滿足打開下一個關卡所需的條件。
(來源:示範影片)
要注意的是,上面看到的一系列畫面,完全是AI即時產生的影像。最新的進展也顯示,AI模型繼成功生成文字、影像、音訊和短視訊後,可能存在生成遊戲場景的能力,這對邏輯性、連貫性和即時互動的要求明顯高出一大截。
他們是怎麼做到的?
研究團隊介紹稱,為了訓練這個能即時生成遊戲的AI,首先需要訓練一個強化學習(RL)代理來玩遊戲,然後使用錄製下來的片段來訓練生成擴散模型,根據過去的畫面和玩家動作來預測接下來的畫面,這也是為什麼AI生成的遊戲能夠展現生命值和彈藥的變化,以及敵人受到攻擊的動畫。
更大的挑戰在於讓AI產生的影像保持時間和邏輯上的連貫性。為了減輕推理過程中的自回歸漂移,研究人員在訓練期間透過向編碼幀添加高斯噪聲來破壞上下文幀,允許AI更正前幾幀中採樣的信息,從而長時間保持圖像生成的穩定性。
(資料來源:研究論文)
研究人員揭露,跑這個模型只需要單一TPU(Google自研AI處理器),就能達到每秒20幀的生成速度。
當然,上面這幾段話也展現出GameNGen的限制:這個AI必須依靠輸入已有的遊戲(或文字、圖片等材料)來產生遊戲。
英偉達資深研究經理&具身智慧集團主管Jim Fan博士在社群媒體上評論稱,GameNGen更像是神經輻射場(NeRF),而不是影片產生模型。神經輻射場透過從不同角度拍攝場景的影像,從而產生場景的3D展示。但這也意味著模型不具備泛化能力,無法「想像」新的場景。這也是GameNGen與Sora的不同點:它無法產生新的場景或互動機制。
(來源:X)
研究人員也在論文中提到這一點,解釋稱借助該技術,未來的遊戲開發者將能夠通過“文本描述和示例圖像”來創建新遊戲,人們將有可能僅根據示例而不是編程技能,將一組精緻的圖像轉化為現有遊戲的新可玩關卡或角色。
黃仁勳:5-10年內出現完全由AI生成的遊戲
由AI渲染來進行即時遊戲並不是一個全新的想法。今年3月發表最新一代Blackwell架構晶片時,英偉達CEO黃仁勳就曾預言,大概在5-10年內就能看到完全由AI生成的遊戲。
事實上,朝著這個方向前進的不只是Google團隊,OpenAI在今年首次發布Sora演示時,也曾展現過模擬像素遊戲《我的世界》的能力。
(圖片來源:OpenAI)
最新的進展,也恰好迎合了米哈遊前董事長蔡浩宇近期引發熱議的「勸退」言論。
蔡浩宇本周公開聲稱,AIGC已經徹底改變了遊戲開發,現在只需要時間讓這種現象完全展開。他認為,未來只有兩種遊戲開發者俱有繼續從事的意義——前0.0001%的天才,以及99%的業務愛好者創作滿足自己需求的遊戲。至於剩下的「從普通到專業」的遊戲開發者,大家還是趁早轉行吧。
(圖片來源:社群媒體)