AI 模型GameGAN 重寫《吃豆人》,目標:看視頻就能學習的AI
英偉達稱稍後會放出一個使用AI 模型GameGAN 復刻的《吃豆人》遊戲,以致敬誕生40週年的街機版《吃豆人》。根據英偉達發布的研究報告,GameGAN 目標是用神經網絡取代遊戲引擎。
它不同於以往用AI 做遊戲的例子。之前的谷歌DeepMind 和Open AI 還是在現有遊戲框架中,被用來“玩遊戲”,相當於是智能生成一個遊戲對手。比如OpenAI 被用來在Dota2 5v5中對戰人類,OpenAI 2018年通過學習人類演示,在蒙特祖瑪的複仇遊戲中刷出了74500分的高分。
GameGAN 則被用來“創作”遊戲,是對現有遊戲代碼的取代。它在訓練過程中攝入大量遊戲劇本和鍵盤動作,通過觀察場景和玩家的操作動作,預測下一幀遊戲畫面,而不訪問底層遊戲邏輯或引擎。
“當玩家按下左鍵的時候,這個AI會猜測畫面的變化,並且生成一個“看起來是角色在往左走”的圖像。 中間發生的事情,全部都在AI的黑盒中。 沒人知道AI是怎麼理解玩家操作的,得到的只有最終的輸出結果。”
除了生成下一幀遊戲畫面,GameGAN 還學習環境的內在動力學,“我們有興趣訓練一個遊戲模擬器,它可以模擬環境的確定性和隨機性”。
GameGAN包括動力引擎;記憶模塊;渲染引擎;對抗性損失、循環損失訓練和培訓計劃。
首先GameGAN要學習環境會如何跟隨用戶操作變化而改變,這涉及一些基本的規則,比如不能穿過牆壁。同時還要通過訪問歷史,產生一致性模擬。場景中的長期一致性實現通過記憶模塊實現,GameGAN使用內存模塊,記住生成的靜態元素,如背景,並在需要的時候適當檢索。神經渲染引擎負責渲染模擬圖像。此外,對抗訓練用來完成圖像和視頻的合成任務,GameGAN用對抗性訓練學習環境動力學,並產生真實的時間相關模擬。
這次復刻《吃豆人》,主要訓練的細節包括吃豆人的速度和移動能力;鬼魂的運作方式;吃豆人吃下大力丸後的變化;鬼魂與吃豆人相遇的場景。據了解,GameGAN基於PyTorch開發,模型研發已經進行了8個月,關於復刻《吃豆人》只用了4天。
遊戲開發商萬代南宮夢為此次訓練提供了總計幾百萬幀、50000集的《吃豆人》劇本。該公司的Koichiro Tsutsumi 表示:“在看到這個結果時,我們都感到震驚,大家都無法相信可以在沒有遊戲引擎的情況下再現了南夢宮的經典遊戲《吃豆人》。這項研究將幫助遊戲開發人員加快新關卡、角色甚至遊戲的開發。一想到這一點,我們就感到十分興奮。”
不過,復刻遊戲只是開始,英偉達的目標是擴展模型來捕捉更複雜的現實世界環境。英偉達多倫多研究實驗室主任Sanja Fidler 表示:“我們最終將訓練出一個AI,其只需通過觀看視頻和觀察目標在環境中所採取的行動,就能模仿駕駛規則或物理定律。” 而GameGAN 只是第一步。
Nvidia GameGAN Research:
https://cdn.arstechnica.net/wp-content/uploads/2020/05/Nvidia_GameGAN_Research.pdf