NVIDIA展示了完全由人工智慧控制的NPC在遊戲中的表現
週一,2024 年遊戲開發者大會拉開序幕,各家公司紛紛展示了自己的人工智慧遊戲作品。Unity預告將與對話式人工智慧新創公司Convai合作,而NVIDIA則宣布了一系列利用其MetaHuman和其他人工智慧技術的專案。
在GDC 2024 的主題演講中,NVIDIA 執行長黃仁勳播放了一段《Covert Protocol》的簡短預告片/解說,這是與人工智慧SDK 開發商Inworld AI 合作的技術演示。Covert Protocol 是Inworld 正在建置的人工智慧增強開發平台的代號。它使用虛幻引擎5 並利用NVIDIA 的多項AI 技術(包括Riva 自動語音識別和Audio2Face)來提供逼真的角色,這些角色可以說話、做出反應並與周圍環境即時互動。
《Covert Protocol》與Convair/Unity 在GDC 上展示的Project Neural Nexus 技術演示相似。主要區別在於,前者比Neural Nexus 看起來好得多。從圖形上看,它採用了UE5 和Epic 的MetaHuman 技術,效果令人驚嘆。Neural Nexus 使用的是Unity,顯得單調乏味。
與以往的MetaHuman Creator 演示相比,《Covert Protocol》的模型看起來更具可塑性。不過,我們必須考慮到,當Epic展示高度精細、近乎逼真的模型時,並沒有複雜的背景來消耗週期。因此,開發人員可以充分利用資源,使MetaHuman 臉部看起來盡可能細緻。隱密協議》更接近模型在成品遊戲中的樣子,這仍然是相當不錯的。
與康維展示的FPS 遊戲相比,該演示的遊戲玩法更像是對話式的神秘冒險。因此,我們沒有看到任何激烈的動作,但它確實展示了對話片段,而且人工智慧的臉部動畫和語音語調要好得多。語音仍然無法與人類配音相比,但也不像Convai 的模型那樣完全沒有情感。其中有一些情感的暗示。
不可否認,這次演示給人留下了深刻印象,但它也像”神經連接項目”(Project Neural Nexus)一樣,對遊戲的未來提出了一些合理的問題。也就是說,遊戲玩家是否真的希望能夠與虛擬的Chat-GTP 頭像進行開放式、有時甚至是無意義的對話?還是他們會拒絕這些人工智慧驅動的想法,轉而選擇傳統的語音表演和腳本對話?沒有成品還很難說。不過,我們已經可以看到人工智慧疲勞症的出現,因為公司每天都在向消費者灌輸基於人工智慧的產品理念。如果目前的趨勢持續下去,人工智慧很快就會控制一切,從遊戲到日常任務。沒有經過深思熟慮就開發出來的遊戲–過度依賴人工智慧機制很可能會惹惱玩家,而不是將他們轉化為銷售量。