迪士尼研究中心開發新技術:讓3D面部表情擺脫詭異
據外媒報導,目前,3D渲染人臉在任何大型電影或遊戲中都佔有重要地位,但要以自然的方式捕捉它們並賦予它們動畫效果卻是一項艱鉅的任務。為此,迪士尼研究中心正在研究如何使這一過程變得更加順暢的技術,其中,一種機器學習工具可以讓生成和操縱3D人臉變得更加容易。
這種技術已經從早期的木製表達和有限的細節發展了有很長的一段時間。高分辨率、令人信服的3D人臉可以幫助快速、良好地製作動畫,然而人類表情的微妙之處不僅是它的多樣性而且還有它的假裝性。想想看,當一個人微笑時,他的整個面部會發生怎樣的變化–雖然每個人的表情都不一樣,但卻有足夠多的相似之處以此來幫助我們分辨出一個人是否真的在笑。那麼如何才能在一張人造臉上達到那種程度的細節呢?
現有的“線性”模型簡化了表情的微妙性,雖然可以精確地表達“快樂”或“憤怒”的表情,但以準確性為代價–它們無法表達所有可能的表情。現在,迪士尼的新神經模型可以通過觀察表情之間的相互聯繫來學習複雜性,但跟其他類似的模型一樣,它們的運作方式也是模糊的,難以控制的,所以目前除了讓它們學習各種面孔之外還不具備被推廣的能力。它們還不能達到藝術家在電影或遊戲中所需要的控制水平。
據了解,迪斯尼研究中心的一個團隊提出了一種兩全其美的新模型–他們稱之為“語義深度面部模型(semantic deep face model)”。這當中不涉及精確的技術執行,其基本的改進是–一個神經模型,它能學習面部表情是如何影響整個臉的且還不是專門針對某一張臉–此外,它還是非線性的,這意味著它能允許靈活的表情跟面部的幾何形狀和彼此互動。
結果是強大的:您可以生成一千張不同形狀和情緒的面部,然後使用相同的表情讓它們動畫化,這項工作則不再需要任何額外的工作。想想看,隨便點擊幾下就能召喚出不同的CG人物或在遊戲中擁有能做真實面部表情的角色是一件多麼興奮的事情。