王華民團隊最新成果:一張GPU實時模擬布料碰撞特效元宇宙時裝秀栩栩如生
在元宇宙裡看時裝秀,會是什麼感覺?各種布料摩擦細節,不光看得一清二楚,而且就跟真的一樣。裙擺隨著模特的走動飛舞起來~光是看看,就能知道這件衣服是不是輕盈。這是圖形學大牛 王華民團隊的最新成果,提出了一個基於GPU的預處理器MAS,一張GPU完成實時布料碰撞特效。
比如這件羊毛大衣,就能以每秒37幀的速度實時模擬出來,仿真精度可達5mm。
而且也不光是衣服,連毛毛球、軟皮玩具也能實現逼真的碰撞特效。
其論文收錄於SIGGRAPH 2022。作為全球規模最大、水平最高的圖形學會議,SIGGRAPH每年接收的論文都代表著當年CG最高水平。
來康康這是一項什麼樣的研究?
一張GPU實時模擬碰撞特效
要構建真正意義上的元宇宙,首先需要的是一個強大的 實時物理仿真模擬引擎。
而當前常見的物理引擎在效果或效率上還遠達不到理想的狀態。
服裝模擬是所有模擬問題的製高點。
因為服裝的材質、碰撞都是最複雜的,解決好服裝模擬,就等於解決了大部分實時物理模擬問題,為未來元宇宙開發奠定基礎。
從技術上劃分,實時物理模擬分為流體和形變體模擬兩大類。
相較於流體,形變體的應用範圍更加廣泛,比如彈性體模擬、布料模擬、頭髮模擬等,其產業端的價值也更加清晰,比如在服裝、工業上的應用。
但當前困擾科學家的一道挑戰,是 完成更高質量的實時仿真。
任何形變體的模擬,最後都歸於一個線性求解問題,個中區別無非就是矩陣內部數值、稀疏程度還有矩陣大小的不同。
因此,如何 快速求解也就成為其中一個重要的突破口。
基於這樣的背景,王華民團隊提出了基於GPU的MAS預處理器(Multilevel Additive Schwarz Preconditioner)。
顧名思義,這一預處理器採用了多層和域(domain)分解的概念。
以往的算法主要依賴在一層網格上處理,這樣域越少越好,不然誤差大。
但此次研究人員則是構建多個網格層,這樣使用小的、不重疊的域,可以發揮GPU並行計算能力。
具體而言,MAS預處理程序可以分成三個階段。
第一階段,利用Morton代碼快速分層分域。
研究人員提出了一種超節點分割方法和跳過方法,用於空間的初步構建。
第二階段,通過單向Gauss-Jordan消除的低成本矩陣預計算,在每個域進行快速的inverse求解。此外,研究人員還開發了一個選擇性更新方案,以解決輕微的矩陣修改。
第三階段,運行時預處理,從而對矩陣向量快速求解。為了降低計算成本,研究人員發明了一種 對稱矩陣-向量乘法。
實驗表明,MAS預處理器與許多線性和非線性求解器兼容,這些求解器用於帶有動態接觸的形變體模擬,如PCG、加速梯度下降和L-BFGS。
以最常見的PCG求解器為例,在兩者一起使用時,在GPU上的收斂速率仍然明顯優於其他預處理程序,包括GPU上的多網格AmgX。
在達到相同的收斂目標時,MAS預處理器的收斂速度要比其他預處理器快 約四倍。
與此同時,MAS預處理器在CPU上也是有效的,其性能也優於其他預處理程序,比如英特爾的ILU0和ILUT。
除此之外還發現,MAS預處理器的計算開銷很低。
並行計算時僅為0.118秒,相比之下ILU0、ichol和ILUT的成本為2.50秒、33.8秒和154秒。
研究人員表示,此次為5萬個定點到50萬個頂點區間規模的布料和形變體仿真推向了一個更高水平。
未來還將繼續研究基於GPU域分解(GPU-based domain decomposition)的技術,因為這類算法有很多可以挖掘的空間。
Style3D出品
本次研究團隊來自Style3D研究院王華民所帶領的團隊。
王華民,俄亥俄州立大學前副教授,佐治亞理工學院計算機科學博士,斯坦福大學計算機科學碩士,公認的世界級圖形學科學家。
曾以唯一作者身份完成四篇SIGGRAPH論文,6屆SIGGRAPH/SIGGRAPH Asia技術論文委員會委員,其學生遍布知名大廠,因為聚焦布料仿真,業內流傳著這樣一句話:
如果你研究 布料仿真,就不可能沒讀過王華民教授的論文。
如果你研究 布料仿真,就不可能沒讀過王華民教授的論文。
去年8月,他正式加盟國內時尚產業鏈3D數字化公司——凌迪科技Style3D,任職首席科學家兼凌迪研究院院長。
結果不到一年時間,就率隊帶來了最新產學研成果,將實時仿真技術又提升到了新水平。
研究進展如此快速,背後既有世界級技術團隊的實力加成,也有企業的產業化驅動。
凌迪科技Style3D,創立之初將視線聚焦在最制約服裝行業效率的服裝設計開發環節上。
其核心產品,一個是率先打破國外技術壟斷的3D柔性體仿真工業軟件Style3D Studio,其二是全球創新的面料數字化設計軟件Style3D Fabric,另有研發全流程協同平台Style3D Cloud,以及開創性的數字時尚內容資源商城Style3D Market。
研發過程中從面輔料選擇、款式設計、渲染仿真、協同與展銷等全流程,都可以進行數字化呈現以及協同合作,以此來提升研發效率。
此外,凌迪Style3D還依據工廠生產標準生成生產資料清單,串起整個生產製造環節,進一步推動整個行業鏈路的數字化。
據透露,今年6月底凌迪Style3D將有面向元宇宙開發者的神秘產品發布。
目前,它的客戶涉及到海內外品牌方、ODM(原始設計製造)商、面輔料商以及泛電商等。
值得一提的是,就在SIGGRAPH收錄結果出爐同一時間,凌迪Style3D官宣了與牛仔技術公司Jeanologia的合作。
全球每年生產35%的牛仔褲,都採用了這家公司的環保技術。
兩者合作下,牛仔設計師也能夠直接在Style3D一鍵調用牛仔褲紋樣及水洗效果圖案等,無需製作牛仔褲實樣,即可呈現牛仔褲水洗等多種工藝的設計效果。
而且這樣高仿真的數字牛仔褲,還可以直接拿去營銷展示和售賣。
事實上,除了推動整個服裝產業鏈效率外,還有更現實的全球性問題能得到緩解,即現在熱議的碳中和、碳排放。
當前,紡織服裝已經成為全球第二大污染產業,全球每年約有1280萬噸服裝被填埋焚燒,製作服裝所排放的廢水佔全球總量的20%,並承擔著全球10%碳排放。
甚至於,還有15%紡織產品會遭遇不被使用,直接走向燒毀的命運,從而造成二次污染。
而一旦將整個產業從研發、生產到最後的商品展銷等全流程搬上數字平台,污染問題就能得到有效解決,可持續時尚才真正有落實的方向。
圖形學的產業發展
最後,回到這篇被收錄SIGGRAPH的研究成果本身。
可以看到的是,它不像是英偉達、Google每年傳統藝能——各種炫酷逼真的特效技術,以彰顯企業的前沿技術實力。
而是從更垂直的產業角度出發,技術迭代不太容易被人感知,但切實地解決了產業問題。
一方面,這說明圖形學技術已經來到了產業端創造價值。
圖形學最有可能、也是最大限度落地的領域,不是熱議的電影、遊戲,而是像服裝、工業這等產業領域。
另一方面還說明中國在圖形學上技術水平並不弱,會像AI一樣從前沿到產業加速前進。
從此次SIGGRAPH論文收錄結果可以看到,中國團隊已經佔據名單的一大半,其中不乏高校以及企業代表。
隨著圖形學產業價值更加 顯性,更多世界級大牛參與進來。企業也將通過設立研究院、啟動獎學金等方式吸引更多高校人才加入。
以凌迪Style3D為例,去年就啟動了 凌迪圖形學獎學金計劃,每位獲獎者將獲得3萬人民幣的現金獎勵,第一期就有清華、浙大、中科大、南開、山大等10名碩博士獲得。
如此一來,產學研閉環一形成,更有利於圖形學產業化的長期發展。
如今爆火的元宇宙,最終擠掉泡沫。像當初的AI一樣,只有將底層技術與產業相結合,發揮更長遠的價值。
而這一點,中國的企業已經先行一步。