一張照片生成3D頭像蘋果新模型擊敗StyleGAN2 表情光線都能調
隨便一張照片,就可生成3D頭像。而且光線真實,任意角度可調。這是蘋果的最新黑科技生成框架FaceLit。正如其名,FaceLit的特色就是可以將人臉“點亮”。“自帶光環”的FaceLit在易用性上也不輸同類,甚至更勝一籌——
進行3D建模時,需要的照片素材無需專門選擇角度,數量上也只需一張。
甚至對錶情、髮型、眼鏡等元素進行調節時,也不需要額外素材。
而傳統的頭像合成工具或者需要多張圖片才能工作,或者對照片角度有刁鑽的要求。
正是憑藉這一創新,FaceLit獲得了3.5的FID評分,較同類產品直接高出了25%。
改進式EG3D合成人像,光線信息單獨處理
下面就來看一下FaceLit具體是如何實現頭像合成的。
總的來說,蘋果採用了將人物本體與光線分別處理再進行疊加的策略。
早期的三維人像合成工具在轉換過程中可能產生形變。
而爆火的NeRF通過將場景拆分成具體因素,提高了3D圖像合成效果,改善了這一問題。
但蘋果團隊認為,在可控性方面,NeRF仍存有不足之處。
於是,在EG3D框架的基礎上,蘋果創造了FaceLit的合成模型。
EG3D通過三平面解碼器,賦予了二維卷積神經網絡生成渲染3D模型所需深度參數的能力。
蘋果團隊對標準的EG3D訓練方式進行了擴展,並將之轉化成了FaceLit框架。
FaceLit與傳統EG3D渲染流程對比圖
標準的ED3G使用相機位置p參數作為基本輸入參數。
在建立GAN2操作時,蘋果在EG3D的基礎上加入了光照參數l。
不同p(左→右)與l(上→下)值下的初始圖像
蘋果選擇了經過球形諧波方式簡化後的Phong反射模型作為處理光源的物理基礎。
光照參數l就是在這一基礎之上獨立處理得到的。
在自然界中,反射包括鏡面反射和漫反射兩種形式。
不同鏡面反射率條件下的效果對比
因此,蘋果在ED3G模型中加入了鏡面反射解碼器和漫反射解碼器。
它們替代了可以直接得到顏色c、密度σ數據的三平面解碼器。
反射解碼器流程示意圖
通過對GAN2產生的數據進行再次解碼,可以得到鏡面反射率ks和漫反射率kd。
然後再通過兩種反射著色器得到顏色c,密度σ則由漫反射解碼器計算得出。
最終,FaceLit以與三平面解碼器相同的參數(c,w,σ)渲染圖像,並進行分辨率優化。
有的放矢設計訓練策略,數據無需人工標註
生成框架已有,那就來到訓練階段,其特點在於訓練過程中無需人工標註。
方法論層面,在訓練時,團隊使用了FFHQ、MetFaces和CelebA-HQ數據集。
對於不同的數據集,蘋果使用了不同的訓練方式。
FFHQ包含了7萬餘條人臉數據,其訓練分為兩個階段:先在較低的分辨率下訓練,再提高分辨率再次進行。
對於包含2萬數據量的CelebA-HQ,訓練不需要分階段進行。
而對於更小的MetFAces,則只需要通過ADA擴容的方式,使用預訓練的FFHQ進行優化調整即可。
定性地看,訓練結果在機位、光源和反射高光等方面都有出色的表現,圖中的細節也有所增強。
FaceLit生成的頭像(左側四列)唇齒部位的細節進行了明顯重構
定量結果同樣表明,FaceLit在FID、KID等指標上均優於包括標準EG3D在內的傳統生成方式。
在使用FFHQ作為訓練集的條件下,各生成方式的表現如下表,不難看出FaceLit擁有最低的FID和KID值。
而相比於英偉達的StyleGAN2,FaceLit的表現依舊出色:
光線準確度方面,FaceLit在使用三種不同訓練數據集的情況下,與人工設定的標準值平均均方誤差均低於0.01。
網友:人們低估了蘋果AI
消息發出後,便有網友認為“這是對更重磅產品的預熱”。
更有網友直接推測,FaceLit的出現標示著人工智能將進軍AR和VR領域,蘋果的混合現實將最終實現商用……
也有網友認為,FaceLit不會商用,否則蘋果才不會以論文的形式發表。
針對FaceLit本身,也有網友表示,除了LLM,其他都是浮雲,他們(蘋果)如果不開發LLM,就沒有未來。
但這位網友同時也說,蘋果可能已經在做(LLM)了。
相應的,也有網友稱人們“低估了蘋果在AI領域的深度”。
所以各位網友對蘋果在AI領域還有什麼樣的期待呢?
來源:量子位