黃仁勳4月份那場發佈會騙過了全世界:皮衣是假的廚房是假的 連他自己都是假的
英偉達今年4月份那場發佈會,你曾看出什麼不對勁的地方嗎? 你品,你細品:剛剛,在計算機圖形學頂會SIGGRAPH 2021上,英偉達通過一部紀錄片自曝:那場發佈會內藏玄機~你看到了老黃,但也沒完全看到。 因為,這是一場當面”造假”的發佈會。
畫面中老黃的廚房、標誌性的皮衣,甚至他的表情、動作、頭髮…… 全都是合成出來的。
這是一場開在元宇宙里的發佈會,發表演講的是英偉達CEO黃仁勳的數位人替身。
彼時彼刻,恰如此時此刻。
黃老闆真給自己找了個替身。
沒錯,全世界都被黃仁勳騙了!
整整三個多月誰也沒發現。
而且不光他自己,大到廚房的傢俱抽屜:
小到廚房裡擺放的金屬罐、甚至是老黃的樂高小人,都是被渲染出來的:
知道真相的我就如同導演李安:
這一切是怎麼發生的呢……
到底怎麼造假的?
數位人想要以假亂真,一定要做到細節豐富。
因為人腦專門有一套系統用於識別同類,有一點不對勁之處都會在幾毫秒之內引起警覺。
所以要造假的老黃,得到攝影棚里拍上幾千張各種角度的照片,通過一套3D掃描,把他臉上的每道褶子都採集成數據。
為了讓效果更逼真,他那件拉風的皮衣還得單獨拍。
用得到的數據對老黃做3D建模,為了方便後期編輯,先要把他的頭髮薅光!
具體到手指的細節,也需要非常仔細地調整:
建模完成好,下一步是讓老黃動起來。
不過這裡就不需要費時費力地進行手工操作了,AI已經能夠勝任。
就像這樣,用上最新的Audio2Face模型,AI可以隨著語音播放自動調整模型的面部動作表情。
動作是沒問題了,但是皮膚材質看起來還是不夠好,和發佈會上的效果沒法比。
這就需要另一個AI,用一張老黃的照片就能匹配上動作合成到動畫里去。
身體動作就不用老黃自己採集了,而是找來專業的動作捕捉演員,畢竟CEO肯定時間有限。
這樣所有的前期準備工作就完成了,接下來是渲染。
看看這個自研的Omniverse RTX渲染器:
就真的是字面意義上的即時光線追蹤,移動視角,調整光線都立刻完成更新。
這背後具體用了多少塊顯卡英偉達倒是沒具體說,總之是多GPU+雲計算才能搞定。
這場虛擬發佈會,總共有34個3D美術師和15個軟體研究人員參與。
他們一共做了21個版本的數位老黃,從中選出最像的那個,做出了這場精彩的發佈會。
還真是把全世界都騙過了。
英偉達”造假”有多強
上面這些「造假」的效果,背後都來自於一個名為Omniverse的平臺。
沒錯,英偉達研發的計算機圖形學(CG)技術太多,多到已經能整合成一個平臺了。
從CG到優化技術,從工具包到引擎,Omniverse都有提供。
光看Omniverse所承載的CG技術,其實遠不止這次發佈會用到的”造假”效果,它從渲染、材質,到光影、照明(光追、路徑追蹤等)都有涉及,還會不斷更新相關技術。
原本只是一紙論文的技術,可能不久后就被英偉達放到了Omniverse上,不少都是與AI相關的技術:
例如,缺損圖元修補、插幀,已經被用到老照片和古早視頻的修復中;還有基於GAN生成超解析度圖像、直接把2D照片渲染成3D場景,都已經能直接在平臺上使用……
Omniverse上的渲染技術,究竟達到一個什麼樣的水準?
據英偉達表示,平臺現在可以實時實現電影級別的畫質渲染。
以渲染中非常重要的光源類比為例,我們都知道,真實世界的光源多種多樣,我們看到的其實是各種光照下的景物。
傳統的計算機渲染,至少需要將光源反覆運算30+次,才能達到逼真到毛髮的效果,即使用最先進的機器渲染,每一幀也基本都需要幾十秒。
用上Neural Radiance Cache等技術后,結合RTX GPU硬體和Omniverse平臺,光源渲染直接就能實時進行。
例如,這次GTC大會上對於主機的渲染,就採用了Omniverse平臺的技術:
除此之外,包括LOD自動生成等技術也能用AI節約計算量,同時保證足夠好的渲染效果。
不止是”以假亂真”的渲染效果,Omniverse還能完成更多意想不到的AI技術。
英偉達利用數位人即時渲染技術,在Omniverse中就能構建更逼真的、更符合物理定律的人類模型。
例如,幫助車輛、自主機器、機器人等更好地識別,真實的人類是什麼樣的,從而更好地設計工廠(圖中為數位人):
這是英偉達在Omniverse上更新了另一項數位孿生技術(Issac Digital Twin),將機器人AI放到虛擬環境中訓練完成後,可以直接部署到真實環境中。
目前,寶馬已經用英偉達的數位孿生技術,對數位工廠的生產流程進行了優化,效率直接拉高30%。
看看這個渲染的速度:
具體渲染效果來看,連光照和細節都能被模擬出來。
不止是寶馬工廠,包括機器人模擬、自駕車模擬在內的一系列技術,也會用到Omniverse平臺。
例如,自動駕駛和工廠的AI檢測可能存在行人誤判,將街頭、公告張貼的人臉圖片識別為行人,導致事故發生。 將逼真的數位人和渲染等技術結合后,就能在模擬環境訓練下類比行人,讓AI學會判斷圖片和真人的區別。
從效果到效率,英偉達都直接刷新了人們對「元宇宙」的認知。
重新定義’元宇宙’
號稱「永遠即時在線」的Omniverse,是英偉達打造元宇宙的關鍵。
它不僅能跨平臺支援所有使用者的物理渲染、模擬和模擬,還能讓創作者、審核者在任何地方,只通過軟體應用就在一個共用的虛擬世界中進行合作。
畢竟,Omniverse本身就構建於通用場景描述(Universal Scene Description,簡稱USD)之上。
這是一種開源3D場景數據標準和檔格式,USD之於Omniverse就相當於HTML之於互聯網。
USD由皮克斯開發,現在成了英偉達、皮克斯和蘋果共同推廣的行業標準。 USD注重非破壞性便捷和跨軟體協作,是x86、arm平臺以及各種軟體都程能夠統一到Omniverse平臺上的基礎。
目前,全球已經有500多家公司的專業人士上手使用了Omniverse。 這其中包括美國航太航空製造商洛克希德馬丁公司(用它做山火類比)、曾榮獲艾美獎的《南方公園》工作室等知名企業。
國內央視的《飛向月球》太空紀錄片,也同樣有用到Omniverse,尤其是裡面的數位人:
從Omniverse硬體和軟體的支持情況來看,英偉達這一次更新也真的是誠意滿滿。
“將數百萬新使用者帶入元宇宙世界”,真的不是說說而已。
首先,Omniverse這一次集成了Blender和Adobe來實現大規模擴展。
Blender是全球領先的開源3D動畫工具,他們將在Blender 3.0版本加入USD支援,使用戶能夠在Blender中直接訪問Omniverse製作流程,這無疑會讓創作者們的效率直線up。
Adobe就不用多介紹了,家喻戶曉。
現在,他們正在和英偉達合作開發一個為Omniverse提供Substance Material支援的 Substance 3D外掛程式。
使用這個外掛程式,可以讓使用者在Omniverse中直接調整Substance 3D中的素材。
這能為使用者在改稿過程中,節省導出、重新上傳的時間。
與此同時,英偉達還發佈了一個人工智慧3D建模擴展:GANverse3D–Image2Car。
它可以讓AI進行3D建模變得更加容易。
只需通過一張汽車照片,GANverse3D就能建立出一個虛擬的3D模型。
這無疑讓3D畫師們創建場景變得更輕鬆了。
其次,在硬體上,NVIDIA RTX和GeForce RTX系列都支援Omniverse。
這不,英偉達同時還發佈了小巧、節能的RTX A2000,它適用於各種標準和小型工作站,可以說是專為創作者的日常工作而設計。
英偉達放言稱,A2000將會成為數百萬設計師進入元宇宙的門戶。
去年12月發佈公測版以來,已經有超過5萬名個人創作者下載了Omniverse。
而Omniverse的生態系統也在持續壯大,Adobe、Autodesk、Bentley Systems等多家軟體公司都已加入Omniverse的生態圈。
現在,Nvidia Omniverse企業版的訪問名額已經”開搶”了,華碩、BOXX Technologies、戴爾、惠普、聯想、必恩威和超微等平臺上都能使用。
不知道以後英偉達的發佈會還能不能當真(手動狗頭)。
反正老黃的假臉是一臉真誠~
OneMoreThing
回到4月那場發佈會。 我們在英偉達自曝紀錄片中,隱約讀出另一個事實,當時的老黃是真真假假,虛實交替的。
那麼,哪一段是真? 哪一段是假?
作為找茬八級團隊,怎麼能這麼輕易就給人騙過去? 於是,我們重新去回看了一遍4月份那場發佈會。
果不其然,我們發現了一些不對勁的地方。 (注意內搭衣服領口和皮衣)
這是老黃第一次在發佈會上出現時候的樣子。 看上去問題不大是吧? OK,接著往下看:
這是剛剛那張圖4分鐘之後,老黃的樣子。 注意到什麼不一樣的地方了嗎?
請注意,他身上忽然間變成了另外一件皮衣,裡面穿的也從Polo衫變成了圓領T恤。
如果你再仔細一點看,你會發現他廚房有些物品的放置也變了。
還有個最直觀的區別:老黃本人,還有他背後的廚房,怎麼好像解析度突然提上去了(不是我網路問題啊)?
高到腦門上的抬頭紋都多了幾條。
這還沒完。
到發佈會後半段,老黃穿著同一件皮衣,可是裡面的衣服又換回了Polo衫。
過了一會,他搖身一變,把皮衣和Polo衫全換了。
好傢伙,你擱這玩排列組合呢?
真搞不懂,老黃來來回回在這換裝,是圖個啥。 除非這是英偉達故意的。
於是,我們拿著放大鏡去看了視頻,終於注意到,這段老黃手上的動作,有明顯的不自然。 而且畫面也是糊的。
懂了:)
總之,一段視頻騙了全世界3個月,不得不說,黃老闆真是又高又硬。