蘋果在研發電影模式的時候 曾經在片場觀察攝影師如何工作
今年四款iPhone 13都支援”電影效果模式”,讓使用者可以錄製具有淺景深和自動對焦變化的視頻,外媒TechCrunch與蘋果公司行銷主管Kaiann Drance和設計師Johnnie Manzari進行了交談,瞭解該功能的技術原理和幕後故事。
Drance表示,對於照片而言,電影模式比人像模式更具挑戰性,因為即時渲染自動對焦變化是一項繁重的計算工作。 該功能由A15仿生晶元和人工智慧神經引擎驅動。
“為視頻帶來高品質的景深將比人像模式更具挑戰性。 與照片不同,視頻(的景深)會隨著拍攝者的移動而動態變化。 這意味著我們需要更高品質的深度數據,以便電影模式可以跨類別、在人物、寵物和物體等之間都生效,需要連續使用深度數據來跟上每一幀。 而即時渲染這些自動對焦變化,背後是繁重的計算。 ”
但電影模式並非只是技術的進步,還有對真實物理世界的觀察。
Manzari補充說,蘋果公司的設計團隊花時間研究電影製作和攝影技術的歷史,以實現逼真的焦點過渡。
“在設計過過程中,我們首先對目前已有的圖像和電影製作懷有深深的敬畏與尊重。 我們著迷於諸如哪些圖像和電影製作原則是永恆的? 什麼工藝在文化上經受住了考驗,這背後的原因是什麼? ”
Manzari表示,蘋果公司在片場觀察攝影指導、攝影師和其他電影製作專業人士,以了解淺景深在故事中的目的,這讓蘋果意識到引導觀眾注意力的重要性。
在評測iPhone 13時候,新浪數碼也提到了這個功能,它是蘋果公司用硬體計算能力做基礎,在這之上發揮其計算能力,將人文內容引入的過程。 這個效果的背後,是A15仿生晶元的強大計算能力作後盾,它強到足以一邊拍杜比視界HDR視頻,一邊用AI能力去即時理解該對焦給誰,並把焦外做虛化處理。 還能把景深資訊保留下來進行二次處理。
對一般使用者來說 「電影效果模式」的意義已經很明顯了,無論是vlog,還是小團隊視頻製作組,都獲得了一種成本更低、更輕便易用的方式,去實現過去只有光學鏡頭才帶來的效果。