Google自研晶元啟示錄:不為跑分 只為打磨體驗
為軟體功能量身定製硬體,反過來進一步提升軟體的運行效率,或許才是未來在手機端更現實的解決方案。 站在 2021 年底,回顧今年的智慧手機發展趨勢,你會想到哪些關鍵詞呢?
如果是從手機硬體來講,或許更多人會第一個想到的,會是關於”自研晶片”在 2021 年的井噴式爆發:不僅有小米旗下的澎湃處理器時隔四年歸來,發佈搭載在 MIX FOLD 的澎湃 C1 ISP 晶片;vivo首顆 ISP 晶片 vivo V1 也已經在 X70 系列上亮相;到了十月,還有 Google 首款搭載自研 SoC —— Tensor Chip 的 Pixel 6 系列正式發佈。
從手機體驗的角度,”自研處理器”或許在今年沒有掀起太高的話題度:除了Google發佈的算是實打實的SoC之外,小米與 vivo 都只是在自家一款新機上應用了定位服務手機影像功能的 ISP 晶片;但這仍然很有可能,會是未來 5-10 年手機廠商在硬體研發上的一個重要趨勢。
為什麼會有這樣的結論,或許我們能從目前 Google 自研 SoC 的進度中,找到關於這個問題的答案。
自研晶元這件事
早在 Pixel 6 系列發布之前,從很多曝光來源我們就已經得知,Google 的這款 SoC 無論是從 CPU 還是在 SoC 整體架構上都選擇了非常「特立獨行」的設計,雖然這倒是 Google 在硬體設計上的一貫風格,但外界其實一直對 Google 在具體的晶片設計上做出的取捨瞭解甚少。
在發佈數周之後,Google 內部晶元研發部門 Google Silicon 副總裁兼總經理 Phil Carmack 接受了外媒 arsTECHNICA 的採訪,披露了很多關於 Google 在自研 SoC 上做出取捨的緣由。
今年旗艦 SoC 架構中,包括用於 Galaxy S21 系列所採用的 Exynos 2100,以及今年絕大部分國產旗艦手機都搭載的高通驍龍 888,採用的都是”1+3+4″核心設計方案:即 CPU 由一顆 Cortex-X1 大核心、三顆 A78 中核心以及四顆 A55 小核心的組成,這也是 ARM 在授權晶片廠商時給出的指導設計。
當然,這套「公版設計」也並非萬用靈藥:比如今年高通今年發佈的新旗艦 SoC 驍龍 888 ,就因為這顆 2.84GHz 的 X1 大核欠缺更多的調校,讓今年一眾搭載 888 的旗艦在上市早期或多或少都出現了功耗/散熱異常的問題。
但在Google Tensor的CPU架構設計上,Google卻反其道而行之,不僅沒有避開這個雷區,反而選擇在CPU架構上加入兩顆 Cortex-X1 大核,與其餘兩顆 A76 中核、四顆 A55 小核一起構成 Tensor Chip 的 CPU 架構陣容。
“這一切都歸結於你想要完成的任務”。
關於晶元架構的設計,Google 內部晶元研發部門副總裁 Carmack 在接受採訪時表示:與其為了讓 CPU 獲得更高的單線程基準測試分數(俗稱”跑分”),搭載一個頻率更高的大核心,不如用兩顆頻率略微降度的大核心,來獲得實際使用中更快的回應速度。
“(Google Tensor)單核性能比上一代產品快 80%;GPU 性能比上一代產品快 370%。 用戶經常最關心這些紙面數據,但對我們來說,這從來不是真正的重點”。 Carmack 解釋道:現實使用場景並不會像跑分一樣,往往需要面臨複雜得多的性能調度場景:比如在你打開相機準備拍照時,SoC 中的 CPU、GPU、ISP,以及 Google 自研的 TPU 都會被調度起來各司其職;這些硬體結合起來所發揮出的效能,才是決定最終你【拿起手機 – 拍照 – 成像】速度的真正因素。
使用兩顆降低頻率的 X1 大核,去計算以往需要兩顆 A76 中核來完成的工作,進而更加高效的完成以往需要更多時間來完成的計算。 這種「田忌賽馬」一樣的技巧,之所以之前並沒有其他手機廠商可以效仿,原因正是因為處於產業鏈下游的手機品牌,其實在成本限制下,很難去依照自家系統/功能的性能需求對包括手機 SoC 在內的硬體量身定製。
即便 Google Pixel 系列一直是手機計算攝影領域的領頭羊,但從 2017 年發佈的 Pixel 2 開始,連續四代 Pixel 手機都採用了同一顆 1200 萬像素的感測器作為主攝配置;原因並非 Google 不捨得換新感測器晶片,而是基於新硬體重新訓練演算法成本太高,最終實現效果甚至不及現有的感測器。
自那之後,Google 每年在介紹 Pixel 新機在影像功能上的重點時,重點都只有一個 —— 計算攝影:從 Pixel 2/3 依靠單攝實現的”人像模糊”、Pixel 4 時代的”天文攝影模式”,到 Pixel 5 能給人像照片後期手動補光的”人像光”,每一次 Pixel 相機加入新功能,都是 Google 在計算攝影領域的一次新突破。
但僅憑計算攝影的演算法進化,開發團隊還是很快碰到了幾乎難以逾越的硬體天花板:雖然Google能通過計算攝影演算法讓四代 Pixel 在同樣主攝感測器下每年都能有新提升,但同樣的”魔法”卻不能直接套用在視頻拍攝部分上:因為手機端較弱的算力,無法支援藉助機器學習實現的曝光堆疊演算法在視頻拍攝下同樣使用。 這也是過往使用高通SoC的Pixel手機視頻拍攝品質並不算太優秀的原因。
而到Google Tensor的硬體上,Pixel團隊終於可以在針對性的定製硬體上來運行更多計算攝影所能實現的效果:作為本次新視頻錄製演算法 —— HDRNet 的一部分,Google 通過在 Tensor 中整合的計算單元,不僅實現了在4K60FPS 視頻錄製時應用 HDR 效果,還解決了視頻拍攝過程發熱嚴重的問題:以往只能拍攝 4-5 分鐘,到 Pixel 6 系列上則可以至少拍攝 20 分鐘。
終極解決方案
其實在Google Tensor之前,Google在給智慧手機設計晶片這件事上,也走過類似當前小米/vivo 的階段:如今負責研發 Tensor 的團隊,其實早已在之前的 Pixel 手機中以加入協處理器的方式,來針對性提升手機某一部分的效能。
比如 Pixel 2/3 時代用於提升計算攝影/HDR+ 演算法處理速度的 Pixel Visual Core、Pixel 4 上的反覆運算版 Pixel Neural Core,以及貫穿始終的 Titan M 系列安全晶片,都是 Google 在涉足 SoC 晶片之前的嘗試,到 Google Tensor 最終得以在 Pixel 6 系列上實際應用, 這些原本都需要佔用額外主機板空間的協處理器,都能以一種更加高效的方式進一步整合進SoC之中。
過去,在 Pixel 5 中加入「環境光」功能之後,Google 就已經在技術博客中吐槽「讓手機算力支援實現照片後期所需的算力,是一件很頭疼的事」,Google 不得不重新訓練模型,讓補光演算法能在搭載高通驍龍 765G 的 Pixel 5 上正常使用。
不只是算力不足,在Google開發團隊眼中,現有Pixel手機一直使用的高通驍龍SoC,從架構到功能,都不足以滿足Pixel各種 AI 應用場景的使用需求, 可以說是”積怨已久”。
同理,隨著量身定製的硬體提升 Pixel 6 上也加入了很多 AI 帶來的效率提升:比如 Pixel 6 中識別準確率與速度都有大幅提升的離線語言轉文字功能,就是 Google 借助機器學習,將已經構建完畢的語音識別模型預製在手機記憶體中,使用 Google Tensor 內建的 TPU 模組,實現比傳統算力更加高效的識別效果 ;實時翻譯功能也不再局限於翻譯 App 內,被整合進更多應用中。
如今,隨著計算攝影在更多手機廠商的嘗試逐漸成熟,曾經困擾著 Google 的問題,也成為越來越多手機廠商的共識:為軟體功能量身定製硬體,反過來進一步提升軟體的運行效率,或許才是未來在手機端更現實的解決方案。
小米與 vivo 在 ISP 晶片領域的嘗試,不是為了紙面性能或跑分測試的優劣,而是為了滿足各自獨特的需求而定製:就像 Google 在 Tensor Chip 誕生之前為 Pixel 研發的數款協處理器一樣。
雖然定製SoC對於大部分手機廠商來講仍然是極其燒錢的行為,但通過定製ISP等協處理器的方式,同樣能打破如今智慧手機體驗”同質化”、連拍攝效果都要以跑分定勝負的現狀,給用戶帶來更多不同的體驗。 只要這條路被證明行之有效,就會有越來越多的廠商效仿,加入到自研處理器的行列中。