不玩跑分 谷歌自研芯片啟示錄:只為打磨體驗

站在 2021 年底,回顧今年的智能行動電話發展趨勢,你會想到哪些關鍵詞呢?

如果是從行動電話硬件來講,或許更多人會第一個想到的,會是關于「自研芯片」在 2021 年的井噴式爆發:不僅有小米旗下的澎湃處理器時隔四年歸來,發布搭載在 MIX FOLD 的澎湃 C1 ISP 芯片;vivo 首顆 ISP 芯片 vivo V1 也已經在 X70 系列上亮相;到了十月,還有 Google 首款搭載自研 SoC —— Tensor Chip 的 Pixel 6 系列正式發布,

從行動電話體驗的角度,「自研處理器」或許在今年沒有掀起太高的話題度:除了 Google 發布的算是實打實的 SoC 之外,小米與 vivo 都只是在自家一款新機上應用了定位服務行動電話影像功能的 ISP 芯片;但這仍然很有可能,會是未來 5-10 年行動電話廠商在硬件研發上的一個重要趨勢,

為什么會有這樣的結論,或許我們能從目前 Google 自研 SoC 的進度中,找到關于這個問題的答案。

自研芯片這件事

早在 Pixel 6 系列發布之前,從很多曝光來源我們就已經得知,Google 的這款 SoC 無論是從 CPU 還是在 SoC 整體架構上都選擇了非常「特立獨行」的設計,雖然這倒是 Google 在硬件設計上的一貫風格,但外界其實一直對 Google 在具體的芯片設計上做出的取舍了解甚少。

在發布數周之后,Google 內部芯片研發部門 Google Silicon 副總裁兼總經理 Phil Carmack 接受了外媒 arsTECHNICA 的采訪,披露了很多關于 Google 在自研 SoC 上做出取舍的緣由。

今年旗艦 SoC 架構中,包括用于 Galaxy S21 系列所采用的 Exynos 2100,以及今年絕大部分大陸旗艦行動電話都搭載的高通驍龍 888,采用的都是「1+3+4」核心設計方案:即 CPU 由一顆 Cortex-X1 大核心、三顆 A78 中核心以及四顆 A55 小核心的組成,這也是 ARM 在授權芯片廠商時給出的指導設計。

當然,這套「公版設計」也并非萬用靈藥:比如今年高通今年發布的新旗艦 SoC 驍龍 888 ,就因為這顆 2.84GHz 的 X1 大核欠缺更多的調校,讓今年一眾搭載 888 的旗艦在上市早期或多或少都出現了功耗/散熱異常的問題,

但在 Google Tensor 的 CPU 架構設計上,Google 卻反其道而行之,不僅沒有避開這個雷區,反而選擇在 CPU 架構上加入兩顆 Cortex-X1 大核,與其余兩顆 A76 中核、四顆 A55 小核一起構成 Tensor Chip 的 CPU 架構陣容。

針對軟體,定制硬件

「這一切都歸結于你想要完成的任務」。

關于芯片架構的設計,Google 內部芯片研發部門副總裁 Carmack 在接受采訪時表示:與其為了讓 CPU 獲得更高的單線程基準測試分數(俗稱「跑分」),搭載一個頻率更高的大核心,不如用兩顆頻率略微降度的大核心,來獲得實際使用中更快的響應速度。

「(Google Tensor)單核性能比上一代產品快 80%;GPU 性能比上一代產品快 370%,用戶經常最關心這些紙面數據,但對我們來說,這從來不是真正的重點」,Carmack 解釋道:現實使用場景并不會像跑分一樣,往往需要面臨復雜得多的性能調度場景:比如在你打開相機準備拍照時,SoC 中的 CPU、GPU、ISP,以及 Google 自研的 TPU 都會被調度起來各司其職;這些硬件結合起來所發揮出的效能,才是決定最終你【拿起行動電話 – 拍照 – 成像】速度的真正因素,

使用兩顆降低頻率的 X1 大核,去計算以往需要兩顆 A76 中核來完成的工作,進而更加高效的完成以往需要更多時間來完成的計算。這種「田忌賽馬」一樣的技巧,之所以之前并沒有其他行動電話廠商可以效仿,原因正是因為處于產業鏈下游的行動電話品牌,其實在成本限制下,很難去依照自家系統/功能的性能需求對包括行動電話 SoC 在內的硬件量身定制。

即便 Google Pixel 系列一直是行動電話計算攝影領域的領頭羊,但從 2017 年發布的 Pixel 2 開始,連續四代 Pixel 行動電話都采用了同一顆 1200 萬像素的傳感器作為主攝配置;原因并非 Google 不舍得換新傳感器芯片,而是基于新硬件重新訓練算法成本太高,最終實現效果甚至不及現有的傳感器。

自那之后,Google 每年在介紹 Pixel 新機在影像功能上的重點時,重點都只有一個 —— 計算攝影:從 Pixel 2/3 依靠單攝實現的「人像模糊」、Pixel 4 時代的「天文攝影模式」,到 Pixel 5 能給人像照片后期手動補光的「人像光」,每一次 Pixel 相機加入新功能,都是 Google 在計算攝影領域的一次新突破。

但僅憑計算攝影的算法進化,開發團隊還是很快碰到了幾乎難以逾越的硬件天花板:雖然 Google 能通過計算攝影算法讓四代 Pixel 在同樣主攝傳感器下每年都能有新提升,但同樣的「魔法」卻不能直接套用在視訊拍攝部分上:因為行動電話端較弱的算力,無法支持借助機器學習實現的曝光堆疊算法在視訊拍攝下同樣使用,這也是過往使用高通 SoC 的 Pixel 行動電話視訊拍攝質量并不算太優秀的原因,

而到 Google Tensor 的硬件上,Pixel 團隊終于可以在針對性的定制硬件上來運行更多計算攝影所能實現的效果:作為本次新視訊錄制算法 —— HDRNet 的一部分,Google 通過在 Tensor 中整合的計算單元,不僅實現了在 4K60FPS 視訊錄制時應用 HDR 效果,還解決了視訊拍攝過程發熱嚴重的問題:以往只能拍攝 4-5 分鐘,到 Pixel 6 系列上則可以至少拍攝 20 分鐘。

終極解決方案

其實在 Google Tensor 之前,Google 在給智能行動電話設計芯片這件事上,也走過類似當前小米/vivo 的階段:如今負責研發 Tensor 的團隊,其實早已在之前的 Pixel 行動電話中以加入協處理器的方式,來針對性提升行動電話某一部分的效能。

比如 Pixel 2/3 時代用于提升計算攝影/HDR+ 算法處理速度的 Pixel Visual Core、Pixel 4 上的迭代版 Pixel Neural Core,以及貫穿始終的 Titan M 系列安全芯片,都是 Google 在涉足 SoC 芯片之前的嘗試,到 Google Tensor 最終得以在 Pixel 6 系列上實際應用,這些原本都需要占用額外主板空間的協處理器,都能以一種更加高效的方式進一步整合進 SoC 之中,

過去,在 Pixel 5 中加入「環境光」功能之后,Google 就已經在技術部落格中吐槽「讓行動電話算力支持實現照片后期所需的算力,是一件很頭疼的事」,Google 不得不重新訓練模型,讓補光算法能在搭載高通驍龍 765G 的 Pixel 5 上正常使用。

不只是算力不足,在 Google 開發團隊眼中,現有 Pixel 行動電話一直使用的高通驍龍 SoC,從架構到功能,都不足以滿足 Pixel 各種 AI 應用場景的使用需求, 可以說是「積怨已久」,

同理,隨著量身定制的硬件提升 Pixel 6 上也加入了很多 AI 帶來的效率提升:比如 Pixel 6 中識別準確率與速度都有大幅提升的離線語言轉文字功能,就是 Google 借助機器學習,將已經構建完畢的語音識別模型預制在行動電話內存中,使用 Google Tensor 內建的 TPU 模組,實現比傳統算力更加高效的識別效果 ;

實時翻譯功能也不再局限于翻譯 App 內,被整合進更多應用中。

如今,隨著計算攝影在更多行動電話廠商的嘗試逐漸成熟,曾經困擾著 Google 的問題,也成為越來越多行動電話廠商的共識:為軟體功能量身定制硬件,反過來進一步提升軟體的運行效率,或許才是未來在行動電話端更現實的解決方案。

小米與 vivo 在 ISP 芯片領域的嘗試,不是為了紙面性能或跑分測試的優劣,而是為了滿足各自獨特的需求而定制:就像 Google 在 Tensor Chip 誕生之前為 Pixel 研發的數款協處理器一樣,

雖然定制 SoC 對于大部分行動電話廠商來講仍然是極其燒錢的行為,但通過定制 ISP 等協處理器的方式,同樣能打破如今智能行動電話體驗「同質化」、連拍攝效果都要以跑分定勝負的現狀,給用戶帶來更多不同的體驗。

只要這條路被證明行之有效,就會有越來越多的廠商效仿,加入到自研處理器的行列中,

0 条回复 A文章作者 M管理員
    暫無討論,說說你的看法吧