Google I/O開發者大會去年因為疫情而取消,今年采取線上形式強勢回歸。
在沒有開發者在場的Google園區內,Google CEO桑達爾·皮查伊(Sundar Pichai)宣布推出多項全新技術,除了能夠幫助用戶實現“空間瞬移”的全息視訊哈拉技術Project Starling讓人耳目一新,還有最新一代AI芯片TPU v4。
“這是我們在Google上部署的最快的系統,對我們來說是一個具有歷史意義的里程碑。”皮查伊這樣介紹到,
最強TPU,速度提升2倍,性能提升10倍
Google官方介紹,在相同的64芯片規模下,不考慮軟體帶來的改善,TPU v4相較于上一代TPU v3性能平均提升2.7倍,
在實際應用中,TPU v4主要與Pod相連發揮作用,每一個TPU v4 Pod中有4096個TPU v4單芯片,得益于其獨特的互連技術,能夠將數百個獨立的處理器轉變為一個系統,互連帶寬在規模上是其他任何網路技術的10倍。
每一個TPU v4 Pod就能達到1 exaFlOP級的算力,實現每秒10的18次方浮點運算,這甚至是全球最快的超級計算機“富岳”的兩倍性能,
“如果現在有1千萬人同時使用筆記本電腦,所有這些計算機累加的計算能力,剛好就能夠達到1 exaFLOP的算力,而之前要達到1 exaFLOP,可能需要專門定制一個超級計算機。”皮查伊如是說。
今年的MLPerf結果表明,GoogleTPU v4的實力不容小覷,在使用ImageNet數據集的圖像分類訓練測試(準確度至少75.90%),256 個TPU v4在1.82分鐘內完成了這一任務,這幾乎與768個NVIDIA Nvidia A100圖形卡、192個AMD EPYC 7742內核(1.06分鐘)、512個華為AI優化的Ascend 910芯片以及128個Intel Xeon Platinum 8168內核(1.56分鐘)組合在一起的速度一樣快,
當負責在大型維基百科語料庫上訓練基于Transform的閱讀理解BERT模型時,TPU v4的得分也很高,使用256個TPU v4進行訓練需要1.82分鐘,比使用4096 TPU v3進行訓練所需的0.39分鐘要慢1分多鐘。
同時,如果想要使用NVIDIA的硬件達到0.81分鐘的訓練時間,需要2048張A100卡和512個AMD EPYC 7742 CPU內核,
Google同樣在I/O大會上展示了能夠用到TPU v4的具體AI實例,包括能夠同時處理網頁、圖像等多種數據的MUM模型(Multitask Unified Model,多任務統一模型)和專為對話打造的LaMDA都是能夠用到TPU v4的場景模型,前者比閱讀理解模型BERT強1000倍,適合賦能搜索引擎幫助用戶更加高效地得到自己想要的資訊,后者則可以與人類進行不間斷的對話交流。
這一并不向外出售的TPU,很快將在被部署在Google的數據中心,而且90%左右的TPU v4 Pod都將使用綠色能源,
另外,Google也表示,將在今年晚些時候開放給Google Cloud的客戶,
Google自研TPU,五年更新四代
Google最早于2016年宣布首款內部定制的AI芯片,區別于訓練和部署AI模型的最常見的組合架構,即CPU和GPU組合,第一代TPU在那場世界著名的人機圍棋大戰助力AlphaGo打敗李世石“一戰成名”,宣告并不是只有GPU才能做訓練和推理,
Google第一代TPU采用28nm工藝制程,功耗大約40W,僅適用于深度學習推理,除了AlphaGo,也用在Google搜索、翻譯等機器學習模型中。
2017年5月,Google發布了能夠實現機器學習模型訓練和推理的TPU v2,達到180TFLOPs浮點運算能力,同時內存帶寬也得以提升,比同期推出的CPU AI工作負載提升30倍,比GPU AI工作負載提升15倍,被基于4塊TPU v2的AlphaGo擊敗的世界圍棋冠軍柯潔最直觀地感受了這一切。
2018年5月,Google又發布第三代TPU v3,性能是上一代TPU的兩倍,實現420TFLOPs浮點運算,以及128GB的高帶寬內存。
按照一年一次迭代更新的節奏,Google理應在2019年推出第四代TPU,不過這一年的I/O大會上,Google推出的是第二代和第三代TPU Pod,可以配置超過1000顆TPU,大大縮短了在進行復雜的模型訓練時所需耗費的時間。
在AI芯片發展史上,無論是從片上內存上,還是從可編程能力來看,Google TPU都是不可多得的技術創新,打破GPU的“壟斷”地位,且打開云端AI芯片的新競爭格局,
發展五年的Google TPU在今天依然保持著強勁的競爭力,未來的世界是什么樣的?Google TPU已經告訴了我們一小部分答案。