TPU v4芯片算力刷新高!谷歌建全球超大機器學習中心
最近,在谷歌的I/O開發者大會上,谷歌除了發布令人眼花繚亂的新手機、AR眼鏡和全家桶軟件升級之外, 還為全球的機器學習玩家帶來了一發「重磅炸彈」。
一年前亮相的TPU v4,已經正式部署在谷歌云機器學習集群上了。這件機器學習「大殺器」,已經正式用在了Google Cloud最新機器學習集群的預覽版上。
谷歌表示,它將成為世界上最大的公開機器學習中心。
目前,除了最新的Google Cloud預覽版外,谷歌其余SOTA級別的產品,比如搜索引擎、視頻網站Youtube等等,都應用了TPU處理器(即張量處理單元)。
劃時代的TPU v4,碾壓v3
TPU v4是谷歌在去年的I/O大會上推出的芯片。
在當時的開發者大會上,谷歌CEO Sundar Pichai花了1分42秒的時間介紹了這款芯片。
TPU v4是谷歌的第四代定制AI芯片,其算力是上一版本v3的兩倍。性能相比前一代也提升了十倍多。
可以說,TPU v4芯片給谷歌谷歌云平臺補上了十分關鍵的一環。機器學習的訓練速度得以顯著提升。
量化來看,4096個v4 TPU,即一個pod的芯片,就可以提供超過一個exaflop(百億億浮點運算)的AI計算能力。
可能上述數據還不夠直觀。對比來看,一個TPU pod的計算能力如果達到了每秒百億億次浮點計算的級別,相當于一千萬臺筆記本電腦之和。
以前要想獲得1個exaflop(每秒 10 的 18 次方浮點運算)的算力,通常需要建立一個定制的超級計算機。
TPU是谷歌的第一批定制芯片之一,當包括微軟在內的其他公司決定為其機器學習服務采用更靈活的FPGA時,谷歌很早就在這些定制芯片上下了賭注。
谷歌早已部署了許多這樣的計算機,在他們的數據中心有幾十個TPU v4 pods。
此外,最重要的是,谷歌這些數據中心將以90%或接近90%的無碳能源運行。
看來,TPU v4不光性能強大,還環保。
Google Cloud最新預覽版!
在最近的谷歌I/O開發者大會上發布的Google Cloud最新機器學習集群的預覽版可謂是會上的一大亮點。
谷歌表示,「客戶對機器學習的容量、性能和規模的需求一直在快速增長。為了支持AI的下一代基礎性進步,我們推出了谷歌云機器學習集群。其中就包括預覽版的Cloud TPU v4 Pod。」
谷歌毫不客氣的表示,「這就是世界上最快、最高效和最可持續的機器學習基礎設施中心?!?/span>
在Cloud TPU v4 Pods的支持下,研究和開發人員能夠訓練日益復雜的模型,來支持諸多算法系統。
比如,NLP(大規模自然語言處理)、推薦系統和計算機視覺算法等等。
谷歌表示,在算力最高可達9 exaflops的峰值聚合性能下,Cloud TPU v4 Pods集群在算力方面是全世界最大的公開可用的機器學習中心。
而且別忘了上面說過的,不光算力強,還環保。
谷歌數據中心的Matt Eastwood表示,「我們最近對2000名IT從業者進行了調查。我們發現,基礎設施算力不足往往是AI項目失敗的根本原因?!?/span>
「這也正是我們要推出Cloud TPU v4 Pods的原因。再加上我們能夠做到90%的操作由無碳能源提供動力,說明我們不光在拔高算力水平,還同時關注可持續性?!?/span>
這其實很好理解。哪怕算力再強,如果耗能過大,也不會是長久之計。
既然聊到了可持續性,就再多說點有關該集群對能源利用的高效性。
除了上述提到的清潔能源供應外,谷歌數據中心的電源使用效率(PUE)等級為1.10。
而且,TPU v4芯片每瓦特最大功率的峰值Flop還是上一代的3倍。
在去年推出這款芯片的時候,谷歌就承諾會在去年年底前推廣。當時,谷歌就給了一些AI巨頭使用許可,包括Cohere、LG AI研究中心、Meta、Salesforce等等。
谷歌表示,用戶很喜歡新款芯片的性能和可擴展性,TPU v4的快速互連和優化的軟件堆棧滿足了他們的需求。客戶可以通過該芯片優良的架構構建各自的交互發展環境。
并且,因為TPU v4的靈活性,這款芯片也能完美的契合到客戶使用的框架中,包括JAX、Pytorch、TensorFlow等等。
這些特點讓研究人員能不斷推動AI的發展,訓練大規模的SOTA機器學習模型。
幾年前谷歌還成立了TRC,即TPU Research Cloud項目,給機器學習的從業人員提供了極強的算力支持。
憑借谷歌推出的芯片架構,開發人員得以實現自己的各種奇思妙想。
比方說,有人用AI寫波斯語詩集,有人利用計算機視覺和行為遺傳學來研究睡眠和運動引起的疲勞的區別等等。
用AI寫的波斯語詩篇
谷歌副總裁、人工智能研究中心的Jeff Dean表示,「Cloud TPU v4是一個里程碑式的產品。我們相信,有了它,未來我們可以和全球的機器學習開發人員開展更多合作,讓AI造福整個世界?!?/span>