成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

ASIC王者爭霸:谷歌TPU,英特爾Gaudi

商務辦公
RDMA技術用于芯片互聯,大幅提升并行處理能力。RDMA是一種遠端內存直接訪問技術,具有高速、超低延遲和極低CPU使用率的特點。

頭部廠商紛紛切入AI ASIC領域,技術路徑不同。谷歌15年發布第一代TPU(ASIC)產品,TPU產品持續迭代升級;英特爾19年收購人工智能芯片公司Habana Labs,22年發布AI ASIC芯片Gaudi 2,性能表現出色;IBM研究院22年底發布AI ASIC芯片AIU,有望23年上市;三星第一代AIASIC芯片Warboy NPU芯片已于近日量產。

頭部廠商紛紛切入 AI ASIC領域,看好ASIC在人工智能領域的長期成長性。

谷歌:谷歌為AI ASIC芯片的先驅,于15年發布第一代TPU(ASIC)產品,大幅提升AI推理的性能;17年發布TPU v2,在芯片設計層面,進行大規模架構更新,使其同時具備AI推理和AI訓練的能力;谷歌TPU產品持續迭代升級,21年發布TPU v4,采用7nm工藝,峰值算力達275TFLOPS,性能表現全球領先。

英特爾:19年底收購以色列人工智能芯片公司Habana Labs,22年發布Gaudi 2 ASIC芯片。從架構來看,Gaudi架構擁有雙計算引擎(MME和TPC),可以實現MME和TPC并行計算,大幅提升計算效率;同時,其將RDMA技術應用于芯片互聯,大幅提升AI集群的并行處理能力;從性能來看,Gaudi 2在ResNET-50、BERT、BERT Phase-1、BERT Phase-2模型的訓練吞吐量優于英偉達A100,性能表現優異。

頭部廠商紛紛切入AI ASIC領域,技術路徑不同。本文內容來自“GPT-5后NLP大模型逐步走向收斂,ASIC將大有可為”,詳細介紹谷歌——全球AI ASIC先驅,TPU產品持續迭代,以及英特爾——收購Habana Lab,Gaudi 2性能表現出色。

1、ASIC具有性能高、體積小、功率低等特點

ASIC具有性能高、體積小、功率低等特點。AI芯片指專門用于運行人工智能算法且做了優化設計的芯片,為滿足不同場景下的人工智能應用需求,AI芯片逐漸表現出專用性、多樣性的特點。根據設計需求,AI芯片主要分為中央處理器(CPU)、圖形處理器(GPU)、現場可編程邏輯門陣列(FPGA)、專用集成電路(ASIC)等,相比于其他AI芯片,ASIC具有性能高、體積小、功率低等特點。

CPU->GPU->ASIC,ASIC成為AI芯片重要分支。

1)CPU階段:尚未出現突破性的AI算法,且能獲取的數據較為有限,傳統CPU可滿足算力要求;

2)GPU階段:2006年英偉達發布CUDA架構,第一次讓GPU具備了可編程性,GPU開始大規模應用于AI領域;

3)ASIC階段:2016年,Google發布TPU芯片(ASIC類),ASIC克服了GPU價格昂貴、功耗高的缺點,ASIC芯片開始逐步應用于AI領域,成為AI芯片的重要分支。

圖片

ASIC芯片在推理領域具有明顯優勢,有望在該領域率先出現爆品。根據CSET數據,ASIC芯片在推理領域優勢明顯,其效率和速度約為CPU的100-1000倍,相較于GPU和FPGA具備顯著競爭力。盡管ASIC芯片同樣可以應用于訓練領域(例如TPU v2、v3、v4),但我們認為其將在推理領域率先出現爆品。

圖片

預計ASIC在AI芯片的占比將大幅提升。根據McKinsey Analysis數據,在數據中心側,25年ASIC在推理/訓練應用占比分別達到40%、50%;在邊緣側,25年ASIC在推理/訓練應用占比分別達到70%、70%,ASIC在AI芯片的占比將大幅提升。

圖片

2、多種類AI芯片并存,頭部廠商紛紛切入ASIC領域

多種類AI芯片并存,頭部廠商紛紛切入ASIC領域。

英偉達延續GPU路線,22年發布H100芯片,目前廣泛應用于云端訓練和推理;

AMD利用自身技術積累,將CPU和GPU集成在一起,推出Instinct MI300芯片,預計23年H2上市。

頭部廠商開始切入ASIC領域,Google為AI ASIC芯片的先驅,21年推出TPU v4,運算效能大幅提升;英特爾19年收購Habana Lab,22年推出Gaudi2 ASIC芯片;IBM、三星等頭部廠商亦紛紛切入ASIC領域。

圖片

3、谷歌:全球AI ASIC先驅,TPU產品持續迭代;性能表現,A100<TPU v4<H100

谷歌為全球AI ASIC先驅,TPU產品持續迭代。谷歌2015年發布TPU v1,與使用通用CPU和GPU的神經網絡計算相比,TPU v1帶來了15~30倍的性能提升和30~80倍的能效提升,其以較低成本支持谷歌的很多服務,僅可用于推理;17年發布TPU v2,用于加速大量的機器學習和人工智能工作負載,包括訓練和推理;18年發布TPU v3,算力和功率大幅增長,其采用了當時最新的液冷技術;20年和21年分別發布TPU v4i和v4,應用7nm工藝,晶體管數大幅提升,算力提升,功耗下降。

圖片

TUP v4性能表現優于英偉達A100。TPU v4的性能表現在BERT、ResNet、DLRM、RetinaNet、MaskRCNN下分別為A100的1.15x、1.67x、1.05x、1.87x和1.37x,性能表現優于英偉達A100。

TUP v4性能表現略遜于H100,但功耗管理能力出色。根據《AI and ML Accelerator Survey and Trends》數據,英偉達H100的峰值性能表現高于TUP v4,而TUP v4作為ASIC芯片,在功耗管理方面表現出色,峰值功率低于H100。

圖片

4、谷歌:TPU v1架構

統一緩沖器(Unified Buffer)和矩陣乘法單元(MMU)占據53%的芯片總面積。TPU v1主要包括統一緩沖器(Unified Buffer)、矩陣乘法單元(MMU)、累加器(Accumulators)、激活流水線電路(Activation Pipeline)、DDAM等,其中統一緩沖器和矩陣乘法單元面積占比最高,合計達53%。

TPU v1工作流程:

1)芯片啟動,緩沖區和DDR3為空;

2)用戶加載TPU編譯的模型,將權重放入DDR3內存;

3)主機用輸入值填充激活緩沖區;

4)發送控制信號將一層權重加載到矩陣乘法單元;

5)主機觸發執行,激活并通過矩陣乘法單元傳播到累加器;

6)通過激活流水線電路,新層替換緩沖區的舊層;

7)重復步驟4-7,直到最后一層;

8)最后一層的激活被發送給主機。

圖片

5、谷歌:TPU v2架構,基于TPU v1的大規模架構更新

圖片

TPU v2內核數增加值2個。TPU v1僅有1個Tensor Core,導致管道更為冗長。TPU v2的內核數增加為2個,對編譯器也更為友好。

MXU利用率提升。TPU v1的MXU包含256*256個乘積累加運算器,由于部分卷積計算規模小于256*256,導致單個大核的利用率相對較低;而TPU v2的單核MXU包含128*128個乘積累加運算器,在一定程度上,提升了MXU利用率。

圖片

6、谷歌:TPU v3延續v2架構,性能提升,TDP優化

谷歌TPU v3延續v2架構,性能提升。TPU V3在v2架構的基礎上,矩陣乘法單元(MXU)數量提升翻倍,時鐘頻率加快30%,內存帶寬加大30%,HBM容量翻倍,芯片間帶寬擴大了30%,可連接的節點數為先前4倍,性能大幅提升。

采用液冷技術,TDP優化。TPU v3采用液冷技術,峰值算力為TPU v2的2.67倍,而TDP僅為TPU v2的1.61倍,TDP大幅優化。

7、谷歌:TPU v4,硬件性能進一步提升

MXU數量翻倍,峰值算力大幅提升。從硬件提升來看,根據Google Cloud數據,TPU v4芯片包含2個TensorCore,每個TensorCore包含4個MXU,是TPUv3的2倍;同時,HBM帶寬提升至1200 GBps,相比上一代,提升33.33%。從峰值算力來看,TPU v4的峰值算力達275 TFLOPS,為TPU v3峰值算力的2.24倍。

圖片

谷歌的超級計算機構想:將4*4*4(64)個TPU v4芯片連接成1個立方體結構(Cube),再將4*4*4個立方體結構(Cube)連接成共有4096個TPU v4芯片的超級計算機,其中物理距離較近TPU v4芯片(即同一個Cube中的4*4*4個芯片)采用常規電互聯方式,距離較遠的TPU(例如Cube之間的互聯)間用光互連。采用光互連技術可以有效避免“芯片等數據”的情形出現,進而提升計算效率。

可重配置光互連技術可以進一步提升計算性能。谷歌TPU v4通過加入光路開關(OCS)的方式,可以根據具體模型數據流來調整TPU之間的互聯拓撲,實現最優性能,可重配置光互連技術可以將性能提升至先前的1.2-2.3倍。

可重配置光互連技術提升計算機的穩定性。若計算機中部分芯片出現故障,可以通過該技術繞過故障芯片,進而不會影響整個系統的工作。

圖片

8、英特爾:Gaudi架構實現MME和TPC并行運算

英特爾收購Habana Lab。Habana Labs成立于2016年,總部位于以色列,是一家為數據中心提供可編程深度學習加速器廠商,2019年發布第一代Gaudi。英特爾于2019年底收購Habana Lab,旨在加快其在人工智能芯片領域的發展,2022年發布Gaudi 2。

Gaudi架構實現MME和TPC并行運算。Gaudi架構包含2個計算引擎,即矩陣乘法引擎(MME)和TPC(張量處理核心);Gaudi架構使得MME和TPC計算時間重疊,進行并行運算,進而大幅提升計算效率。

Gaudi 2延續上一代架構,硬件配置大幅提升。Gaudi 2架構基本與上一代相同,TPC數量從8個提升至24個,HBM數量從4個提升至6個(總內存從32GB提升至96GB),SRAM存儲器提升一倍,RDMA從10個提升至24個,同時集成了多媒體處理引擎,硬件配置大幅提升。

圖片

RDMA技術用于芯片互聯,大幅提升并行處理能力。RDMA是一種遠端內存直接訪問技術,具有高速、超低延遲和極低CPU使用率的特點。Gaudi將RDMA集成在芯片上,用于實現芯片間互聯,大幅提升AI集群的并行處理能力;同時,Gaudi支持通用以太網協議,客戶可以將Gaudi放入現有的數據中心,使用標準以太網構建AI集群。

Gaudi 2性能表現出色。根據《Habana Gaudi 2 White Paper》披露數據,Gaudi 2在ResNET-50、BERT、BERT Phase-1、BERT Phase-2模型的訓練吞吐量分別為A100(40GB,7nm)的2.0、2.4、2.1、3.3x,性能表現出色。

責任編輯:武曉燕 來源: 架構師技術聯盟
相關推薦

2023-11-20 13:06:52

2014-04-03 14:23:02

英特爾統一固件管理套件

2021-10-29 05:37:37

英特爾谷歌云數據中心芯片

2011-12-14 19:01:20

英特爾

2009-04-20 08:10:50

IT市場財報科技市場

2011-06-18 11:54:28

北電蘋果英特爾

2012-04-06 14:42:03

英特爾移動互聯

2012-06-18 17:42:42

英特爾ARM

2019-05-15 14:16:03

英特爾ZombieLoad漏洞

2009-03-30 13:43:47

多核服務器英特爾

2015-05-05 15:22:30

英特爾

2020-10-30 18:28:45

英特爾

2013-08-07 09:44:31

英特爾IBM谷歌

2009-05-27 08:36:15

2023-07-14 14:19:28

英偉達芯片

2011-07-15 10:48:20

英特爾谷歌數據中心

2023-07-11 18:19:53

英特爾GaudiGaudi2
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲国产精品久久久久秋霞不卡 | 五月花丁香婷婷 | 一级黄色片网站 | 日韩色视频 | 成人一区二区电影 | 亚洲国产aⅴ精品 | 少妇一区二区三区 | 午夜av一区二区 | 久久午夜剧场 | 日韩精品专区在线影院重磅 | 颜色网站在线观看 | 一级黄色片网址 | 国产精品久久久久久久久 | 欧美中文一区 | 人人99| 中文字幕免费在线 | 亚洲欧美日本在线 | 久久亚洲国产 | 久久免费香蕉视频 | 国产精品一区二区三区四区 | 精品在线 | 日产精品久久久一区二区福利 | 欧美日韩国产在线观看 | 日本一区视频在线观看 | 精品国产免费人成在线观看 | 国产美女在线播放 | 亚洲视频免费在线观看 | 精品日韩一区二区 | 操操网站| 国产日韩欧美 | 精品久久影院 | 国产精品久久久爽爽爽麻豆色哟哟 | 亚洲人成人一区二区在线观看 | 欧美精品在线观看 | 国产h视频| 粉嫩一区二区三区性色av | 国产高清一区二区三区 | 91在线电影 | 亚洲一区二区在线 | 欧美精品在线免费 | 日韩在线播放第一页 |