成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

谷歌大腦新算法,不折騰TPU就能加快AI訓(xùn)練速度

新聞 人工智能 算法
訓(xùn)練神經(jīng)網(wǎng)絡(luò),硬件要過硬?現(xiàn)在谷歌提出強有力反駁。GPU和像谷歌TPU這樣的硬件加速器大大加快了神經(jīng)網(wǎng)絡(luò)的訓(xùn)練速度,推助AI迅速成長,在各個領(lǐng)域發(fā)揮超能力。

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

訓(xùn)練神經(jīng)網(wǎng)絡(luò),硬件要過硬?現(xiàn)在谷歌提出強有力反駁。

[[270982]]

GPU和像谷歌TPU這樣的硬件加速器大大加快了神經(jīng)網(wǎng)絡(luò)的訓(xùn)練速度,推助AI迅速成長,在各個領(lǐng)域發(fā)揮超能力。

然而,硬件發(fā)展再迅速,也總有力有不逮的時候。

比如,由于芯片的架構(gòu)方式,像數(shù)據(jù)預(yù)處理這樣的訓(xùn)練pipeline早期階段并不會受益于硬件加速器的提升。

谷歌大腦新算法,不折騰TPU就能加快AI訓(xùn)練速度

谷歌大腦的科學(xué)家們可不希望看到算法掣肘硬件,于是他們研究出了一種名為“數(shù)據(jù)回放(Data Echoing)”的新技術(shù)。

加速神經(jīng)網(wǎng)絡(luò)訓(xùn)練速度,這回不靠折騰半導(dǎo)體。

Data Echoing的黑科技

新的加速方法的核心在于減少訓(xùn)練pipeline早期階段消耗的時間。

按照經(jīng)典的訓(xùn)練pipeline,AI系統(tǒng)先讀取并解碼輸入數(shù)據(jù),然后對數(shù)據(jù)進行混洗,應(yīng)用轉(zhuǎn)換擴充數(shù)據(jù),然后再將樣本收集到批處理中,迭代更新參數(shù)以減少誤差。

Data Echoing是在pipeline中插入了一個階段,在參數(shù)更新之前重復(fù)前一階段的輸出數(shù)據(jù),理論回收空閑算力。

如果重復(fù)數(shù)據(jù)的開銷可以忽略不計,并且echoing任意側(cè)的階段都是并行執(zhí)行的,那么數(shù)據(jù)回放完成一個上游步驟和e個下游步驟的平均時間就是:

谷歌大腦新算法,不折騰TPU就能加快AI訓(xùn)練速度

假設(shè)上游步驟花費的時間大于等于下游步驟花費的時間,你會發(fā)現(xiàn)附加的下游步驟是“免費”的,因為它們利用了空閑的下游容量。

谷歌大腦新算法,不折騰TPU就能加快AI訓(xùn)練速度

data echoing縮短訓(xùn)練時間的關(guān)鍵在于上游步驟和下游步驟之間的權(quán)衡。

一方面,重復(fù)數(shù)據(jù)的價值可能會比新數(shù)據(jù)的價值低,那么data echoing就需要更多的下游SGD(隨機梯度下降)更新來達到預(yù)期性能。

另一方面,data echoing中每個下游步驟僅需要1/e個上游步驟。

如果下游步驟因回放因子而增加的數(shù)量比e小,那么上游步驟的總數(shù)就會減少,總的訓(xùn)練時間也就減少了。

需要注意的是,有兩個因素會影響在不同插入點處data echoing的表現(xiàn):

在批處理前回放(echoing)

在批處理之前回放意味著數(shù)據(jù)是在樣本級別而不是批處理級別重復(fù)和混洗的,這增加了臨近批次不同的可能性,代價是批次內(nèi)可能會有重復(fù)的樣本。

在數(shù)據(jù)擴增前回放

在數(shù)據(jù)增強之前進行回放,重復(fù)數(shù)據(jù)就可能以不同的方式轉(zhuǎn)換,這樣一來重復(fù)數(shù)據(jù)就會更像新數(shù)據(jù)。

效果如何

研究團隊對這一方法進行了實驗,他們選擇了兩個語言模型任務(wù),兩個圖像識別任務(wù)和一個對象檢測任務(wù),AI模型都是用開源數(shù)據(jù)集訓(xùn)練的。

谷歌大腦新算法,不折騰TPU就能加快AI訓(xùn)練速度

實驗中,“新”訓(xùn)練樣本(訓(xùn)練樣本從磁盤中被讀取出來,就算做一個新的樣本)的數(shù)目達到指定目標(biāo)的時間就算作訓(xùn)練的時長。同時,研究人員也會調(diào)查data echoing是否減少了所需的樣本數(shù)量。

谷歌大腦新算法,不折騰TPU就能加快AI訓(xùn)練速度

除了用ImageNet訓(xùn)練的ResNet-50,data echoing的效率都比基線方法效率高。并且更早地在pipeline中插入echoing,訓(xùn)練所需的新樣本會更少。

而隨著批量大小的增加,data echoing相對于基線方法的改進會更加明顯。

谷歌大腦新算法,不折騰TPU就能加快AI訓(xùn)練速度

摩爾定律的黃昏

谷歌大腦新算法,不折騰TPU就能加快AI訓(xùn)練速度

隨著摩爾定律走向終結(jié),要依靠芯片制造工藝的突破來實現(xiàn)人工智能算力的提升越來越困難,雖然有硬件加速器加持,但CPU這樣的通用處理器依然成為了神經(jīng)網(wǎng)絡(luò)訓(xùn)練速度進一步提升的攔路虎。

另辟蹊徑,以算法性能來突破重圍,正在成為New sexy。

論文地址:https://arxiv.org/abs/1907.05550

 

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2019-07-22 16:55:46

神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)圖形

2023-04-11 08:37:30

TPUAI芯片

2021-08-20 15:32:14

機器人人工智能系統(tǒng)

2024-07-25 08:25:35

2020-07-30 14:05:53

谷歌華為芯片

2021-01-13 15:16:45

谷歌架構(gòu)開發(fā)者

2023-09-29 08:41:47

谷歌Vertex AI

2022-04-02 14:16:43

AI人工智能首席信息官

2021-12-10 12:13:42

谷歌Chrome 瀏覽器

2021-06-10 14:05:47

AI 芯片人工智能

2020-05-12 10:43:30

谷歌算法人工智能

2021-03-08 15:39:58

人工智能科技數(shù)據(jù)

2024-03-25 11:37:40

機器學(xué)習(xí)人工智能進化算法

2009-07-01 15:02:56

JSP程序JSP操作

2023-06-08 11:33:00

谷歌AI

2019-06-13 14:52:59

谷歌Android開發(fā)者

2021-10-11 09:51:38

谷歌人工智能強化學(xué)習(xí)

2020-02-25 07:00:54

谷歌Android技術(shù)

2024-02-19 00:21:45

開源圖片

2022-07-01 08:38:56

谷歌AIParti
點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 一级黄在线观看 | 99精品免费久久久久久日本 | 狠狠干狠狠操 | 天天色综 | 国产精品久久久久久久久久久久久 | 欧美一级片在线看 | 国产日韩欧美在线 | 中文字幕日韩专区 | 超碰超碰 | 久久av网 | 亚洲视频国产视频 | 亚洲乱码一区二区三区在线观看 | 亚洲精品在线免费播放 | 午夜三级在线观看 | 精品三级在线观看 | 亚洲成人国产 | 国产精品三级 | 免费观看毛片 | 色综合一区二区三区 | 在线观看电影av | 99热视| 天天操天天干天天透 | 日韩中文字幕在线视频 | 成人a视频在线观看 | 一本岛道一二三不卡区 | 久久国| 国产精品区二区三区日本 | av黄在线观看| 黑人性hd | 亚洲精品乱码久久久久久按摩观 | 不卡视频一区二区三区 | 中文字幕在线免费视频 | 日韩一级 | 色综合久久久 | 成年人免费在线视频 | 极情综合网 | 伊人二区| 99免费在线| 中文字幕av在线一二三区 | 激情的网站 | 亚洲香蕉在线视频 |