成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

AI造芯Nature論文遭圍攻,谷歌發文硬剛學術抹黑!Jeff Dean怒懟:你們連模型都沒訓

人工智能
近日,面對EDA界對于自家AlphaChip的質疑,谷歌首席科學家Jeff Dean以論文回應論文,并表示:大家注意,這是同行競爭!

登上了Nature的「超人」芯片設計系統AlphaChip,卻多次遭到質疑。

而且不是簡單說說而已,做實驗、寫論文,還有一篇作為invited paper發在ISPD 2023。

AlphaFold都拿諾獎了,AlphaChip還擱這辟謠呢?

怎么辦?谷歌首席科學家Jeff Dean表示:我也寫篇論文!

圖片圖片

EDA社區一直對我們的AlphaChip方法是否像Nature論文中聲稱的那樣有效持懷疑態度。annadgoldie、Azaliamirh和我寫了個論文,來回應這些問題:

圖片圖片

論文地址:https://arxiv.org/pdf/2411.10053

Jeff Dean認為,這種毫無根據的懷疑,在很大程度上是由下面這篇文章(「一篇存在嚴重缺陷的未經同行評審的論文」)導致的:

圖片圖片

論文地址:https://arxiv.org/pdf/2302.11014

該論文聲稱復制了我們的方法,但未能在主要方面遵循:

作者沒有進行預訓練(盡管在我們的Nature文章中提到了37次預訓練 ),剝奪了基于學習的方法從其他芯片設計中學習的能力;

減少了20倍的計算量,并且沒有進行收斂訓練。

這就像評估一個以前從未見過圍棋的AlphaGo,然后得出結論,AlphaGo不太擅長圍棋。

Jeff Dean等人還回應了Igor Markov(Synopsys的杰出架構師)在 CACM 2024年11月刊上發表的分析文章。

圖片圖片

論文地址:https://cacm.acm.org/research/reevaluating-googles-reinforcement-learning-for-ic-macro-placement/

圖片圖片

Jeff Dean表示,Markov發論文時妹說自己是Synopsys的高級員工,——Synopsys是商業EDA軟件,而AlphaChip是開源的。

Markov的論文分析中還引用了另一篇沒發表的匿名PDF:

圖片圖片

https://statmodeling.stat.columbia.edu/wp-content/uploads/2022/05/MLcontra.pdf

這實際上也是Markov寫的。

Markov的文章提出了隱晦的指控,所有這些都是完全沒有根據的,而且已經被Nature證明過了。

我很驚訝Synopsys想與此扯上關系,我很驚訝CACMmag認為有必要在沒有證據的情況下發表這類指控,

除了兩篇有缺陷的、未經同行評審的文章之外,沒有任何技術數據。

谷歌的回擊

話說在arxiv上吃瓜,小編還是第一次。

在Introduction部分,谷歌拉了個時間表:

2020年4月:發布Nature論文的arXiv預印本。

2020年8月:TPU v5e中流片了10個AlphaChip布局。

2021年6月:發表了Nature文章。

2021年9月:在TPU v5p中流片了15個AlphaChip布局。

2022年1月 - 2022年7月:開源了AlphaChip,Google的另一個團隊獨立復制了Nature論文中的結果。

2022年2月:谷歌內部獨立委員會拒絕發表Markov等人的觀點,因為數據不支持其主張和結論。

2022年10月:在Trillium(最新的公共TPU)中流片了25個AlphaChip布局。

2023年2月:Cheng等人在arXiv上發帖,聲稱對我們的方法進行了「大規模重新實現」。

2023年6月:Markov發布了他的「meta-analysis」。

2023年9月:Nature啟動了第二次同行評審。

2024年3月:Google Axion處理器(基于ARM的CPU)采用了7個AlphaChip布局。

2024年4月:Nature完成了調查和出版后審查,發現完全對我們有利。

2024年9月:MediaTek高級副總裁宣布擴展AlphaChip以加速其最先進芯片的開發。

2024年11月:Markov重新發表了他的「meta-analysis」。

簡單來說,我AlphaChip已經在自家服役這么長時間了,聯發科也用了,Nature也調查過了,無懈可擊。

圖片圖片

而且作為不同的部門,TPU團隊需要足夠的信任才會使用AlphaChip(優于人類專家、高效且可靠),他們不能承擔不必要的風險。

對于反方的Markov,論文評價道:「Markov的大部分批評都是這種形式:在他看來,我們的方法不應該奏效,因此它一定不起作用,任何表明相反的證據都是欺詐。」

說到欺詐這件事,正反方都談到了內部舉報人(whistle-

blower),在Markov的文章中是這樣記載的:

論文的兩位主要作者抱怨他們的研究中不斷出現欺詐指控。2022 年,谷歌解雇了內部舉報人,并拒絕批準出版谷歌研究人員撰寫的一篇批評Mirhoseini等人的論文,舉報人起訴谷歌不當解雇(根據加州舉報人保護法)。

而本文表示:這位舉報人向谷歌調查員承認,他懷疑這項研究是欺詐性的,但沒有證據。

對錯誤論文的逐條回應

沒有預先訓練RL方法

與以前的方法不同,AlphaChip是一種基于學習的方法,這意味著它會隨著解決更多的芯片放置問題而變得更好、更快。

這是通過預訓練實現的,如下圖2所示,訓練數據集越大,放置新區塊的方法就越好。

圖片

相反,Cheng等人根本沒有進行預訓練(沒有訓練數據),這意味著模型以前從未見過芯片,必須學習如何從頭開始為每個測試用例執行布局。

作者在Nature論文中詳細討論了預訓練的重要性,并實證證明了它的影響。例如下圖3表明,預訓練可以提高放置質量和收斂速度。

圖片

在開源的Ariane RISC-V CPU上,非預訓練的RL需要48小時,才能接近預先訓練模型在6小時內可以產生的值。

在Nature論文中,作者針對主數據表中的結果進行了48小時的預訓練,而Cheng等人預訓練了 0 小時。

「Cheng試圖通過暗示我們的開源存儲庫不支持預訓練,來為他們缺乏預訓練找借口,但這是不正確的,預訓練就是在多個樣本上運行方法。」

使用的計算資源減少了一個數量級

在Cheng等人的論文中,RL方法提供的RL體驗收集器減少了20倍(26個對比512個),GPU數量減少了一半(8個對比16個)。

使用較少的計算可能會損害性能,或者需要運行相當長的時間才能實現相同的性能。

如下圖4所示,在大量GPU上進行訓練可以加快收斂速度并產生更好的最終質量。

圖片

RL方法未訓練到收斂

隨著機器學習模型的訓練,損失通常會減少,然后趨于平穩,這代表「收斂」——模型已經了解了它正在執行的任務。

眾所周知,訓練到收斂是機器學習的標準做法。

但如下圖所示,Cheng等人沒有為任何一個進行收斂訓練,

圖片圖片

下表總結了詳細信息。除了沒有提供圖的BlackParrotNG45和Ariane-NG45,其他四個具有收斂圖的塊(Ariane-GF12、MemPool-NG45、BlackParrot-GF12 和 MemPool-GF12),訓練在相對較低的步數(分別為 350k、250k、160k 和 250k 步)處截止。

圖片圖片

如果遵循標準的機器學習實踐,可能會提高這些測試用例的性能。

不具代表性、不可重現

在Nature論文中,作者報告的張量處理單元(TPU)塊的結果來自低于7nm的技術節點,這是現代芯片的標準制程。

相比之下,Cheng等人采用了舊技術節點尺寸45nm和12nm)的結果,這從物理設計的角度來看有很大不同。

例如,在低于10nm時,通常使用multiple patterning,導致在較低密度下出現布線擁塞問題。因此,對于較舊的技術節點大小,AlphaChip可能會受益于調整其獎勵函數的擁塞或密度分量。

AlphaChip的所有工作都是在7nm、5nm和更新的工藝上進行的,作者沒有專注于將其應用于舊工藝制程的設計。

此外,Cheng等人也無法或不愿意分享在其主數據表中復制結果所需的綜合網表。

參考資料:https://x.com/JeffDean/status/1858540085794451906


責任編輯:武曉燕 來源: 新智元
相關推薦

2024-11-25 09:00:00

2023-09-29 18:46:06

谷歌AI代碼

2022-03-29 13:57:07

AI模型谷歌

2024-07-29 07:04:00

大模型AI訓AI人工智能

2018-04-03 11:44:47

人工智能業務

2023-02-03 16:16:29

谷歌

2021-01-18 10:52:55

谷歌AI人工智能

2022-07-08 15:22:31

論文抄襲

2022-01-12 17:27:57

AI 谷歌人工智能

2021-04-07 14:36:36

谷歌Android開發者

2025-02-14 08:40:00

模型技術谷歌

2013-11-21 13:35:19

程序員牛人

2020-12-18 09:51:33

Google AI技術

2019-01-25 16:25:19

服務器程序員游戲

2022-02-28 11:26:40

模型深度學習谷歌

2022-06-17 14:33:01

模型AI

2022-04-14 18:03:16

深度學習AI谷歌

2023-12-23 23:23:37

2024-07-25 12:35:33

2018-04-08 15:32:47

Hadoop大數據Gartner
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 91www在线观看 | 欧美网址在线观看 | 91精品国产综合久久久久久丝袜 | 欧美日韩成人影院 | 久久亚洲天堂 | www.日韩系列 | 日韩国产在线 | 看黄在线 | 密室大逃脱第六季大神版在线观看 | 国内精品久久久久久影视8 最新黄色在线观看 | 激情一区二区三区 | 日本爱爱视频 | 日本黄色不卡视频 | 国产精品美女久久久久久久网站 | av片在线观看| 欧美黑人一级爽快片淫片高清 | 久久成人一区 | 日本午夜一区二区三区 | 免费高潮视频95在线观看网站 | 国产成人精品一区二 | www.日日夜夜 | 男女视频免费 | 蜜桃精品噜噜噜成人av | 日韩中出 | 日本三级在线视频 | 粉嫩在线| 日日干夜夜操天天操 | 伊人二区| 精品一区二区在线视频 | 成在线人视频免费视频 | 久久国产精品-国产精品 | 国产精品视频播放 | 国产日韩欧美一区二区在线播放 | 成人午夜精品 | 成人免费视频网 | 国产三区在线观看视频 | 久久爱一区 | 欧美理论片在线观看 | 第四色影音先锋 | 97色在线视频 | 亚洲电影一级片 |