成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

大模型界「摩爾定律」Densing Law 來了!盲目Scaling將過時! 原創

發布于 2024-12-9 17:19
瀏覽
0收藏

整理 | 伊風

出品 | 51CTO技術棧(微信號:blog51cto)

Scaling Law會失效嗎?

雖然 OpenAI CEO 奧特曼擲地有聲地說“這里沒有墻”。但是,OpenAI的最近的發布也沒有那么炸了,尤其是 o1 Pro 比滿血版在編程能力上僅高出一分,似乎更讓人相信了“墻”的存在。

是時候跳出Scaling Law了!

清華NLP實驗室劉知遠教授團隊,提出的Densing Law(密度定律),給了我們一個全新的視角!

大模型界「摩爾定律」Densing Law 來了!盲目Scaling將過時!-AI.x社區圖片

不同于Scaling Law,認為隨著模型規模(如參數數量)、訓練數據集大小等參數的增長,模型性能會按照一定的冪律進行可預測的提高。

大模型的密度定律的表達,與摩爾定律相似,重點討論了能力如何隨著時間而增強。

簡而言之:大模型能力密度約100天翻一倍!

大模型界「摩爾定律」Densing Law 來了!盲目Scaling將過時!-AI.x社區圖片

什么是能力密度呢?

研究團隊將其定義為模型的“有效參數量”與實際參數量的比值,是一種衡量 LLM(Large Language Model)訓練質量的新指標。

舉個論文中的例子:2024年2月1日發布的MiniCPM-1-2.4B,其性能可以與2023年9月27日發布的Mistral-7B相媲美甚至更優。換句話說,4個月后,只需要使用參數量為35%的LLM,即可獲得大致相當的性能。

論文的第一作者說,用該定律推算,到明年年底,一個8B的小模型就可以實現GPT-4那么強悍的效果了。

大模型界「摩爾定律」Densing Law 來了!盲目Scaling將過時!-AI.x社區圖片

此外,研究團隊發現,AI時代的三大核心引擎同樣遵守密度定律,電力、算力與智力(AI),都有各自的倍增周期。其中,電池能量密度倍增時間為10年,芯片電路密度的倍增時間則為18個月。

在論文的主要發現部分,研究團隊還發現了5個重要的推論,讓我們展開講講:

1.模型的推理開銷隨時間呈指數級下降

根據密度定律(Densing Law),每三個月后,我們就可以用參數減半的模型,達到與以前相當的性能效果。

因此,在實現相同任務性能的情況下,推理成本正以指數速度下降。

團隊發現,從2023年1月到現在,GPT-3.5級別模型的推理成本已降低了266.7倍。

大模型界「摩爾定律」Densing Law 來了!盲目Scaling將過時!-AI.x社區圖片

2.大模型能力密度呈加速增強趨勢

團隊比較了 ChatGPT 發布前后 LLM 密度的增長趨勢,發現在這一節點后,LLM 密度的增長速度提高了 50%!

這個結論不意外——可以說這波AI熱就是從ChatGPT發布掀起的。

無論我們怎么吐槽OpenAI的封閉生態,其對AI發展的巨大推動是不可磨滅的。

大模型界「摩爾定律」Densing Law 來了!盲目Scaling將過時!-AI.x社區圖片

3.模型小型化揭示端側智能巨大潛力

摩爾定律(Moore, 1965)指出,相同面積的芯片上集成的電路數量呈指數增長,這意味著計算能力也在指數增長。

而此次提出的密度定律(Densing Law)表明,LLM 的密度每 3.3 個月翻一番。

結合這兩個因素,團隊提出:在價格相同的芯片上可運行的 LLM 有效參數規模的增長速度,超過了 LLM 密度和芯片計算能力的增長速度。

這種雙重增長的模式,就好像在電梯上跑步,讓AI在不遠的未來能在手機等端側上絲滑運行。

大模型界「摩爾定律」Densing Law 來了!盲目Scaling將過時!-AI.x社區圖片

4.無法通過模型壓縮增強模型能力密度

剪枝和蒸餾沒我們想象得那么有用!

在團隊的研究中,通過比較模型與其壓縮版本,發現廣泛使用的剪枝和蒸餾方法通常會使壓縮后的模型密度低于原始模型。

研究認為,應該繼續尋找更高效的模型壓縮算法,尤其應更加注重提升小模型的密度。

大模型界「摩爾定律」Densing Law 來了!盲目Scaling將過時!-AI.x社區圖片

5.密度倍增周期決定模型存在“有效期”

一個殘酷的事實,大模型也有有效期。

每過數月,就會有更加“實惠”的新模型出現,這就意味著模型必須要在有限期之內,獲得足夠的盈利才能收支平衡。

研究團隊以API盈利方式估算,需要2個月內達成17億用戶訪問!

看了這個數字,我們更理解大模型為何如此燒錢。

大模型界「摩爾定律」Densing Law 來了!盲目Scaling將過時!-AI.x社區圖片

密度定律也提醒了AI圈,不要一味地追求Scaling。

更重要的是如何在模型性能與效率間取得平衡。

“盲目增加模型參數以追求性能提升可能會導致模型密度降低,從而引發不必要的能源消耗。例如,盡管 Llama-3.1-405B(Dubey 等,2024)在開源模型中實現了最先進的性能,但其所需的計算資源是其他模型的數百倍?!?/p>

因此,未來的議題應該從單純的性能優化轉向密度優化。大模型走出“應試”,不再執著于榜單上的數字,才能真正走入應用的曠野之中。

參考鏈接:

1.https://arxiv.org/abs/2412.04315

2.插圖來源于研究課題組

本文轉載自??51CTO技術棧??,作者:伊風

?著作權歸作者所有,如需轉載,請注明出處,否則將追究法律責任
已于2024-12-9 17:51:05修改
收藏
回復
舉報
回復
相關推薦
主站蜘蛛池模板: 欧美日在线 | 激情自拍偷拍 | 久久免费精品 | 欧美激情久久久 | 久久久久久久久久久国产 | 91.com在线观看 | 久久久久久黄 | 黄视频欧美 | 涩涩视频在线观看 | 欧美1页| 成年人在线视频 | 精品乱人伦一区二区三区 | av日韩精品 | xnxx 日本免费 | 午夜久久久 | 国产精产国品一二三产区视频 | 一级电影免费看 | 亚洲 中文 欧美 日韩 在线观看 | 麻豆视频在线免费看 | 日韩一区二区三区视频 | 国产福利资源 | 欧美精品在线免费观看 | 成在线人视频免费视频 | 色男人的天堂 | 国产精品欧美一区二区三区不卡 | 国产一级特黄真人毛片 | 日韩一区二区三区av | 精品一区二区三区四区五区 | 国产色在线 | 日韩在线一区二区 | 一区二区三区高清 | 不卡一区 | 午夜精品视频 | 国产日韩欧美精品一区二区三区 | 久久鲁视频 | 日本激情视频在线播放 | 男人的天堂在线视频 | 欧美精品成人一区二区三区四区 | 亚洲高清av在线 | 蜜桃视频在线观看www社区 | 97色在线视频 |