成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

微軟6頁論文爆火:三進制LLM,真香!

人工智能 新聞
若論文成立,那么我們就能在24GB消費級GPU上跑120B的大模型了。

這就是由微軟和中國中科院大學在最新一項研究中所提出的結論——

所有的LLM,都將是1.58 bit的。

圖片

具體而言,這項研究提出的方法叫做BitNet b1.58,可以說是從大語言模型“根兒”上的參數下手。

將傳統以16位浮點數(如FP16或BF16)形式的存儲,統統變成了三進制,也就是 {-1, 0, 1}

圖片

值得注意的是,這里的“1.58 bit”并不是指每個參數占用1.58字節的存儲空間,而是指每個參數可以用1.58位的信息來表示。

在如此轉換之后,矩陣中的計算就只會涉及到整數的加法,因此會讓大模型在保持一定精度的同時,顯著減少所需的存儲空間和計算資源。

例如BitNet b1.58在3B模型大小時與Llama做比較,速度提高了2.71倍的同時,GPU內存使用幾乎僅是原先的四分之一。

而且當模型的規模越大時(例如70B),速度上的提升和內存上的節省就會更加顯著!

這種顛覆傳統的思路著實是讓網友們眼前一亮,論文在X上也是受到了高度的關注:

圖片

網友們驚嘆“改變游戲規則”的同時,還玩起了谷歌attention論文的老梗:

1 bit is all YOU need.

圖片

那么BitNet b1.58具體又是如何實現的?我們繼續往下看。

把參數都變成三進制

這項研究實則是原班人馬在此前發表的一篇論文基礎之上做的優化,即在原始BitNet的基礎上增加了一個額外的0值。

圖片

整體來看,BitNet b1.58依舊是基于BitNet架構(一種Transformer),用BitLinear替換了nn.Linear。

至于細節上的優化,首先就是我們剛才提到的“加個0”,即權重量化(weight quantization)

BitNet b1.58模型的權重被量化為三元值{-1, 0, 1},這相當于在二進制系統中使用了1.58 bit來表示每個權重。這種量化方法減少了模型的內存占用,并簡化了計算過程。

圖片

其次,在量化函數設計方面,為了將權重限制在-1、0或+1之間,研究者們采用了一種稱為absmean的量化函數。

圖片

這個函數先會根據權重矩陣的平均絕對值進行縮放,然后將每個值四舍五入到最接近的整數(-1, 0, +1)。

接下來就到了激活量化(activation quantization)這一步。

激活值的量化與BitNet中的實現相同,但在非線性函數之前不將激活值縮放到[0, Qb]的范圍內。相反,激活值被縮放到[?Qb, Qb]的范圍,以此來消除零點量化。

值得一提的是,研究團隊為了BitNet b1.58與開源社區兼容,采用了LLaMA模型的組件,如RMSNorm、SwiGLU等,使得它可以輕松集成到主流開源軟件中。

最后,在實驗的性能比較上,團隊將BitNet b1.58與FP16 LLaMA LLM在不同大小的模型上進行了比較。

圖片

結果顯示,BitNet b1.58在3B模型大小時開始與全精度LLaMA LLM在困惑度上匹配,同時在延遲、內存使用和吞吐量方面有顯著提升。

而且當模型規模越大時,這種性能上提升就會越發顯著。

網友:能在消費級GPU跑120B大模型了

正如上文所言,這篇研究獨特的方法在網上引發了不小的熱議。

DeepLearning.scala作者楊博表示:

BitNet b1.58相比原版BitNet,最大的特點就是允許0參數。我覺得稍微修改一下量化函數,也許可以控制0參數的比例。當0參數的比例很大時,可以用稀疏格式存儲權重,使得平均每個參數的顯存占用甚至低于1比特。這就相當于權重級別的MoE了。我覺得比一般的MoE更優雅。

與此同時,他也提出了關于BitNet的缺點:

BitNet最大的缺點在于雖然能減少推理時的顯存開銷,但優化器狀態和梯度仍然要用浮點數,訓練仍然很費顯存。我覺得如果能把BitNet和訓練時節省顯存的技術結合起來,那么相比傳統半精度網絡,同等算力和顯存下支持更多參數,優勢就很大了。

目前能節省優化器狀態的顯存開銷的辦法是offloading。能節省梯度的顯存占用的辦法可能是ReLoRA。但是ReLoRA的論文實驗只用了十億參數的模型,并沒有證據表明能不能推廣到百億、千億參數的模型。

圖片

△圖源:知乎,經授權引用

不過也有網友分析認為:

若論文成立,那么我們就能在24GB消費級GPU上跑120B的大模型了。

圖片
圖片

那么你覺得這種新方法如何呢?

責任編輯:張燕妮 來源: 量子位
相關推薦

2025-05-29 09:14:17

2023-03-24 16:02:59

GPT-4測評

2023-04-03 09:56:22

模型系統

2025-03-25 09:04:12

2024-05-08 09:37:36

AI論文

2025-02-19 10:46:16

2022-09-13 14:54:08

模型AI

2023-09-27 08:18:03

2024-03-01 12:17:00

AI數據微軟

2023-07-19 17:27:38

研究方案

2025-02-20 11:29:21

2022-08-24 13:25:20

微軟Python小白神器

2025-02-12 10:06:25

2022-08-02 20:21:00

SaaS驅動PLG

2023-04-11 13:55:20

AI游戲

2025-01-20 13:10:22

2022-07-11 09:58:45

LPWAN蜂窩物聯網

2025-02-12 16:13:34

2023-06-19 10:09:01

數學AI
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 综合天天久久 | 欧美中文字幕一区二区三区亚洲 | 欧州一区二区三区 | 懂色一区二区三区免费观看 | 青青久草 | 国产欧美精品一区二区色综合朱莉 | 欧美网站一区 | 精品一区二区三区在线观看 | 日韩中文字幕一区 | 日韩二| a级在线免费视频 | 国产99精品| 亚洲社区在线 | 国产在线二区 | 国产婷婷综合 | 国产成人精品一区二区三 | 亚洲成a人片 | 中文字幕一区二区三区精彩视频 | 综合久久久| 日韩精品免费在线 | 欧美精品一二区 | 亚洲免费成人av | 欧美日韩一区不卡 | a欧美| 五月天综合网 | 天天草天天爱 | 国产精品久久久久9999鸭 | 成人性视频免费网站 | 四虎成人av | 欧美综合一区二区三区 | 国产一区二区激情视频 | 午夜免费网站 | 成人高清视频在线观看 | 欧美激情视频一区二区三区在线播放 | 91国在线高清视频 | 久久久久久综合 | 久久av资源网 | 一区二区三区四区在线播放 | 狠狠插狠狠操 | 日韩精品1区2区3区 国产精品国产成人国产三级 | 亚洲精品视频网站在线观看 |