成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

讓大模型“瘦身”90%!清華&哈工大提出極限壓縮方案:1bit量化,能力同時保留83%

人工智能 新聞
他們提出了大模型1bit極限壓縮框架OneBit,首次實現(xiàn)大模型權重壓縮超越90%并保留大部分(83%)能力。

對大模型進行量化、剪枝等壓縮操作,是部署時最常見不過的一環(huán)了。

不過,這個極限究竟有多大?

清華大學和哈工大的一項聯(lián)合研究給出的答案是:

90%。

他們提出了大模型1bit極限壓縮框架OneBit,首次實現(xiàn)大模型權重壓縮超越90%并保留大部分(83%)能力。

可以說,玩兒的就是“既要也要”~

一起來看看。

大模型1bit量化方法來了

從剪枝、量化,到知識蒸餾、權重低秩分解,大模型已經(jīng)可以實現(xiàn)壓縮四分之一權重而幾乎無損。

權重量化通常是指把大模型的參數(shù)轉化為低位寬的表示,可以通過對充分訓練后的模型進行轉換(PTQ)或在訓練中引入量化步驟(QAT)來實現(xiàn)。

然而,現(xiàn)有量化方法在低于3bit時面臨嚴重的性能損失,這主要是由于:

  1. 現(xiàn)有的參數(shù)低位寬表示方法在1bit時存在嚴重的精度損失。基于Round-To-Nearest方法的參數(shù)以1bit表示時,其轉換的縮放系數(shù)s和零點z會失去實際意義。
  2. 現(xiàn)有的1bit模型結構沒有充分考慮到浮點精度的重要性。浮點參數(shù)的缺失可能影響模型計算過程的穩(wěn)定性,嚴重降低其本身的學習能力。

為了克服1bit超低位寬量化的阻礙,作者提出一種全新的1bit模型框架:OneBit,它包括全新的1bit線性層結構、基于SVID的參數(shù)初始化方法和基于量化感知知識蒸餾的深度遷移學習。

這種新的1bit模型量化方法能夠以極大的壓縮幅度、超低的空間占用和有限的計算成本,保留原模型絕大部分的能力。這對于實現(xiàn)大模型在PC端甚至智能手機上的部署意義非凡。

整體框架

OneBit框架總體上可以包括:全新設計的1bit模型結構、基于原模型初始化量化模型參數(shù)的方法以及基于知識蒸餾的深度能力遷移。

這種全新設計的1bit模型結構能夠有效克服以往量化工作在1bit量化時嚴重的精度損失問題,并且在訓練、遷移過程中表現(xiàn)出出色的穩(wěn)定性。

量化模型的初始化方法能為知識蒸餾設置更好的起點,加速收斂的同時獲得更加的能力遷移效果。

1、1bit模型結構

1bit要求每個權重值只能用1bit表示,所以最多只有兩種可能的狀態(tài)。

作者選用±1作為這兩種狀態(tài),好處就是,它代表了數(shù)字系統(tǒng)中的兩種符號、功能更加完備,同時可以通過Sign(·)函數(shù)方便地獲得。

作者的1bit模型結構是通過把FP16模型的所有線性層(嵌入層和lm_head除外)替換為1bit線性層實現(xiàn)的。

這里的1bit線性層除通過Sign(·)函數(shù)獲得的1bit權重之外,還包括另外兩個關鍵組件—FP16精度的值向量。

圖片

△FP16線性層與OneBit線性層的對比

這種設計不僅保持了原始權重矩陣的高秩,而且通過值向量提供了必要的浮點精度,對保證穩(wěn)定且高質(zhì)量的學習過程很有意義。

從上圖可以看出,只有值向量g和h保持FP16格式,而權重矩陣則全部由±1組成。

作者通過一個例子可以一觀OneBit的壓縮能力。

假設壓縮一個40964096的FP16線性層,OneBit需要一個40964096的1bit矩陣和兩個4096*1的FP16值向量。

這里面總的位數(shù)為16,908,288,總的參數(shù)個數(shù)為16,785,408,平均每個參數(shù)占用僅僅約1.0073 bit。

這樣的壓縮幅度是空前的,可以說是真正的1bit LLM。

2、參數(shù)初始化和遷移學習

為了利用充分訓練好的原模型更好地初始化量化后的模型,作者提出一種新的參數(shù)矩陣分解方法,稱為“值-符號獨立的矩陣分解(SVID)”。

這一矩陣分解方法把符號和絕對值分開,并把絕對值進行秩-1近似,其逼近原矩陣參數(shù)的方式可以表示成:

圖片

秩-1近似可以通過常用矩陣分解方法實現(xiàn),例如奇異值分解(SVD)和非負矩陣分解(NMF)。

作者在數(shù)學上給出,這種SVID方法可以通過交換運算次序來和1bit模型框架相匹配,進而實現(xiàn)參數(shù)初始化。

此外,符號矩陣在分解過程中對近似原矩陣的貢獻也被證明,詳情見論文。

作者認為,解決大模型超低位寬量化的有效途徑可能是量化感知訓練QAT。

因此,在SVID給出量化模型的參數(shù)起點后,作者把原模型作為教師模型并通過知識蒸餾從中學習。

具體而言,學生模型主要接受教師模型的logits和hidden state的指導。

訓練時,值向量和參數(shù)矩陣的值會被更新,而在部署時,則可以直接使用量化后的1bit參數(shù)矩陣進行計算。

模型越大,效果越好

作者選擇的基線是FP16 Transformer、GPTQ、LLM-QAT和OmniQuant。

后三個都屬于量化領域中經(jīng)典的強基線,特別是OmniQuant是自作者之前最強的2bit量化方法。

由于目前還沒有1bit權重量化的研究,作者只對OneBit框架使用1bit權重量化,而對其他方法采取2bit量化設置。

對于蒸餾數(shù)據(jù),作者仿照LLM-QAT利用教師模型自采樣的方式產(chǎn)生數(shù)據(jù)。

作者從1.3B到13B不同大小、OPT和LLaMA-1/2不同系列的模型來證明OneBit的有效性。在評價指標上,使用驗證集的困惑度和常識推理的Zero-shot準確度。詳情見論文。

圖片
圖片

上表展示了OneBit相比于其他方法在1bit量化時的優(yōu)勢。值得注意的是,模型越大時,OneBit效果往往越好。

隨著模型規(guī)模增大,OneBit量化模型降低的困惑度比FP16模型降低的困惑度要多。

以下是幾種不同小模型的常識推理、世界知識和空間占用情況:

圖片
圖片
圖片

作者還比較了幾種不同類型小模型的大小和實際能力。

作者發(fā)現(xiàn),盡管OneBit-7B平均位寬最小、占用的空間最小、訓練的步數(shù)也相對少,但它在常識推理能力上不遜于其他模型。

同時作者也發(fā)現(xiàn),OneBit-7B模型在社會科學領域出現(xiàn)較嚴重的知識遺忘。

圖片

△FP16線性層與OneBit線性層的對比一個OneBit-7B指令微調(diào)后的文本生成例子

上圖還展示了一個OneBit-7B指令微調(diào)后的文本生成例子。可見,OneBit-7B有效地受到了SFT階段的能力增益,可以比較流暢地生成文本,盡管總參數(shù)只有1.3GB(與FP16的0.6B模型相當)。總的來說,OneBit-7B展示出了其實際應用價值。

分析與討論

作者展示了OneBit對不同規(guī)模LLaMA模型的壓縮比,可以看出,OneBit對模型的壓縮比均超過驚人的90%。

圖片

特別是,隨著模型增大,OneBit的壓縮比越高。

這顯示出作者方法在更大模型上的優(yōu)勢:以更高的壓縮比獲得更大的邊際收益(困惑度)。此外,作者的方法在大小和性能之間做到了很好的權衡。
圖片

1bit量化模型在計算上具有優(yōu)勢,意義十分重大。參數(shù)的純二進制表示,不但可以節(jié)省大量的空間,還能降低矩陣乘法對硬件的要求。

高精度模型中矩陣乘法的元素相乘可以被變成高效的位運算,只需位賦值和加法就可以完成矩陣乘積,非常有應用前景。

此外,作者的方法在訓練過程中保持了出色的穩(wěn)定學習能力。

事實上,二值網(wǎng)絡訓練的不穩(wěn)定問題、對超參數(shù)的敏感性和收斂困難一直受到研究人員關注。

作者分析了高精度值向量在促進模型穩(wěn)定收斂過程中的重要意義。

有前人工作提出過1bit模型架構并用于從頭訓練模型(如BitNet[1]),但它對超參數(shù)敏感并且難以從充分訓練的高精度模型中遷移學習。作者也嘗試了BitNet在知識蒸餾中的表現(xiàn),發(fā)現(xiàn)其訓練還不夠穩(wěn)定。

圖片

總結

作者提出了一種用于1bit權重量化的模型結構和相應的參數(shù)初始化方法。

在各種大小和系列的模型上進行的廣泛實驗表明,OneBit在代表性的強基線上具有明顯的優(yōu)勢,并實現(xiàn)了模型大小與性能之間的良好折中。

此外,作者進一步分析了這種極低比特量化模型的能力和前景,并為未來的研究提供了指導。

論文地址: https://arxiv.org/pdf/2402.11295.pdf

責任編輯:張燕妮 來源: 量子位
相關推薦

2024-03-04 09:00:00

模型壓縮

2024-01-29 11:56:23

數(shù)據(jù)AI

2025-06-16 14:39:56

模型開源框架

2023-12-04 13:23:00

數(shù)據(jù)訓練

2024-07-02 12:25:12

2023-04-10 16:34:46

模型文本

2024-02-23 11:27:00

數(shù)據(jù)技術

2023-06-20 13:44:49

清華推理

2024-03-18 10:38:03

模型算法

2025-01-13 07:00:00

2025-05-26 09:41:26

2025-01-17 09:20:00

2024-02-29 11:56:48

2024-09-12 12:46:36

2024-07-19 12:48:29

2024-12-10 07:00:00

大模型密度定律人工智能

2025-04-22 08:08:37

2023-08-04 17:07:05

2024-08-02 14:53:00

2020-04-28 15:16:14

Facebook AI模型
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲精品一区二区三区中文字幕 | 中文字幕av一区二区三区 | 国产91精品网站 | 成人免费大片黄在线播放 | 欧美一级片在线看 | 国产片一区二区三区 | 欧美成人免费在线视频 | 精品国产乱码久久久久久果冻传媒 | 国产激情视频 | 美女一区二区在线观看 | 日韩综合在线 | 成人黄色电影免费 | 色吊丝2288sds中文字幕 | 中文字幕在线观看 | 综合五月 | 99视频在线 | 黄色国产在线播放 | 自拍偷拍第一页 | 欧美中文在线 | 日本不卡在线视频 | 三级视频在线观看电影 | 中文字幕av中文字幕 | 欧美日韩亚洲国产 | 亚洲毛片| 久久99精品久久久 | 久久综合99| 国产精品视频综合 | 日韩精品一区二区三区中文在线 | 一区二区成人 | 一区在线视频 | 999久久久 | 午夜看片网站 | 成人福利电影 | 99精品免费久久久久久日本 | 国产片侵犯亲女视频播放 | 亚洲成人精品 | 91精品国产91久久久 | 久草中文网 | 久久久久久免费毛片精品 | 91精品国产乱码久久久久久 | 久久久久免费精品国产 |