成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

如何使用GPTQ量化使LLM更輕

譯文
人工智能
為了緩解成本高昂和運行困難等問題,研究人員開發了幾種LLM壓縮技術,其中包括“量化”。量化通過改變參數的存儲方式來減少模型的誤差。

譯者 | 李睿

審校 | 重樓

大型語言模型(LLM)應用的一大挑戰是其耗費巨大的內存和計算需求,通常需要數十GB的GPU內存。這使得它們不僅昂貴而且難以運行。

為了緩解這些問題,研究人員開發了幾種LLM壓縮技術,其中包括“量化”。量化通過改變參數的存儲方式來減少模型的誤差。GPTQ就是這樣一種高效快速的算法。GPTQ通過AutoGPTQ庫得到了Hugging Face等流行框架的支持,并提供了一種經濟有效的解決方案。以下是人們需要知道的關于用GPTQ量化LLM的事項。

什么是量化?

Transformer模型(例如LLM)通常使用16位浮點數字(fp16)存儲參數。因此,運行一個有10億個參數的模型至少需要2GB的內存,外加額外的開銷資源。量化通過將這些參數轉換為更小的整數格式(例如int8或int4),有效地減小了模型的大小,從而為這個問題提供了解決方案。量化算法面臨的挑戰是在最小化模型精度損失的同時減少模型的大小。

量化技術主要分為三大類:

  • 量化感知訓練(QAT):這種技術將量化集成到訓練過程中。通過允許模型從一開始就學習低精度表示,QAT減少了通常與量化相關的精度損失。
  • 量化感知微調(QAFT):這種方法采用預訓練的高精度模型,以較低的精度權重來保持其質量。令人關注的QAFT技術包括QLoRA和參數有效和量化感知自適應(PEQA),它們都是為了在減小模型大小的同時保持模型的訓練質量。
  • 訓練后量化(PTQ):這種方法在模型訓練完成之后,將LLM的參數轉換為精度較低的數據類型。PTQ的目標是在不改變其架構或不需要重新訓練的情況下降低模型的復雜性。

GPTQ

GPTQ是一種訓練后量化技術,使其成為非常大的模型的理想選擇,在這種模型中,完全訓練甚至微調的成本可能高得令人望而卻步。它具有將模型量化為2位、3位或4位格式的能力,根據開發人員的特定需求提供靈活性。

GPTQ采用了一套優化技術,在保持模型準確性的同時簡化了量化過程。根據研究機構發表的一些論文,與之前提出的一次性量化方法相比,GPTQ的壓縮增益增加了一倍多,證明了其優越的效率。

實驗結果表明,當使用像NVIDIA A100這樣的高端GPU時,GPTQ可以將推理速度提高約3.25倍,當使用更經濟的選項(例如NVIDIA A6000)時,GPTQ可以將推理速度提高4.5倍。

在實際比較中,具有1760億個參數的BLOOM模型可以使用GPTQ在不到4個GPU小時內進行量化。相比之下替代量化算法OBQ需要2個GPU小時來量化小得多的BERT模型,該模型只有3.36億個參數。

AutoGPTQ

GPTQ的創建者來自IST奧地利分布式算法和系統實驗室,他們已經在GitHub上公開了代碼。這種實現支持LLM的OPT和BLOOM系列。

還有其他一些將GPTQ應用于LLaMA模型的實現,包括著名的Llama.cpp模型。然而,對于范圍更廣的Transformer模型,AutoGPTQ庫是一個可靠的選擇。它與廣泛使用的Hugging Face Transformers庫兼容,允許開發人員將AutoGPTQ模型上傳到Hugging Face,使其可供應用程序和其他開發人員訪問。

Hugging Face已經擁有了幾個使用AutoGPTQ量化的模型,簡化了它們的部署。Hugging Face AutoGPTQ集成還支持AMD GPU和參數高效微調,包括低秩自適應(LoRA)。

開發人員可以使用Hugging Face的文本生成推理(TGI)工具包來運行AutoGPTQ模型。根據Hugging Face的說法,開發人員可以使用AutoGPTQ在一個A100-80GB的GPU上托管700億個參數的模型,這在fp16格式的模型上是不可能的。

有關代碼示例和運行AutoGPTQ的更多信息,可以參閱Hugging Face的Google Colab notebook

原文標題:How to make your LLMs lighter with GPTQ quantization,作者:Ben Dickson

責任編輯:華軒 來源: 51CTO
相關推薦

2023-11-17 14:37:56

2011-01-19 10:42:15

2009-12-23 15:41:26

2024-07-03 09:38:35

LLM人工智能

2009-05-20 14:43:38

ibmdwEasyMock測試

2023-10-30 10:54:01

2024-12-30 10:35:00

訓練數據模型

2011-08-18 15:56:08

iPhone開發內存

2025-06-03 08:49:00

2024-09-11 15:59:31

LLM.int8()大模型量化

2025-06-03 08:40:00

LM StudioLLM人工智能

2009-05-25 17:48:16

IT服務管理

2024-04-17 10:08:20

LLM人工智能大型語言模型

2024-03-01 09:00:00

大型語言模型數據集LLM

2024-12-31 00:00:10

LangServeLLM應用部署

2024-04-11 08:53:57

大型語言模型BERT人工智能

2023-09-15 08:00:20

2023-11-17 22:55:09

量化模型

2024-11-27 08:14:43

2024-07-31 08:00:00

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 久久精品亚洲精品 | 日本淫视频 | 亚洲精品久久久一区二区三区 | 国产精品久久久久久久久免费相片 | 国产伦精品一区二区三区在线 | 国产中文字幕在线观看 | 国产在线不卡视频 | 国产精品一区二区av | 亚洲精品美女 | 午夜二区 | 久色视频在线 | 在线播放一区二区三区 | 中文字幕在线观看av | 欧美性大战久久久久久久蜜臀 | 日韩av一区二区在线观看 | 五月综合激情在线 | 亚洲欧美国产精品一区二区 | 人人射人人插 | 日韩一及片 | 中文字幕精品一区二区三区在线 | 天天综合久久网 | 精品国产一二三区 | 日韩at | 日韩欧美三级在线 | 91久久久www播放日本观看 | 久久精品一区 | 91精品一区 | 美女一级a毛片免费观看97 | 天天曰夜夜操 | 一区二区三区回区在观看免费视频 | 日韩一区二区三区四区五区 | 国产精品1区2区3区 男女啪啪高潮无遮挡免费动态 | 在线观看免费av网 | 国产在线观看福利 | 国产一区二区a | 国产最新精品视频 | 免费三级网| 综合婷婷| 亚洲精品在线观看网站 | 日韩激情免费 | 又爽又黄axxx片免费观看 |