成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

低內存占用也能實現滿血訓練?!北理北大港中文MMLab推出Fira訓練框架

人工智能 新聞
來自北理、北大和港中文MMLab的研究團隊提出了一種滿足低秩約束的大模型全秩訓練框架——Fira,成功打破了傳統低秩方法中內存占用與訓練表現的“非此即彼”僵局。

內存占用小,訓練表現也要好……大模型訓練成功實現二者兼得。

來自北理、北大和港中文MMLab的研究團隊提出了一種滿足低秩約束大模型全秩訓練框架——Fira,成功打破了傳統低秩方法中內存占用與訓練表現的“非此即彼”僵局。

圖片

展開來說——

為了突破內存瓶頸,許多低秩訓練方法應運而生,如LoRA(分解參數矩陣)和GaLore(分解梯度矩陣)。

圖片△圖1:從宏觀層面分析三種內存高效低秩訓練方法

然而,如上圖所示,LoRA將訓練局限于參數的低秩子空間,降低了模型的表征能力,難以實現預訓練;GaLore將訓練局限于梯度的低秩子空間,造成了子空間外梯度的信息損失。

相較于全秩訓練,這兩種方法由于施加了低秩約束,會導致訓練表現有所下降。

但是,若提高秩值,則會相應地增加內存占用。

因此,在實際應用中,它們需要在確保訓練表現與降低內存消耗之間找到一個恰當的平衡點。

這引發了一個核心問題:

能否在維持低秩約束以確保內存高效的同時,實現全秩參數、全秩梯度的訓練以提升表現?

Fira即為最新答案,它有三大亮點:

  • 即插即用:Fira簡單易用,其核心實現僅涉及兩行關鍵公式,現已封裝進Python庫,可直接融入現有的大模型訓練流程中,替換原有優化器。代碼示例如下:
from fira import FiraAdamW, divide_params
param_groups = divide_params(model, target_modules_list = [“Linear”], rank=8)
optimizer = FiraAdamW(param_groups, lr=learning_rate)
  • 雙贏解決方案:在維持低秩約束的前提下,Fira實現了大模型的全秩訓練,打破了內存占用與訓練表現的取舍難題。與此同時,區別于系統方法(如梯度檢查點),Fira不以時間換內存;
  • 實驗驗證:Fira在多種規模的模型(60M至7B參數)以及預訓練微調任務中均展現出卓越性能,優于現有的LoRA和GaLore,甚至能達到或超越全秩訓練的效果。

打造Fira訓練框架

Fira訓練框架由兩部分組成:

1) 基于梯度模長的縮放策略:利用了團隊在大模型低秩和全秩訓練中發現的共通點——自適應優化器對原始梯度的修正效應,實現了低秩約束下的全秩訓練。

2) 梯度模長限制器,通過限制梯度模長的相對增長比例,解決了大模型訓練中常出現的損失尖峰問題。

背景動機

大模型訓練常常面臨顯著的內存瓶頸,尤其是其中的優化器狀態

舉例來說,使用Adam優化器從頭預訓練一個LLaMA 7B模型(batchsize為1,精度為BF16)可能需要至少58GB內存。

其中14GB用于加載參數,14GB用于儲存梯度,28GB用于儲存優化器狀態,剩下2GB用于儲存激活值。

在這之中,優化器狀態所占內存甚至要大于參數本身。

因此,使用低秩方法來減少這一部分內存,實現大模型的內存高效訓練十分重要。

而在現有的低秩方法中,LoRA通過分解參數矩陣,使用低秩適配器來減少內存占用;Galore通過分解梯度矩陣,在自適應優化器中儲存低秩梯度來減少內存占用。

鑒于使用LoRA低秩適配器方法來實現全參數訓練的困難性,團隊選擇拓展Galore的梯度投影方法來實現全秩訓練。

在Galore中,全秩梯度G?? ? ?mxn,會被投影矩陣P?? ? ?mxr分解成兩項低秩梯度P??R??和(G??—P??R??),其中圖片

為減少像Adam這樣的自適應優化器在內存中對應的狀態占用,Galore僅在優化器核心??中保留低秩梯度R??,而非全秩梯度G??

而另一項梯度(G??—P??R??),則會因為缺少對應的優化器狀態,被Galore直接丟棄,從而造成嚴重的信息損失。

這也解釋了,為什么Galore的性能會在rank值減小時,顯著衰減。

△圖2:Fira與Galore及其變體的訓練損失對比

為了彌補上述信息損失,最直觀的方法是直接加上這一部分梯度(G??—P??R??):

圖片

其中,W是參數矩陣, ??是學習率。

然而,如圖所示,使用這種方法(Galore-add)不僅未能帶來性能提升,反而可能導致訓練過程更加不穩定,且結果更差。

分析原因可歸結于這一部分的梯度缺乏優化器狀態,直接使用會退化為單純的SGD算法,并且可能與前面使用的Adam優化器的梯度不匹配,導致效果不佳。

基于梯度模長的縮放策略

為了解決上述挑戰,團隊提出了scaling factor概念,來描述Adam這樣的自適應優化器對原始梯度的修正效應,并揭示了它在大模型的低秩訓練和全秩訓練之間的相似性。

圖片

其中,?? 就是scaling factor,代表經過優化器修正過的梯度與原始梯度的模長比例。

如下圖,如果根據scaling factor的平均值對參數矩陣進行排序,可以發現低秩和全秩之間的排序非常相似。

△圖3:scaling factor在大模型低秩和全秩訓練間的相似性

基于這個觀察,團隊就嘗試在矩陣層面用低秩梯度R??的scaling factor,作為全秩梯度G??的scaling factor的替代,從而近似地修正(G??—P??R??),彌補其缺少的優化器狀態:

圖片

這樣團隊就在低秩約束下成功實現了全秩訓練。

進一步來說,剛才是從矩陣層面來考慮scaling factor。

順理成章地,團隊可以從更細粒度的角度——列的層面,來考慮scaling factor,實現更加精細地修正。

圖片

其中R??,:,?? 是低秩梯度R??的第i列,圖片是scaling factor的第i項。

梯度模長限制器

在訓練過程中,梯度常常會突然增大,導致損失函數出現尖峰,從而影響訓練的表現。

經過分析,可能原因是Galore在切換投影矩陣時存在不穩定性,以及維持(G??—P??R??)這種原始梯度的方向的方式,無法像Adam這樣的自適應算法,有效應對大模型訓練中存在的陡峭損失景觀。

圖片△圖4:3種Fira變體的訓練損失與梯度模長

然而,常見的梯度裁剪方法(如圖中的Fira-gradient-clipping)由于采用絕對裁剪,難以適應不同參數矩陣間梯度的較大差異,從而可能導致次優的訓練結果。

為此,團隊提出了一種新的梯度模長限制器,它通過限制梯度模長的相對增長比例,來更好地適應不同梯度的變化:

圖片

其中??是比例增長的上限,S??=????(R??)(G??—P??R??)是原始梯度(G??—P??R??)修正后的結果。

通過提出的控制梯度相對增長比例的方法,能夠將梯度的驟然增大轉化為平緩的上升,從而有效穩定訓練過程。

如圖2和圖3所示,團隊的限制器成功避免了損失函數的尖峰情況,并顯著提升了訓練表現。

實驗結果

如下表所示,在預訓練任務中,Fira在保持內存高效的前提下,驗證集困惑度(↓)顯著超過各類基線方法,甚至超越全秩方法。

具體來說,在預訓練LLaMA 1B模型時,Fira節約了61.1%優化器狀態所占內存,并且取得了比全秩訓練更加好的結果。

圖片△使用C4數據集預訓練不同大小的LLaMA模型驗證集困惑度(↓)對比

在預訓練LLaMA 7B模型時,Fira在使用了比Galore小8倍的秩rank的情況下,訓練表現遠超Galore。

這展現了Fira在大規模大模型上的有效性,以及相較Galore更高的內存減少能力。

△使用C4數據集預訓練LLaMA 7B的驗證集困惑度(↓)對比

在八個常識推理數據集微調LLaMA 7B的任務中,相較其他基線方法,Fira在一半的數據集下表現最好,平均準確率最高的同時實現了內存高效。

△在八個常識推理數據集微調LLaMA 7B準確率對比

另外,消融實驗也顯示了

  • Fira-w.o.-scaling說明了Fira使用基于梯度模長的縮放策略的有效性;
  • Fira-matrix說明了從更細粒度的列級別,而不是矩陣級別,考慮scaling factor的有效性;
  • Fira-w.o.-limiter說明了Fira中梯度模長限制器的有效性;
  • Fira-gradient-clipping說明了梯度裁剪可能無法完全解決損失尖峰問題,導致結果次優。

△消融實驗

與GaLore相比,Fira的表現幾乎不受秩rank值減少的影響。

在低秩的情況下(rank=16, rank=4),Fira仍然能與全秩訓練相當,相較Galore更加內存高效。

△不同rank下的預訓練驗證集困惑度(↓)

最后,團隊在不同模型大小,以及低秩和全秩條件下,訓練10,000步,并對得到的矩陣和列級別上Scaling factor做平均。

接著,使用了斯皮爾曼(Spearman)和肯德爾(Kendall)相關系數分析了Scaling factor在矩陣和列級別上大小順序的相關性。

其中,Coefficient中1代表完全正相關,-1代表完全負相關,而P-value越小越好(通常小于0.05為顯著)。

在所有規模的LLaMA模型中,Scaling factor在矩陣和列的級別上都表現出很強的正相關關系,并且所有的P-value小于0.05,非常顯著,為Fira中基于梯度模長的縮放策略提供了堅實的實驗基礎。

△矩陣和列級別上的Scaling factor低秩與全秩相似性分析

更多細節歡迎查閱原論文。

論文鏈接:https://arxiv.org/abs/2410.01623
代碼倉庫:https://github.com/xichen-fy/Fira

責任編輯:張燕妮 來源: 量子位
相關推薦

2023-11-10 12:51:29

微軟AI

2025-03-13 10:28:07

2024-07-15 07:30:00

自動駕駛AI

2023-10-04 00:16:00

Chinchilla小模型

2025-06-26 09:13:22

2023-11-07 11:50:14

AI訓練

2025-03-06 10:00:00

2023-04-15 19:37:50

OpenAIGPT-5

2025-06-12 08:46:00

2025-03-07 10:02:10

2023-09-12 13:43:00

智能技術

2025-01-17 09:20:00

2025-02-24 08:30:00

視覺模型訓練

2017-06-11 21:55:47

深度學習神經網絡模型

2017-08-14 16:36:23

ASActivity內存

2022-03-04 19:07:03

模型視覺人工智能

2025-02-10 14:05:00

訓練模型AI

2022-07-11 09:39:49

微軟后端服務遠程開發

2021-07-27 11:20:10

模型人工智能深度學習
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产精品日韩一区二区 | 鸳鸯谱在线观看高清 | 国产成人精品免高潮在线观看 | 在线免费91 | 欧洲一区二区三区 | 黄色播放 | 国产一区二区在线观看视频 | 中文字幕 在线观看 | 亚洲精品在线看 | www久久 | 欧日韩在线观看 | 成人在线免费网站 | 国产精品1区2区 | 色橹橹欧美在线观看视频高清 | av中文字幕在线播放 | 在线观看国产精品一区二区 | 久久久九九 | 成人免费av在线 | 伊人二区| 成人影院午夜 | 国产精品毛片久久久久久久 | av在线免费观看网址 | 黑人精品| a欧美 | 天天干天天谢 | 成人在线免费视频观看 | 国产小u女发育末成年 | 中文字幕国产精品 | 欧美a v在线 | 一区二区三区四区国产 | 成在线人视频免费视频 | 国产成人精品高清久久 | 久久久www | 亚洲精品亚洲人成人网 | 国产日韩一区二区三免费 | 2022精品国偷自产免费观看 | 成人欧美日韩一区二区三区 | 午夜精品一区二区三区在线观看 | 欧美嘿咻 | 国产精品不卡 | 91久久精品视频 |