成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Unsloth:僅需7GB顯存就能訓練自己的DeepSeek-R1!

發布于 2025-2-11 13:48
瀏覽
0收藏

隨著 LLM 應用的廣泛普及,如何提高模型的推理效率并降低資源消耗成為了技術發展中的一大挑戰。Unsloth 通過引入多個強化學習(RL)算法和最新的量化技術,顯著提高了 LLM 在推理和微調過程中的性能,并大幅降低了顯存消耗。

Unsloth:僅需7GB顯存就能訓練自己的DeepSeek-R1!-AI.x社區

DeepSeek 的研究人員在用純強化學習(RL)訓練 R1-Zero 時觀察到了一個“靈光一現”的時刻。模型學會了通過重新評估最初的思路來延長思考時間,而無需任何人工指導或預定義指令。

Unsloth 對整個 GRPO 過程進行了增強,使其比 Hugging Face + FA2 減少了 80% 的顯存使用。這意味著我們可以使用 7GB 顯存,通過Qwen2.5(1.5B)復現了 R1-Zero “靈光一現”的時刻。

主要細節  

使用15GB顯存,Unsloth 允許我們將任何最多 15B 參數的模型(如Llama 3.1(8B)、Phi-4(14B)、Mistral(7B)或 Qwen2.5(7B))轉變為推理模型。

最低要求:僅需 7GB 顯存即可在本地訓練自己的推理模型。

Tiny-Zero 的團隊展示了如何用 Qwen2.5(1.5B)復現 R1-Zero “靈光一現”的時刻——但之前需要2個A100 GPU(160GB顯存)。而現在,通過 Unsloth,我們只需一個 7GB 顯存的 GPU 即可實現同樣的效果。

請注意,這不是對 DeepSeek 的 R1 精煉模型進行微調,也不是使用 R1 的精煉數據進行微調,而是通過 GRPO 將標準模型轉換為一個完整的推理模型。

這種魔法可以通過 GRPO 重新創建,GRPO 是一種強化學習(RL)算法,能夠高效優化響應,而不需要值函數,這與依賴值函數的近端策略優化(PPO)不同。在我們的筆記本中,我們使用 GRPO 訓練一個模型,旨在使其自主開發自我驗證和搜索能力——創造一個迷你“靈光一現”時刻。

工作原理:

  1. 模型生成一組響應。
  2. 每個響應根據正確性或由某個獎勵函數創建的其他度量標準進行評分,而不是使用 LLM 獎勵模型。
  3. 計算該組的平均得分。
  4. 將每個響應的得分與該組平均得分進行比較。
  5. 強化模型,使其傾向于選擇得分更高的響應。

例如,假設我們希望模型解決以下問題:

1+1 等于多少? >> 思考鏈/推理過程 >> 答案是2。

2+2 等于多少?>> 思考鏈/推理過程 >> 答案是4。

最初,必須收集大量數據來填充推理過程。但 GRPO(DeepSeek 使用的算法)或其他 RL 算法可以引導模型自動展示推理能力并生成推理痕跡。相反,我們需要創建良好的獎勵函數或驗證器。例如,如果答案正確,就給它打 1 分;如果有拼寫錯誤,扣 0.1 分,依此類推!我們可以提供許多獎勵過程的函數。

GRPO 在 Unsloth 中的應用  

如果你在本地使用 GRPO 與 Unsloth,請確保“pip install diffusers”,因為它是一個依賴項。

等待至少 300 步才能看到獎勵的實際增長,請使用最新版本的 vLLM。為了獲得良好的結果,你需要訓練至少 12 小時(這就是 GRPO 的工作方式),但請記住,這不是強制性的,你可以隨時停止。

建議將 GRPO 應用于至少 1.5B 參數的模型,以便正確生成思考 token,因為較小的模型可能無法做到。如果你使用的是基礎模型,請確保擁有聊天模板。GRPO 的訓練損失追蹤功能現在已直接內置于 Unsloth 中,無需像 wandb 等外部工具。

Unsloth:僅需7GB顯存就能訓練自己的DeepSeek-R1!-AI.x社區

除了增加 GRPO 支持外,Unsloth 隨后還支持了在線 DPO、PPO 和 RLOO!請查看下圖,比較 Unsloth 的在線 DPO 顯存消耗與標準 Hugging Face + FA2 的差異。

Unsloth:僅需7GB顯存就能訓練自己的DeepSeek-R1!-AI.x社區

Unsloth x vLLM  

20 倍吞吐量,節省 50% 顯存。

現在,你可以直接在微調堆棧中使用 vLLM,這大大提高了吞吐量,并且允許你在同一時間進行微調和推理!在 1x A100 40GB 顯卡上,使用 Unsloth 的動態 4bit 量化的 Llama 3.2 3B Instruct,預期吞吐量約為 4000 tokens/s。在 16GB 的Tesla T4(免費 Colab GPU)上,你可以獲得約 300 tokens/s 的吞吐量。

Unsloth 去除了加載 vLLM 和 Unsloth 時的雙倍內存使用,從而節省了約 5GB 的顯存(對于 Llama 3.1 8B)和 3GB 的顯存(對于 Llama 3.2 3B)。原本,Unsloth 可以在 1x 48GB GPU 上微調 Llama 3.3 70B Instruct,其中 Llama 3.3 70B 的權重占用了 40GB 的顯存。如果不去除雙倍內存使用,當加載 Unsloth 和 vLLM 一起使用時,我們將需要至少 80GB 的顯存。

但是使用 Unsloth,我們仍然可以在不到 48GB 顯存的情況下,同時享受微調和快速推理的好處!要使用快速推理,首先安裝 vllm,并通過 fast_inference 實例化 Unsloth:

# pip install unsloth vllm
from unsloth import FastLanguageModel
model, tokenizer = FastLanguageModel.from_pretrained(
    model_name = "unsloth/Llama-3.2-3B-Instruct",
    fast_inference = True,
)
model.fast_generate(["Hello!"])

什么是 GRPO?  

GRPO(Group Relative Policy Optimization,群體相對策略優化)是一種強化學習(RL)算法,旨在優化模型的響應質量,而不依賴傳統的值函數。這種算法通過一種群體相對優化方法,對模型的每個生成的響應進行評分,并根據這些評分來引導模型的學習過程。

具體來說,GRPO 算法的主要特點如下:

  1. 無值函數:與依賴值函數的強化學習算法(如PPO)不同,GRPO 不使用值函數來評估狀態或行為的質量,而是通過對模型輸出的響應進行評分,并基于這些評分來優化模型。
  2. 響應評分與群體平均:在 GRPO 中,模型生成一組可能的響應,每個響應都會根據正確性或其他預定義的獎勵函數進行評分。然后,計算這些響應的平均得分,并將每個響應的得分與群體平均得分進行比較。模型會得到強化,傾向于生成得分較高的響應。
  3. 自我優化:GRPO 能夠幫助模型自主地進行推理和自我驗證。例如,模型可以在沒有人工干預的情況下,通過不斷調整思維過程來提高推理結果的準確性。
  4. 適用于多種任務:GRPO 不僅可以用于常見的分類任務,也可以應用于更復雜的任務,如生成具有自我驗證和推理能力的模型(例如,解答問題時展示推理過程)。

總的來說,GRPO通過強化學習的方式,不僅優化模型的回答,還能改善其推理過程,使模型在沒有人工反饋的情況下,能夠不斷自我改進,從而在處理復雜任務時展現出更強的推理能力。

本文轉載自 ??PyTorch研習社??,作者: 南七無名式

收藏
回復
舉報
回復
相關推薦
主站蜘蛛池模板: 国产目拍亚洲精品99久久精品 | 日韩欧美国产精品一区二区 | 日韩欧美国产精品综合嫩v 一区中文字幕 | 日日摸夜夜添夜夜添精品视频 | 91在线精品视频 | 成人影院在线观看 | 美女国产 | 免费一区二区三区 | 亚洲一区二区久久 | 日本三级网 | 亚洲欧美日韩在线 | 毛片网络| 日韩欧美中文字幕在线观看 | 四季久久免费一区二区三区四区 | 99re6在线视频精品免费 | 国产精品一卡二卡三卡 | 国产一区二区精华 | 91网在线播放 | 99re6在线视频精品免费 | 久久久久久免费毛片精品 | 九九热在线视频观看这里只有精品 | 卡通动漫第一页 | 尤物在线 | 91精品国产手机 | 91久久精品 | 亚洲一区二区网站 | 日本在线视频一区二区 | heyzo在线| 中文字幕在线二区 | 三级在线免费 | 天堂精品 | 国产成人精品视频在线观看 | 视频一区在线 | 精品国产欧美在线 | 欧美一级片在线看 | 成人av观看| 毛片视频免费 | 国产在线播放一区二区三区 | 日韩欧美在线观看 | 免费色网址 | 99爱在线视频 |