成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

單個GPU就能跑!UC伯克利領頭,130億參數「小羊駝」權重公布

商務辦公
剛剛,UC伯克利、CMU、斯坦福等,聯手發布了最新開源模型駱馬(Vicuna)的權重。

3月31日,UC伯克利聯手CMU、斯坦福、UCSD和MBZUAI,推出了130億參數的Vicuna,俗稱「小羊駝」(駱馬),僅需300美元就能實現ChatGPT 90%的性能。?

今天,團隊正式發布了Vicuna的權重——只需單個GPU就能跑!

圖片

項目地址:https://github.com/lm-sys/FastChat/#fine-tuning

130億參數,90%匹敵ChatGPT

Vicuna是通過在ShareGPT收集的用戶共享對話上對LLaMA進行微調訓練而來,訓練成本近300美元。

研究人員設計了8個問題類別,包括數學、寫作、編碼,對Vicuna-13B與其他四個模型進行了性能測試。

測試過程使用GPT-4作為評判標準,結果顯示Vicuna-13B在超過90%的情況下實現了與ChatGPT和Bard相匹敵的能力。同時,在在超過90%的情況下勝過了其他模型,如LLaMA和斯坦福的Alpaca。

圖片

訓練

Vicuna-13B的訓練流程如下:

首先,研究人員從ChatGPT對話分享網站ShareGPT上,收集了大約70K對話。接下來,研究人員優化了Alpaca提供的訓練腳本,使模型能夠更好地處理多輪對話和長序列。之后利用PyTorch FSDP在8個A100 GPU上進行了一天的訓練。

圖片

  • 內存優化:

為了使Vicuna能夠理解長上下文,將最大上下文長度從Alpaca的512擴展到2048,這大大增加了GPU內存需求。在此,研究人員通過使用梯度檢查點和閃存注意力來解決內存壓力。

  • 多輪對話:

通過調整訓練損失以考慮多輪對話,并僅在聊天機器人的輸出上計算微調損失。

  • 通過Spot實例降低成本:

采用SkyPilot托管的Spot實例來降低成本,將7B模型的訓練成本從500美元降低到約140美元,將13B模型的訓練成本從約1000美元降低到300美元。

圖片

評估

在模型的質量評估方面,研究人員創建了80個不同的問題,并用GPT-4對模型輸出進行了評價。

為了比較不同的模型,研究人員將每個模型的輸出組合成一個單獨的提示,然后讓GPT-4評估哪個模型給出的回答更好。

其中,GPT-4在超過90%的問題中更喜歡Vicuna,而不是現有的SOTA開源模型(LLaMA、Alpaca)。

在45%的問題中,GPT-4認為Vicuna的回答和ChatGPT差不多甚至更好。

綜合來看,Vicuna在總分上達到ChatGPT的92%。

圖片

安裝使用

安裝

方法一:

# Install FastChat
pip3 install fschat


# Install a specific commit of huggingface/transformers
# Our released weights do not work with commits after this due to some upstream changes in the tokenizer.
pip3 install git+https://github.com/huggingface/transformers@c612628045822f909020f7eb6784c79700813eda

方法二:

1. clone版本庫并變更目錄到FastChat文件夾

git clone https://github.com/lm-sys/FastChat.git
cd FastChat

2. 安裝Package

pip3 install --upgrade pip  # enable PEP 660 support
pip3 install -e .

權重

根據LLaMA模型的許可,權重將以delta的形式發布。只需將其加到原來的LLaMA權重上,就可以獲得最終的Vicuna權重。

1. 按照huggingface上的說明,獲得原始的LLaMA權重

2. 通過腳本,自動從團隊的Hugging Face賬戶上下載delta權重

python3 -m fastchat.model.apply_delta \
--base /path/to/llama-13b \
--target /output/path/to/vicuna-13b \
--delta lmsys/vicuna-13b-delta-v0

使用

  • 單個GPU

Vicuna-13B需要大約28GB的GPU顯存。

python3 -m fastchat.serve.cli --model-name /path/to/vicuna/weights

  • 多個GPU

如果沒有足夠的顯存,則可以使用模型并行來聚合同一臺機器上多個GPU的顯存。

python3 -m fastchat.serve.cli --model-name /path/to/vicuna/weights --num-gpus 2

  • 僅用CPU

如果想在CPU上運行,則需要大約60GB的內存。

python3 -m fastchat.serve.cli --model-name /path/to/vicuna/weights --device cpu

Web UI

  • 啟動控制器

python3 -m fastchat.serve.controller

  • 啟動model worker

python3 -m fastchat.serve.model_worker --model-path /path/to/vicuna/weights

當進程完成模型的加載后,會看到「Uvicorn running on ...」。

  • 發送測試消息

python3 -m fastchat.serve.test_message --model-name vicuna-13b

· 啟動gradio網絡服務器

python3 -m fastchat.serve.gradio_web_server

現在,你就可以打開瀏覽器和模型聊天了。

微調

  • 數據

Vicuna是通過使用從ShareGPT收集到的大約7萬個用戶共享的對話與公共API來微調一個LLaMA基礎模型而創建的。

為了確保數據質量,團隊將HTML轉換回markdown,并過濾掉一些不合適或低質量的樣本。此外,團隊還將冗長的對話分成較小的片段,以符合模型的最大上下文長度。

  • 代碼和超參數

團隊使用斯坦福大學Alpaca的代碼對模型進行微調,并做了一些修改以支持梯度檢查點和Flash注意力。此外,團隊也使用與斯坦福Alpaca相似的超參數。

圖片

  • 用SkyPilot在云服務上進行微調

SkyPilot是由加州大學伯克利分校建立的一個框架,可以在任何與一個云服務(AWS、GCP、Azure、Lambda等)上輕松、經濟地運行ML工作負載。

安裝說明:https://skypilot.readthedocs.io/en/latest/getting-started/installation.html

# Install skypilot from the master branch
pip install git+https://github.com/skypilot-org/skypilot.git

Vicuna可以在8個擁有80GB內存的A100 GPU上進行訓練。下面的命令將自動啟動一個滿足要求的節點,在上面設置并運行訓練作業。

sky launch -c vicuna -s scripts/train-vicuna.yaml --env WANDB_API_KEY

對于Alpaca來說,訓練作業會在具有4個A100-80GB GPU的單一節點上啟動。

sky launch -c alpaca -s scripts/train-alpaca.yaml --env WANDB_API_KEY
· 使用本地GPU進行微調

Vicuna也可以用以下代碼在8個A100 GPU上訓練,顯存為80GB。

如果要在更少的GPU上訓練,則可以減少per_device_train_batch_size,并相應地增加gradient_accumulation_steps,以保持全局批大小不變。要設置環境,可以參見scripts/train-vicuna.yaml中的設置部分。

torchrun --nnodes=1 --nproc_per_node=8 --master_port=<your_random_port> \
fastchat/train/train_mem.py \
--model_name_or_path <path-to-llama-model-weight> \
--data_path <path-to-data> \
--bf16 True \
--output_dir ./checkpoints \
--num_train_epochs 3 \
--per_device_train_batch_size 4 \
--per_device_eval_batch_size 4 \
--gradient_accumulation_steps 1 \
--evaluation_strategy "no" \
--save_strategy "steps" \
--save_steps 1200 \
--save_total_limit 100 \
--learning_rate 2e-5 \
--weight_decay 0. \
--warmup_ratio 0.03 \
--lr_scheduler_type "cosine" \
--logging_steps 1 \
--fsdp "full_shard auto_wrap" \
--fsdp_transformer_layer_cls_to_wrap 'LlamaDecoderLayer' \
--tf32 True \
--model_max_length 2048 \
--gradient_checkpointing True \
--lazy_preprocess True

參考資料:

https://github.com/lm-sys/FastChat/#fine-tuning

責任編輯:武曉燕 來源: 新智元
相關推薦

2023-04-07 13:54:37

模型AI

2023-04-07 09:28:31

模型訓練

2023-03-31 13:55:00

模型智能

2025-01-22 15:21:00

2025-02-11 16:17:42

2023-06-21 13:44:57

模型AI

2025-04-18 08:42:52

模型推理AI

2024-03-04 08:15:00

2023-05-04 14:55:02

模型AI

2023-12-16 09:49:18

2023-08-05 13:45:46

模型AI

2025-05-06 15:31:55

智能模型AI

2024-02-19 13:46:04

多模態信息LWMtoken

2024-12-18 07:20:00

2025-04-30 09:09:00

2024-11-26 13:40:00

2023-06-21 13:20:14

系統模型

2022-03-28 13:25:42

AI扶貧機器之心

2025-05-21 08:53:00

2023-11-14 07:47:42

IGN擴散模型
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 91最新在线视频 | 国产精品一区二区不卡 | 毛片1| 一区二区三区四区在线 | 中文字幕一区二区三区精彩视频 | 国内精品久久久久久 | 男女羞羞视频在线免费观看 | 国产精品一区二区三区四区五区 | 91热在线 | 久久久久成人精品亚洲国产 | 91资源在线| 国产一级片一区二区 | 性一交一乱一透一a级 | 欧美日韩在线观看视频网站 | 影音先锋中文字幕在线观看 | 久久99久久99 | av看片网站 | aaa在线观看 | 亚洲精品99久久久久久 | av永久| 欧美黑人体内she精在线观看 | 国产性网| 一区二区三区免费在线观看 | 日韩在线观看 | 一区二区影视 | 免费在线观看一区二区 | 国精日本亚洲欧州国产中文久久 | 久久亚洲春色中文字幕久久久 | 在线视频一区二区三区 | jizz亚洲人 | 日韩欧美在线一区 | 91av视频在线播放 | 欧美午夜一区 | 精品国产一区二区三区观看不卡 | 99精品一区二区 | 国产精品电影在线观看 | 日韩不卡一区二区三区 | 91视频a | 成人欧美一区二区三区色青冈 | 免费观看一级毛片 | 国产精品一区二区日韩 |