成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

訓練大模型也不怕,輕量級TorchShard庫減少GPU內存消耗,API與PyTorch相同

新聞 人工智能
訓練大模型時,如何優雅地減少 GPU 內存消耗?你不妨試試這個 TorchShard 庫,兼具模型并行與數據并行等特點,還具有與 PyTorch 相同的 API 設計。

[[413467]]

模型并行性能夠促進視覺任務的性能。但是目前,還沒有一個標準庫可以讓我們像采用混合精度等其他 SOTA 技術那樣輕松地采用模型并行性。

最近,馬里蘭大學帕克分校計算機科學系的研究者 Kaiyu Yue 開源了一個工具TorchShard,這是一個輕量級的引擎,用于將 PyTorch 張量切片成并行的 shard。當模型擁有大量的線性層(例如 BERT、GPT)或者很多類(數百萬)時,TorchShard 可以減少 GPU 內存并擴展訓練規模,它具有與 PyTorch 相同的 API 設計。

項目地址:https://github.com/KaiyuYue/torchshard

BERT 和 GPT 等超大模型正在成為 NLP 領域應用中的趨勢。然而訓練這種大模型面臨內存限制的問題,為了解決這個難題,研究者使用 Megatron-LM 和 PyTorch-Lightning 模型并行性擴大訓練。其中,Megatron-LM 只專注于大規模訓練語言模型,而 PyTorch-Lightning 僅基于 sharded 優化器狀態和梯度,如 DeepSpeed。

在計算機視覺任務中,我們會在訓練基于 Transformer、MLP 模型或在數百萬個類中訓練模型時遇到同樣的問題。TorchShard 的目標是:

  • 建立一個標準的 PyTorch 擴展庫,用于使用模型并行性進行擴展訓練;
  • 以一種簡單、自然的方式使用 PyTorch。

TorchShard 是對模型并行單元(mpu)的徹底重寫,是 Megatron-LM 核心。最重要的是,TorchShard 具有與 PyTorch 相同的 API 設計,這意味著所有的子類和子函數都保持與 PyTorch 相同。例如,如果你想讓原來的線性層 torch.nn. linear 是并行的,只需將 torch 變成 ts,并調用帶有 dim 參數的子類 nn.ParallelLinear,如下所示:

  1. import torchshard as ts 
  2.  
  3. ts.init_process_group(group_size=2) # init parallel groups 
  4.  
  5. m = torch.nn.Sequential( 
  6.  
  7. torch.nn.Linear(2030, bias=True), 
  8.  
  9. ts.nn.ParallelLinear(3030, bias=True, dim=None), # equal to nn.Linear() 
  10.  
  11. ts.nn.ParallelLinear(3030, bias=True, dim=0), # parallel in row dimension 
  12.  
  13. ts.nn.ParallelLinear(3030, bias=True, dim=1), # parallel in column dimension 
  14.  
  15. ).cuda() 
  16.  
  17. x = m(x) # forward 
  18.  
  19. loss = ts.nn.functional.parallel_cross_entropy(x, y) # parallel loss function 
  20.  
  21. loss.backward() # backward 
  22.  
  23. torch.save( 
  24.  
  25. ts.collect_state_dict(m, m.state_dict()), 'm.pt') # save model state 

除此之外,TorchShard 還支持與 DDP 一起使用時的各種特性,保存和加載 shard checkpoints,初始化 shard 參數,以及跨多臺機器和 GPU 處理張量。具體如下:

  • torchshard 包含必要的功能和操作,如 torch 包;
  • torchshard.nn 包含圖形的基本構建塊,如 torch.nn 包;
  • torchshard.nn.functional 包含 torchshard.nn 的相應功能操作,如 torch.nn.functional 包;
  • torchshard.distributed 包含處理分布式張量和組的基本功能,如 torch.distributed 包更容易使用。

如何開始 TorchShard?

安裝要求:Python 版本 3.6 以上(含)以及 PyTorch 版本 1.9.0 以上(含)。通過 pip 安裝 TorchShard 庫:

  1. pip install torchshard 

這里以 ImageNet 上訓練 ResNet-50 為例,展示僅需幾行代碼就能在項目中使用 TorchShard。通常 ResNet-50 設計范式包含兩部分:卷積塊和全連接層,如下圖 1 所示。一般來說,由于大量的類依賴于數據集,最后的線性層比卷積塊有更多的參數。所以我們切片最后一個線性層來檢查其最大尺寸。

圖 1:DDP 以及 DDP + TorchShard 前向訓練流。

在上圖 1 中,左邊展示了傳統的 DDP 訓練范式。假設我們有兩個等級,DDP 將強制每個等級有重復的模型參數。然而,TorchShard 會將層級參數切片到不同的等級,從而減少整個 GPU 內存。現在向 ImageNet 官方訓練腳本添加一些代碼,修改后的版本已經成為 TorchShard 項目的一部分。

首先將 torchshard import 進來:

  1. import torchshard as ts 

然后需要初始化模型并行的進程組,就像初始化 DDP 進程組的方法一樣。只需要設置一個功能參數來告訴 torchshard 應該從目標層中切片出多少個 shard。

  1. ts.distributed.init_process_group(group_size=args.world_size) 

接下來將模型轉換為并行版本,其中可以直接將整個模型輸入到轉換輔助函數中,無需特殊處理。

  1. import resnet 
  2.  
  3. model = resnet.__dict__[args.arch](pretrained=args.pretrained) 
  4.  
  5. ts.nn.ParallelLinear.convert_parallel_linear( 
  6.  
  7. model, dim=args.model_parallel_dim 
  8.  
  9.  
  10. print("=> paralleling model'{}'".format(args.arch)) 

此外,不要忘記損失函數 torchshard.nn.ParallelCrossEntropy ,該損失函數可以根據輸入張量在原始 PyTorch 版本和并行版本之間切換運行模式。例如,如果輸入張量是由 torchshard 并行層產生的,torchshard.nn.ParallelCrossEntropy 將以并行方式計算損失值。

  1. criterion = ts.nn.ParallelCrossEntropyLoss().cuda(args.gpu) 

當模型并行模式(TorchShard)和數據并行模式(DDP)一起工作時,我們需要處理并行層的輸入。每個等級中的參數和訓練數據都不同。因此,我們在 ResNet forward 中的并行線性層之前收集輸入張量。

  1. x = ts.distributed.gather(x, dim=0) # gather input along the dim of batch size 
  2.  
  3. x = self.fc(x) 

同樣地,我們在計算損失值之前收集目標張量。

  1. output = model(images) 
  2.  
  3. if args.enable_model_parallel: 
  4.  
  5. target = ts.distributed.gather(target, dim=0
  6.  
  7. loss = criterion(output, target) 

最后,使用 TorchShard 函數保存和加載 checkpoints 非常簡單。TorchShard 提供了名為 torchshard.collect_state_dict 基本函數用于保存 checkpoints,torchshard.relocate_state_dict 用于加載 checkpoints。

保存檢查點:

  1. state_dict = model.state_dict() 
  2.  
  3. # collect states across all ranks 
  4.  
  5. state_dict = ts.collect_state_dict(model, state_dict) 
  6.  
  7. if ts.distributed.get_rank() == 0
  8.  
  9. torch.save(state_dict, 'resnet50.pt') # save as before 

加載檢查點:

  1. if ts.distributed.get_rank() == 0
  2.  
  3. state_dict = torch.load('resnet50.pt'
  4.  
  5. # relocate state_dict() for all ranks 
  6.  
  7. state_dict = ts.relocate_state_dict(model, state_dict) 
  8.  
  9. model.load_state_dict(state_dict) # load as before 

現在我們已經完成了在 ImageNet 上為 shard 訓練添加代碼, 然后可以通過增加類的數量來擴展它,即最后一個線性層的輸出特征維度。訓練腳本可以在 torchshard/project/imagenet 中找到。下圖展示了在 8 個 NVIDIA TITAN-XP (12196 MiB) GPU 、類數 ≤ 1000000 上和 16 個 GPU 、類數為 2000000 上訓練 ResNet-50 擴展能力。

圖 2:在不同并行策略下使用標準 ResNet 訓練設置(即輸入大小 224 和批量大小 256)的 GPU 內存成本。

使用 AMP 與 ZeRO

TorchShard 以簡單自然的 PyTorch 方式與其他技術(例如自動混合精度 AMP 以及 ZeRO)一起混合使用。

  1. # gradscaler 
  2.  
  3. scaler = torch.cuda.amp.GradScaler(enabled=args.enable_amp_mode) 
  4.  
  5.  
  6.  
  7. with torch.cuda.amp.autocast(enabled=args.enable_amp_mode): # compute output 
  8.  
  9. output = model(images) 
  10.  
  11.  
  12.  
  13. if args.enable_model_parallel: 
  14.  
  15. target = ts.distributed.gather(target, dim=0
  16.  
  17. loss = criterion(output, target) 
  18.  
  19.  
  20.  
  21. # compute gradient and do SGD step 
  22.  
  23. scaler.scale(loss).backward() 
  24.  
  25. scaler.step(optimizer) 
  26.  
  27. scaler.update() 
  28.  
  29. optimizer.zero_grad() 

圖 3:在不同并行策略以及 AMP 下,使用標準的 ResNet 訓練設置時(輸入尺寸 224,batch 大小 256),使用 GPU 內存的成本。

ZeRO 是 DeepSpeed 的核心,與 PyTorch >= 1.9.0 一起使用。如果你想測試一個函數,請安裝最新版本的腳本來運行,代碼如下:

  1. from torch.distributed.optim import ZeroRedundancyOptimizer 
  2.  
  3.  
  4.  
  5. if args.enable_zero_optim: 
  6.  
  7. print('=> using ZeroRedundancyOptimizer'
  8.  
  9. optimizer = torch.distributed.optim.ZeroRedundancyOptimizer( 
  10.  
  11. model.parameters(), 
  12.  
  13. optimizer_class=torch.optim.SGD, 
  14.  
  15. lr=args.lr, 
  16.  
  17. momentum=args.momentum, 
  18.  
  19. weight_decay=args.weight_decay) 
  20.  
  21. else
  22.  
  23. optimizer = torch.optim.SGD(model.parameters(), args.lr, 
  24.  
  25. momentum=args.momentum, 
  26.  
  27. weight_decay=args.weight_decay) 

圖 4:在不同的并行策略和 ZeRO 優化器下,在標準 ResNet 訓練設置(輸入大小 224 和批大小 256)的 GPU 內存成本。

此外,TorchShard 還提供了基本的 Python API 以及和相應的模板文件,以簡化自定義并行層的實現。

研究者將持續開發 TorchShard,如 TorchShard 下一個特性是新的數據采樣器 torchshard.utils.data.DistributedGroupSampler,它的命名遵循 torch.utils.data.DistributedSampler。該采樣器旨在幫助用戶構建 M-way 數據并行、N-way 模型并行,使得其就像 DDP 中的 DistributedSampler 一樣簡單。用戶唯一要做的就是設置模型并行組號,然后 DistributedGroupSampler 來確保同一模型并行組中的模塊具有相同的訓練數據。

 

責任編輯:張燕妮 來源: 機器之心Pro
相關推薦

2023-07-12 10:04:20

模型訓練

2011-07-06 09:11:40

MozillaFirefox

2025-01-09 08:01:10

2024-08-05 13:30:00

2013-05-15 10:20:16

Paas虛擬化

2022-08-10 12:21:07

PythonWebBottle

2024-01-08 13:38:00

AI模型

2023-11-24 11:11:08

Python數據庫

2025-05-09 01:00:00

大語言模型LLMGPU內存

2024-08-16 16:37:50

2010-11-10 10:57:43

T-SQL代碼

2025-05-30 08:45:00

數據模型訓練

2022-05-19 14:43:58

PyTorch訓練

2012-07-18 10:09:55

輕量級移動客戶端開發類庫

2024-06-12 09:52:49

2009-07-14 18:05:28

輕量級Swing組件

2009-07-17 14:38:51

輕量級Swing組件

2023-11-16 16:37:02

2010-01-11 10:48:15

2011-12-22 11:02:04

輕量級Linux
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 久久亚洲一区二区 | 日韩一及片 | 亚洲成人999 | 免费在线日韩 | 国产情侣啪啪 | 亚洲福利一区 | 中文字幕在线免费观看 | 成人精品网 | 天天曰天天曰 | 成年人在线观看 | 91视频18| 日本欧美视频 | h片在线播放 | 欧美在线视频一区二区 | 97精品久久 | 亚洲欧洲一区 | 成人99 | 欧美精品一区二区在线观看 | 免费一区 | 91网站在线看 | 日韩久久久久久 | 亚洲一区二区三区四区五区午夜 | 日韩毛片网| 国产精品久久国产精品 | 国产精品久久久久久久久久久久 | 精品视频在线观看 | 欧美福利视频一区 | 视频一区二区在线观看 | 美女黄色在线观看 | 精品一区二区三区四区五区 | .国产精品成人自产拍在线观看6 | 天天天天操 | 午夜欧美| 视频在线观看一区二区 | 国产一区二区三区久久久久久久久 | 大陆一级毛片免费视频观看 | 色在线免费视频 | 久久久国产精品视频 | 精品1区2区 | 亚洲人成人一区二区在线观看 | 午夜久久久久久久久久一区二区 |