Datasets:

Modalities:
Image
Size:
< 1K
Libraries:
Datasets
License:
xianbao HF staff yaoqi commited on
Commit
b196a10
1 Parent(s): ec46f4b

Update From- PyTorch-DDP-to-Accelerate-to-Trainer-cn.md (#23)

Browse files

- Update From- PyTorch-DDP-to-Accelerate-to-Trainer-cn.md (160c76e96bb7c454be652f64fd585d40f22dc216)


Co-authored-by: huyaoqi <yaoqi@users.noreply.huggingface.co>

From- PyTorch-DDP-to-Accelerate-to-Trainer-cn.md CHANGED
@@ -1,16 +1,16 @@
1
  # 从PyTorch DDP 到 Accelerate 到 Trainer,轻松掌握分布式训练
2
- ## 总体回顾
3
 
4
- 本教程建立在假定你已经对于PyToch训练一个简单模型有一定的基础理解上。本教程将展示通过调用DDP进程在多个GPU上训练的过程,并且通过三个不同等级的抽象方法展示:
5
 
6
- - 通过pytorch.distributed模块的原生pytorch DDP
7
- - 利用 🤗 关于pytorch.distributed的轻量加速封装确保程序可以在零代码或低代码修改的情况下在当个GPU或TPU下正常运行
8
- - 利用 🤗 Transformer的高级Trainer API ,该API抽象类所有模板代码并且支持不同设备和分布式场景。
9
 
10
 
11
- ## 什么是分布式训练,为什么他很重要?
12
 
13
- 下面展示了基本的PyTorch训练代码,根据[官方MNIST示例](https://github.com/pytorch/examples/blob/main/mnist/main.py),设置并训练MNIST模型
14
 
15
  ```python
16
  import torch
@@ -43,7 +43,7 @@ class BasicNet(nn.Module):
43
  return output
44
  ```
45
 
46
- 我们定义训练设备(cuda):
47
 
48
  ```python
49
  device = "cuda"
@@ -76,7 +76,7 @@ model = BasicNet().to(device)
76
  optimizer = optim.AdamW(model.parameters(), lr=1e-3)
77
  ```
78
 
79
- 在最终创建一个简单的训练和评估循环之前,该循环对数据集执行一个完整的迭代并计算测试准确性:
80
 
81
  ```python
82
  model.train()
@@ -98,19 +98,19 @@ with torch.no_grad():
98
  print(f'Accuracy: {100. * correct / len(test_loader.dataset)}')
99
  ```
100
 
101
- 通常从这里开始,可以将所有这些放入 python 脚本或在 Jupyter Notebook 上运行它。
102
 
103
- 然而,你怎样让这些资源可用下通过分布式训练利用这些脚本在两个GPU或多台机器上去提升训练速度呢?仅仅通过`python myscript.py`只会在单个GPU上跑。这正是`torch.distributed`模块存在的意义
104
 
105
  ## PyTorch分布式数据并行
106
 
107
- 正如字面意思所示,`torch.distributed`是指在分布式上工作。这包括多节点,多机器下的单个GPU,或者单个系统下多GPU,或者两者混合的情况。
108
 
109
- 为了转换为分布式设置,一些初始化设置必须首先定义,具体细节请看[DDP使用教程](https://pytorch.org/tutorials/intermediate/ddp_tutorial.html)
110
 
111
- 首先要生命`setup`和`cleanup`函数。这将创建一个进程组,并且所有计算进程通过这个通信。
112
 
113
- >"注意:对于本教程的这一部分,应该假定这些是在 python 脚本文件中发送的。稍后将讨论使用 Accelerate 的启动器,它消除了这种必要性"
114
 
115
  ```python
116
  import os
@@ -131,11 +131,11 @@ def cleanup():
131
 
132
  最后一个疑问是,我怎样把我的数据和模型发送到另一个GPU上?
133
 
134
- 这正是` DistributedDataParallel`模型应用的地方,他会拷贝你的模型在每一个GPU上,并且当`loss.backward()`被调用进行反向传播的时候,所有这些模型副本的梯度将被平均/减少。这确保每个设备在优化器步骤后具有相同的权重。
135
 
136
- 下面是我们的训练设置示例,重构为具有此功能的函数:
137
 
138
- >"注意:此处的rank是当前 GPU 与所有其他可用 GPU 相比的总体rank,这意味着它们的rank0 -> n-1
139
 
140
  ```python
141
  from torch.nn.parallel import DistributedDataParallel as DDP
@@ -157,7 +157,7 @@ def train(model, rank, world_size):
157
  cleanup()
158
  ```
159
 
160
- 需要根据特定设备上的模型(soddp_model和 not model)声明优化器,以便正确计算所有梯度。
161
 
162
  最后,要运行脚本,PyTorch 有一个方便的`torchrun`命令行模块可以提供帮助。只需传入它应该使用的节点数以及要运行的脚本即可:
163
 
@@ -165,15 +165,15 @@ def train(model, rank, world_size):
165
  torchrun --nproc_per_nodes=2 --nnodes=1 example_script.py
166
  ```
167
 
168
- 上面的代码将在一台机器上的两个 GPU 上运行训练脚本,这是使用 PyTorch 仅执行分布式训练的情况。
169
 
170
- 现在让我们谈谈 Accelerate,一个旨在让这个过程更丝滑并且能通过少量尝试帮助你的达到最优的库
171
 
172
  ## 🤗 Accelerate
173
 
174
- [Accelerate](https://huggingface.co/docs/accelerate)是一个库,旨在让您执行我们刚才所做的事情,而无需大幅修改您的代码。除此之外,Accelerate 固有的数据pipeline还可以提高代码的性能。
175
 
176
- 首先,让我们将刚刚执行的所有上述代码包装到一个函数中,以帮助我们直观地看到差异:
177
 
178
  ```python
179
  def train_ddp(rank, world_size):
@@ -219,13 +219,13 @@ def train_ddp(rank, world_size):
219
  print(f'Accuracy: {100. * correct / len(test_loader.dataset)}')
220
  ```
221
 
222
- 接下来让我们谈谈 Accelerate 如何提供帮助。上面的代码有几个问题:
223
 
224
- 1. 该代码有点低效,因为n个dataloader是基于每个设备推送的
225
- 2. 这些代码只能运行在多GPU下,因此需要特别注意再次在单个节点或 TPU 上运行。
226
 
227
 
228
- Accelerate 通过 [Accelerator](https://huggingface.co/docs/accelerate/v0.12.0/en/package_reference/accelerator#accelerator)类解决上述问题。通过它,在比较单节点和多节点时,除了三行代码外,代码几乎保持不变,如下所示:
229
 
230
  ```python
231
  def train_ddp_accelerate():
@@ -274,15 +274,15 @@ def train_ddp_accelerate():
274
  print(f'Accuracy: {100. * correct / len(test_loader.dataset)}')
275
  ```
276
 
277
- 借助这个对象,您的 PyTorch 训练循环现在已设置为可以在任何分布式设置上运行Accelerator。此代码仍然可以通过torchrunCLI 或通过 Accelerate 自己的 CLI 界面启动[accelerate launch](https://huggingface.co/docs/accelerate/v0.12.0/en/basic_tutorials/launch)。
278
 
279
- 因此,现在使用 Accelerate 执行分布式训练并尽可能保持 PyTorch 原生代码相同就变得很简单。
280
 
281
- 早些时候有人提到 Accelerate 还可以使 DataLoaders 更高效。这是通过自定义采样器实现的,它可以在训练期间自动将部分批次发送到不同的设备,从而允许一次知道一个数据副本,而不是一次将四个副本存入内存,具体取决于配置。与此同时,内存总量中只有原始数据集的一个完整副本。该数据集的子集在用于训练的所有节点之间进行拆分,从而允许在单个实例上训练更大的数据集,而不会使用内存爆炸
282
 
283
- ### 使用notebook_launcher
284
 
285
- 之前有人提到您可以直接从 Jupyter Notebook 开始分布式代码。这来自 Accelerate 的notebook_launcher实用程序,它允许基于 Jupyter Notebook 内部的代码启动多 GPU 训练。
286
 
287
  使用它就像导入launcher一样简单:
288
 
@@ -290,7 +290,7 @@ def train_ddp_accelerate():
290
  from accelerate import notebook_launcher
291
  ```
292
 
293
- 并传递我们之前声明的训练函数、要传递的任何参数以及要使用的进程数(例如 TPU 上的 8 个,或两个 GPU 上的 2 个)。以上两个训练函数都可以运行,但请注意,启动单次启动后,实例需要重新启动才能产生另一个
294
 
295
  ```python
296
  notebook_launcher(train_ddp, args=(), num_processes=2)
@@ -304,20 +304,20 @@ notebook_launcher(train_accelerate_ddp, args=(), num_processes=2)
304
 
305
  ## 使用🤗 Trainer
306
 
307
- 终于我们来到了最高级的API-- -- the Hugging Face [Trainer](https://huggingface.co/docs/transformers/main_classes/trainer).
308
 
309
- 这包含了尽可能多的训练,同时仍然能够在分布式系统上进行训练,而用户根本不需要做任何事情。
310
 
311
  首先我们需要导入Trainer:
312
 
313
  ```python
314
  from transformers import Trainer
315
  ```
316
- 然后我们定义一些TrainingArguments来控制所有常用的超参数。trainer还通过词典工作,因此需要制作自定义整理功能。
317
 
318
- 最后,我们将训练器子类化并编写我们自己的compute_loss.
319
 
320
- 之后,这段代码也可以在分布式设置上运行,而无需编写任何训练代码!
321
 
322
  ```python
323
  from transformers import Trainer, TrainingArguments
@@ -369,11 +369,11 @@ trainer.train()
369
 
370
  ```
371
 
372
- Epoch | 训练损失| 验证损失
373
  |--|--|--|
374
- 1|0.875700|0.282633|
375
 
376
- 与上面带有 的示例类似notebook_launcher,这可以通过将其全部放入训练函数中再次完成:
377
 
378
  ```python
379
  def train_trainer_ddp():
@@ -423,5 +423,5 @@ notebook_launcher(train_trainer_ddp, args=(), num_processes=2)
423
 
424
  <hr>
425
 
426
- >>>> 英文原文:[From PyTorch DDP to Accelerate to Trainer, mastery of distributed training with ease](https://huggingface.co/blog/pytorch-ddp-accelerate-transformers#%F0%9F%A4%97-accelerate)
427
- >>>> 译者:innovation64 (李洋)
 
1
  # 从PyTorch DDP 到 Accelerate 到 Trainer,轻松掌握分布式训练
2
+ ## 概述
3
 
4
+ 本教程假定你已经对于PyToch训练一个简单模型有一定的基础理解。本教程将展示使用3种封装层级不同的方法调用DDP(DistributedDataParallel)进程,在多个GPU上训练同一个模型:
5
 
6
+ - 使用 `pytorch.distributed` 模块的原生pytorch DDP模块
7
+ - 使用 🤗Accelerate 对 `pytorch.distributed` 的轻量封装,确保程序可以在不修改代码或者少量修改代码的情况下在单个GPU或TPU下正常运行
8
+ - 使用 🤗 Transformer 的高级 Trainer API ,该API抽象封装了所有代码模板并且支持不同设备和分布式场景。
9
 
10
 
11
+ ## 什么是分布式训练,为什么它很重要?
12
 
13
+ 下面是一些非常基础的 PyTorch 训练代码,它基于Pytorch 官方在 MNIST 上创建和训练模型的[示例](https://github.com/pytorch/examples/blob/main/mnist/main.py)
14
 
15
  ```python
16
  import torch
 
43
  return output
44
  ```
45
 
46
+ 我们定义训练设备(`cuda`):
47
 
48
  ```python
49
  device = "cuda"
 
76
  optimizer = optim.AdamW(model.parameters(), lr=1e-3)
77
  ```
78
 
79
+ 最终创建一个简单的训练和评估循环,训练循环会使用全部训练数据集进行训练,评估循环会计算训练后模型在测试数据集上的准确度:
80
 
81
  ```python
82
  model.train()
 
98
  print(f'Accuracy: {100. * correct / len(test_loader.dataset)}')
99
  ```
100
 
101
+ 通常从这里开始,就可以将所有的代码放入 Python 脚本或在 Jupyter Notebook 上运行它。
102
 
103
+ 然而,只执行 `python myscript.py` 只会使用单个 GPU 运行脚本。如果有多个GPU资源可用,您将如何让这个脚本在两个 GPU 或多台机器上运行,通过分布式训练提高训练速度? 这是 `torch.distributed` 发挥作用的地方
104
 
105
  ## PyTorch分布式数据并行
106
 
107
+ 顾名思义,`torch.distributed` 旨在配置分布式训练。你可以使用它配置多个节点进行训练,例如:多机器下的单个GPU,或者单台机器下的多个GPU,或者两者的任意组合。
108
 
109
+ 为了将上述代码转换为分布式训练,必须首先定义一些设置配置,具体细节请参阅[DDP使用教程](https://pytorch.org/tutorials/intermediate/ddp_tutorial.html)
110
 
111
+ 首先必须声明`setup`和`cleanup`函数。这将创建一个进程组,并且所有计算进程都可以通过这个进程组通信。
112
 
113
+ >"注意:在本教程的这一部分中,假定这些代码是在 python 脚本文件中启动。稍后将讨论使用 Accelerate 的启动器,就不必声明setup和 cleanup函数了"
114
 
115
  ```python
116
  import os
 
131
 
132
  最后一个疑问是,我怎样把我的数据和模型发送到另一个GPU上?
133
 
134
+ 这正是` DistributedDataParallel`模块发挥作用的地方, 它将您的模型复制到每个 GPU 上 ,并且当`loss.backward()`被调用进行反向传播的时候,所有这些模型副本的梯度将被同步地平均/下降。这确保每个设备在执行优化器步骤后具有相同的权重。
135
 
136
+ 下面是我们的训练设置示例,我们使用了DistributedDataParallel重构了训练函数:
137
 
138
+ >"注意:此处的rank是当前 GPU 与所有其他可用 GPU 相比的总体rank,这意味着它们的rank为`0 -> n-1`
139
 
140
  ```python
141
  from torch.nn.parallel import DistributedDataParallel as DDP
 
157
  cleanup()
158
  ```
159
 
160
+ 在上述的代码中需要为每个副本设备上的模型(因此在这里是`ddp_model`的参数而不是`model`的参数)声明优化器,以便正确计算每个副本设备上的梯度。
161
 
162
  最后,要运行脚本,PyTorch 有一个方便的`torchrun`命令行模块可以提供帮助。只需传入它应该使用的节点数以及要运行的脚本即可:
163
 
 
165
  torchrun --nproc_per_nodes=2 --nnodes=1 example_script.py
166
  ```
167
 
168
+ 上面的代码可以在在一台机器上的两个 GPU 上运行训练脚本,这是使用 PyTorch 只进行分布式训练的情况(不可以在单机单卡上运行)。
169
 
170
+ 现在让我们谈谈 Accelerate,一个旨在使并行化更加无缝并有助于一些最佳实践的库
171
 
172
  ## 🤗 Accelerate
173
 
174
+ [Accelerate](https://huggingface.co/docs/accelerate)是一个库,旨在无需大幅修改代码的情况下完成并行化。除此之外,Accelerate 附带的数据pipeline还可以提高代码的性能。
175
 
176
+ 首先,让我们将刚刚执行的所有上述代码封装到一个函数中,以帮助我们直观地看到差异:
177
 
178
  ```python
179
  def train_ddp(rank, world_size):
 
219
  print(f'Accuracy: {100. * correct / len(test_loader.dataset)}')
220
  ```
221
 
222
+ 接下来让我们谈谈 Accelerate 如何便利地实现并行化的。上面的代码有几个问题:
223
 
224
+ 1. 该代码有点低效,因为每个设备都会创建一个dataloader
225
+ 2. 这些代码只能运行在多GPU下,当想让这个代码运行在单个GPU或 TPU 时,还需要额外进行一些修改。
226
 
227
 
228
+ Accelerate 通过 [`Accelerator`](https://huggingface.co/docs/accelerate/v0.12.0/en/package_reference/accelerator#accelerator)类解决上述问题。通过它,不论是单节点还是多节点,除了三行代码外,其余代码几乎保持不变,如下所示:
229
 
230
  ```python
231
  def train_ddp_accelerate():
 
274
  print(f'Accuracy: {100. * correct / len(test_loader.dataset)}')
275
  ```
276
 
277
+ 借助Accelerator对象,您的 PyTorch 训练循环现在已配置为可以在任何分布式情况运行。使用Accelerator改造后的代码仍然可以通过`torchrun CLI` 或通过 `Accelerate` 自己的 CLI 界面启动([`启动你的🤗 Accelerate 脚本`](https://huggingface.co/docs/accelerate/v0.12.0/en/basic_tutorials/launch))
278
 
279
+ 因此,现在可以尽可能���持 PyTorch 原生代码不变的前提下,使用 Accelerate 执行分布式训练。
280
 
281
+ 早些时候有人提到 `Accelerate` 还可以使 DataLoaders 更高效。这是通过自定义采样器实现的,它可以在训练期间自动将部分批次发送到不同的设备,从而允许每个设备只需要储存数据的一部分,而不是一次将数据复制四份存入内存,具体取决于配置。因此,内存总量中只有原始数据集的一个完整副本。该数据集会拆分后分配到各个训练节点上,从而允许在单个实例上训练更大的数据集,而不会使内存爆炸
282
 
283
+ ### 使用`notebook_launcher`
284
 
285
+ 之前提到您可以直接从 Jupyter Notebook 运行分布式代码。这来自 Accelerate 的[`notebook_launcher`](https://huggingface.co/docs/accelerate/v0.12.0/en/basic_tutorials/notebook)模块,它可以在 Jupyter Notebook 内部的代码启动多 GPU 训练。
286
 
287
  使用它就像导入launcher一样简单:
288
 
 
290
  from accelerate import notebook_launcher
291
  ```
292
 
293
+ 接着传递我们之前声明的训练函数、要传递的任何参数以及要使用的进程数(例如 TPU 上的 8 个,或两个 GPU 上的 2 个)。下面两个训练函数都可以运行,但请注意,启动单次启动后,实例需要重新启动才能产生另一个
294
 
295
  ```python
296
  notebook_launcher(train_ddp, args=(), num_processes=2)
 
304
 
305
  ## 使用🤗 Trainer
306
 
307
+ 终于我们来到了最高级的API-- -- Hugging Face [Trainer](https://huggingface.co/docs/transformers/main_classes/trainer).
308
 
309
+ 它涵盖了尽可能多的训练类型,同时仍然能够在分布式系统上进行训练,用户根本不需要做任何事情。
310
 
311
  首先我们需要导入Trainer:
312
 
313
  ```python
314
  from transformers import Trainer
315
  ```
316
+ 然后我们定义一些`TrainingArguments`来控制所有常用的超参数。Trainer需要的训练数据是字典类型的,因此需要制作自定义整理功能。
317
 
318
+ 最后,我们将训练器子类化并编写我们自己的`compute_loss`.
319
 
320
+ 之后,这段代码也可以分布式运行,而无需修改任何训练代码!
321
 
322
  ```python
323
  from transformers import Trainer, TrainingArguments
 
369
 
370
  ```
371
 
372
+ |Epoch | 训练损失| 验证损失
373
  |--|--|--|
374
+ |1|0.875700|0.282633|
375
 
376
+ 与上面的 `notebook_launcher` 示例类似,也可以将这个过程封装成一个训练函数:
377
 
378
  ```python
379
  def train_trainer_ddp():
 
423
 
424
  <hr>
425
 
426
+ >英文原文:[From PyTorch DDP to Accelerate to Trainer, mastery of distributed training with ease](https://huggingface.co/blog/pytorch-ddp-accelerate-transformers#%F0%9F%A4%97-accelerate)
427
+ >译者:innovation64 (李洋)