xianbao HF staff commited on
Commit
c87cb67
1 Parent(s): 0f2e770

Update From- PyTorch-DDP-to-Accelerate-to-Trainer-cn.md

Browse files
From- PyTorch-DDP-to-Accelerate-to-Trainer-cn.md CHANGED
@@ -131,7 +131,7 @@ def cleanup():
131
 
132
  最后一个疑问是,我怎样把我的数据和模型发送到另一个GPU上?
133
 
134
- 这正是` DistributedDataParallel`模块发挥作用的地方, 它将您的模型复制到每个 GPU 上 ,并且当`loss.backward()`被调用进行反向传播的时候,所有这些模型副本的梯度将被同步地平均/下降。这确保每个设备在执行优化器步骤后具有相同的权重。
135
 
136
  下面是我们的训练设置示例,我们使用了DistributedDataParallel重构了训练函数:
137
 
 
131
 
132
  最后一个疑问是,我怎样把我的数据和模型发送到另一个GPU上?
133
 
134
+ 这正是` DistributedDataParallel`模块发挥作用的地方, 它将您的模型复制到每个 GPU 上 ,并且当`loss.backward()`被调用进行反向传播的时候,所有这些模型副本的梯度将被同步地平均/下降(reduce)。这确保每个设备在执行优化器步骤后具有相同的权重。
135
 
136
  下面是我们的训练设置示例,我们使用了DistributedDataParallel重构了训练函数:
137