Upload intel-sapphire-rapids-cn.md

#3
by MatrixYao - opened
intel-sapphire-rapids/intel-sapphire-rapids-cn.md ADDED
@@ -0,0 +1,205 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ # 使用英特尔Sapphire Rapids加速PyTorch Transformers模型(第一部分)
2
+ 大约一年以前,我们[展示](https://huggingface.co/blog/accelerating-pytorch)了如何在第三代[英特尔至强可扩展](https://www.intel.com/content/www/us/en/products/details/processors/xeon/scalable.html) CPU(即 Ice Lake)集群上分布式训练Hugging Face transformers模型。最近,英特尔发布了代号为Sapphire Rapids的第四代至强可扩展CPU,该CPU包含了令人兴奋的深度学习加速新指令。
3
+
4
+ 通过本文,你将会学到如何在一个AWS Sapphire Rapids集群上加速一个PyTorch训练任务。我们会使用[英特尔oneAPI集合通信库](https://www.intel.com/content/www/us/en/developer/tools/oneapi/oneccl.html)(oneAPI Collective Communications Library, oneCCL)来分布式化训练任务,并使用[英特尔PyTorch扩展库](https://github.com/intel/intel-extension-for-pytorch)(Intel Extension for PyTorch,IPEX)来自动使用新指令进行性能优化。因为这两个库均已集成入Hugging Face transformers库,我们能够做到在不修改一行代码的前提下开箱即用地运行我们的示例代码。
5
+
6
+ 在随后的另一篇文章里,我们还会探讨如何使用Sapphire Rapids CPU进行推理及其性能提升。
7
+
8
+ ## 为何你应该考虑在CPU上训练
9
+ 在英特尔至强CPU上训练一个深度学习模型是一个性价比高且可扩展的方案,在使用分布式训练或者在小数据集或中等数据集上微调模型时尤其如此。
10
+
11
+ 至强CPU支持一些先进的特性,如512位先进矢量扩展(Advanced Vector Extensions,[AVX-512](https://en.wikipedia.org/wiki/AVX-512))以及超线程(Hyper-Threading),这些特性提高了深度学习模型的并行性和效率,使得我们可以在得到更好的硬件资源使用率的同时训练得更快。
12
+
13
+ 另外,一般而言,相比用于训练大型深度学习模型的专门硬件如GPU等而言,至强CPU更便宜和易得。至强CPU还更容易用于其他生产任务,从网络服务到数据库不一而足,这使得它们成为IT基础设施的一个万用且灵活的选择。
14
+
15
+ 最后,云用户还可以通过使用spot实例的方式进一步降低在至强CPU上的训练成本。Spot实例使用空闲计算资源,因此以折扣价售卖。与按需实例相比,spot实例提供了高至90%的显著的成本节约。最后同样重要的是,CPU spot实例一般来讲比GPU实例更容易获得。
16
+
17
+ 现在,让我们看一下Sapphire Rapids架构引入的新指令。
18
+
19
+ ## 先进矩阵扩展(AMX):深度学习新指令
20
+ Sapphire Rapids架构引入了英特尔先进矩阵扩展(Advanced Matrix Extensions,[AMX](https://en.wikipedia.org/wiki/Advanced_Matrix_Extensions))用于加速深度学习工作负载。用户只需安装最新版本的IPEX即可受益于新指令,无需更改任何Hugging Face代码。
21
+
22
+ AMX指令用于加速矩阵乘法,该操作是深度学习批量训练的核心操作。AMX指令支持Brain浮点([BF16](https://en.wikipedia.org/wiki/Bfloat16_floating-point_format))和8比特整型(INT8)数据类型,覆盖不同训练场景的加速需求。
23
+
24
+ AMX指令引入了新的2维CPU寄存器,称作tile寄存器。因为这些寄存器在上下文切换时需要保存和恢复,所以需要内核相关支持。在Linux上,内核版本需要在[v5.16](https://discourse.ubuntu.com/t/kinetic-kudu-release-notes/27976)及以上方可支持。
25
+
26
+ 现在,让我们看看怎样构建一个Sapphire Rapids CPU集群用于分布式训练。
27
+
28
+ ## 构建一个Sapphire Rapids CPU集群
29
+
30
+ 截至本文撰写之时,使用 Sapphire Rapids服务器的最简单的方式是使用新的亚马逊EC2 [R7iz](https://aws.amazon.com/ec2/instance-types/r7iz/)实例家族。由于它尚在预览期,你必须[登记注册](https://pages.awscloud.com/R7iz-Preview.html)以获得访问权限。另外,虚拟机尚未支持AMX,因此,我们将使用裸金属实例(`r7iz.metal-16xl`, 64 vCPU, 512GB RAM)。
31
+
32
+ 为避免手动设置集群中的每个节点,我们首先建立一个主节点并依此创建一个新的亚马逊机器镜像(Amazon Machine Image,[AMI](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/AMIs.html))。然后,我们用这个AMI启动其他节点。
33
+
34
+ 从网络的角度,我们需要如下设置:
35
+
36
+ * 打开22端口,用于所有实例上的ssh访问创建和调试。
37
+
38
+ * 配置从主实例(你启动训练的那个实例)到所有其他实例(包含主实例本身)的[免密ssh访问](https://www.redhat.com/sysadmin/passwordless-ssh)。换句话说,主节点的ssh公钥必须在所有阶段上被授权。
39
+
40
+ * 允许集群内的所有网络通信,使得分布式训练可以不受阻碍地运行。AWS提供了[安全组](https://docs.aws.amazon.com/vpc/latest/userguide/VPC_SecurityGroups.html)这一安全便捷的方式支持这个功能。我们只需创建一个安全组,确保所有集群内的实例属于同一安全组,并允许同一安全组内的所��网络通信即可。以下是我使用的设置。
41
+ <kbd>
42
+ <img src="assets/124_intel_sapphire_rapids/01.png">
43
+ </kbd>
44
+
45
+ 让我们开始创建集群的主节点。
46
+
47
+ ## 设置主节点
48
+ 我们首先启动一个安装了Ubuntu 20.04 AMI(`ami-07cd3e6c4915b2d18`)并加入了我们之前创建的安全组的`r7iz.metal-16xl`实例,用于创建主节点。该AMI虽然只包含了Linux v5.15.0,但是幸运的是英特尔和AWS已经为这个内核版本打上了AMX支持的补丁。因此,我们不需要升级内核至v5.16。
49
+
50
+ 一旦实例运行起来后,我们ssh登录上它并通过`lscpu`命令检查AMX是否确实已被支持。你应该会在flags部分看到如下内容:
51
+ ```
52
+ amx_bf16 amx_tile amx_int8
53
+ ```
54
+
55
+ 然后,我们开始安装本地依赖以及Python依赖。
56
+
57
+ ```
58
+ sudo apt-get update
59
+
60
+ # Install tcmalloc for extra performance (https://github.com/google/tcmalloc)
61
+ sudo apt install libgoogle-perftools-dev -y
62
+
63
+ # Create a virtual environment
64
+ sudo apt-get install python3-pip -y
65
+ pip install pip --upgrade
66
+ export PATH=/home/ubuntu/.local/bin:$PATH
67
+ pip install virtualenv
68
+
69
+ # Activate the virtual environment
70
+ virtualenv cluster_env
71
+ source cluster_env/bin/activate
72
+
73
+ # Install PyTorch, IPEX, CCL and Transformers
74
+ pip3 install torch==1.13.0 -f https://download.pytorch.org/whl/cpu
75
+ pip3 install intel_extension_for_pytorch==1.13.0 -f https://developer.intel.com/ipex-whl-stable-cpu
76
+ pip3 install oneccl_bind_pt==1.13 -f https://developer.intel.com/ipex-whl-stable-cpu
77
+ pip3 install transformers==4.24.0
78
+
79
+ # Clone the transformers repository for its example scripts
80
+ git clone https://github.com/huggingface/transformers.git
81
+ cd transformers
82
+ git checkout v4.24.0
83
+ ```
84
+
85
+ 接着,我们使用`ssh-keygen`创建一个新的ssh密钥对,命名为'cluster',并保存在缺省位置(`~/.ssh`)。
86
+
87
+ 最后,我们用该实例创建一个[新的AMI](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/creating-an-ami-ebs.html)。
88
+
89
+ ## 设置集群
90
+ 一旦AMI准备就绪,我们用它启动另外3个`r7iz.16xlarge-metal`实例,不要忘了把他们加入之前创建的安全组中。
91
+
92
+ 当这些实例启动的时候,我们ssh登录进主节点并完成网络设置。首先,我们编辑位于`~/.ssh/config`的ssh配置文件,使其支持从主节点到其他节点的免密连接,这里我们只需使用它们各自的私有IP及之前创建的密钥对即可。以下是我的配置文件。
93
+ ```
94
+ Host 172.31.*.*
95
+ StrictHostKeyChecking no
96
+
97
+ Host node1
98
+ HostName 172.31.10.251
99
+ User ubuntu
100
+ IdentityFile ~/.ssh/cluster
101
+
102
+ Host node2
103
+ HostName 172.31.10.189
104
+ User ubuntu
105
+ IdentityFile ~/.ssh/cluster
106
+
107
+ Host node3
108
+ HostName 172.31.6.15
109
+ User ubuntu
110
+ IdentityFile ~/.ssh/cluster
111
+ ```
112
+ 到此为止,我们可以使用`ssh node[1-3]`去免密连接任何节点。
113
+
114
+ 在主节点侧,我们创建一个`~/hosts`文件,并填入集群中所有节点的名称,这些名称已在上面的ssh配置文件中定义。我们用`localhost`代表主节点,因为我们会在该节点启动训练脚本。我的文件如下所示。
115
+ ```
116
+ localhost
117
+ node1
118
+ node2
119
+ node3
120
+ ```
121
+ 集群现已准备就绪。让我们开始训练吧!
122
+
123
+ ## 启动一个分布式训练任务
124
+ 在本例中,我们将在[SQUAD](https://huggingface.co/datasets/squad)数据集上微调一个用于问答的[DistilBERT](https://huggingface.co/distilbert-base-uncased)模型。如果你想试试别的示例的话,尽管去做吧。
125
+
126
+ ```
127
+ source ~/cluster_env/bin/activate
128
+ cd ~/transformers/examples/pytorch/question-answering
129
+ pip3 install -r requirements.txt
130
+ ```
131
+ 我们首先冒个烟,启动一个单实例训练任务。请注意如下几个重要的标志变量:
132
+ * `no_cuda` 确保使用CPU进行训练,忽略GPU,
133
+ * `use_ipex` 使能IPEX库,确保AMX和AVX指令的使用,
134
+ * `bf16` 使能BF16训练。
135
+
136
+ ```
137
+ export LD_PRELOAD="/usr/lib/x86_64-linux-gnu/libtcmalloc.so"
138
+ python run_qa.py --model_name_or_path distilbert-base-uncased \
139
+ --dataset_name squad --do_train --do_eval --per_device_train_batch_size 32 \
140
+ --num_train_epochs 1 --output_dir /tmp/debug_squad/ \
141
+ --use_ipex --bf16 --no_cuda
142
+ ```
143
+
144
+ 不必等到任务完成,我们只运行1分钟用于确保所有的依赖已被正常安装。同时,这也给了我们一个单实例训练的基线性能:1个epoch花费大约**26分钟**。供参考,我们测量了同样的任务在一个相当的Ice Lake实例(`c6i.16xlarge`)上的性能,基于相同的软件设置,每个epoch需要**3小时30分钟**。加速比达到**8倍**。我们已经能看到新指令带来的好处!
145
+
146
+ 现在,让我们把训练任务分布式部署到4个实例上。一个`r7iz.16xlarge`实例有32个物理CPU核,我们倾向于直接使用物理核而不是虚拟核(vCPUs)(`KMP_HW_SUBSET=1T`)。我们决定分配24个核用于训练(`OMP_NUM_THREADS`),2个核用于集合通信(`CCL_WORKER_COUNT`),剩下的6个核给内核和其他进程使用。这24个训练线程分配给2个Python进程使用(`NUM_PROCESSES_PER_NODE`)。因此,一个4节点的集群上共有8(`NUM_PROCESSES`)个Python进程。
147
+
148
+ ```
149
+ # Set up environment variables for CCL
150
+ oneccl_bindings_for_pytorch_path=$(python -c "from oneccl_bindings_for_pytorch import cwd; print(cwd)")
151
+ source $oneccl_bindings_for_pytorch_path/env/setvars.sh
152
+
153
+ export MASTER_ADDR=172.31.3.190
154
+ export NUM_PROCESSES=8
155
+ export NUM_PROCESSES_PER_NODE=2
156
+ export CCL_WORKER_COUNT=2
157
+ export CCL_WORKER_AFFINITY=auto
158
+ export KMP_HW_SUBSET=1T
159
+ ```
160
+ 现在,我们启动分布式训练任务。
161
+ ```
162
+ # Launch distributed training
163
+ mpirun -f ~/hosts \
164
+ -n $NUM_PROCESSES -ppn $NUM_PROCESSES_PER_NODE \
165
+ -genv OMP_NUM_THREADS=24 \
166
+ -genv LD_PRELOAD="/usr/lib/x86_64-linux-gnu/libtcmalloc.so" \
167
+ python3 run_qa.py \
168
+ --model_name_or_path distilbert-base-uncased \
169
+ --dataset_name squad \
170
+ --do_train \
171
+ --do_eval \
172
+ --per_device_train_batch_size 32 \
173
+ --num_train_epochs 1 \
174
+ --output_dir /tmp/debug_squad/ \
175
+ --overwrite_output_dir \
176
+ --no_cuda \
177
+ --xpu_backend ccl \
178
+ --bf16
179
+ ```
180
+ 现在,一个epoch仅需**7分30秒**。
181
+
182
+ 任务如下图所示。图的上半部分是主节点,同时你也可以看到其他3个节点每个均有2个训练进程在运行。
183
+ <kbd>
184
+ <img src="assets/124_intel_sapphire_rapids/02.png">
185
+ </kbd>
186
+
187
+ 4节点的完美线性扩展需要6分30秒的训练时间(26分钟除以4)。我们非常接近于这个理想值,这充分展现了该方法很高的扩展性。
188
+
189
+ ## 结论
190
+ 如你所见,在一个英特尔至强集群上训练Hugging Face transformers模型是一个灵活,可扩展且性价比高的解决方案,特别是在你的数据集和模型是小尺寸或者中等尺寸情况下。
191
+
192
+
193
+ 以下列出了一些其他可帮助你起步的资源:
194
+
195
+ * [Intel IPEX](https://github.com/intel/intel-extension-for-pytorch) GitHub
196
+ * Hugging Face 文档: "[Efficient training on CPU](https://huggingface.co/docs/transformers/perf_train_cpu)" 及 "[Efficient training on many CPUs](https://huggingface.co/docs/transformers/perf_train_cpu_many)".
197
+
198
+ 如你有任何问题或反馈,请通过Hugging Face论坛告诉我们。
199
+
200
+ 感谢阅读!
201
+
202
+ <hr>
203
+ >>>> 英文原文: <url> https://huggingface.co/blog/intel-sapphire-rapids </url>
204
+ >>>>
205
+ >>>> 译者: Matrix Yao (姚伟峰)