Transformers documentation

在 Apple Silicon 芯片上进行 PyTorch 训练

Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

在 Apple Silicon 芯片上进行 PyTorch 训练

之前,在 Mac 上训练模型仅限于使用 CPU 训练。不过随着PyTorch v1.12的发布,您可以通过在 Apple Silicon 芯片的 GPU 上训练模型来显著提高性能和训练速度。这是通过将 Apple 的 Metal 性能着色器 (Metal Performance Shaders, MPS) 作为后端集成到PyTorch中实现的。MPS后端 将 PyTorch 操作视为自定义的 Metal 着色器来实现,并将对应模块部署到mps设备上。

某些 PyTorch 操作目前还未在 MPS 上实现,可能会抛出错误提示。可以通过设置环境变量PYTORCH_ENABLE_MPS_FALLBACK=1来使用CPU内核以避免这种情况发生(您仍然会看到一个UserWarning)。


如果您遇到任何其他错误,请在PyTorch库中创建一个 issue,因为Trainer类中只集成了 MPS 后端.

配置好mps设备后,您可以:

  • 在本地训练更大的网络或更大的批量大小
  • 降低数据获取延迟,因为 GPU 的统一内存架构允许直接访问整个内存存储
  • 降低成本,因为您不需要再在云端 GPU 上训练或增加额外的本地 GPU

在确保已安装PyTorch后就可以开始使用了。 MPS 加速支持macOS 12.3及以上版本。

pip install torch torchvision torchaudio

TrainingArguments类默认使用mps设备(如果可用)因此无需显式设置设备。例如,您可以直接运行run_glue.py脚本,在无需进行任何修改的情况下自动启用 MPS 后端。

export TASK_NAME=mrpc

python examples/pytorch/text-classification/run_glue.py \
  --model_name_or_path google-bert/bert-base-cased \
  --task_name $TASK_NAME \
- --use_mps_device \
  --do_train \
  --do_eval \
  --max_seq_length 128 \
  --per_device_train_batch_size 32 \
  --learning_rate 2e-5 \
  --num_train_epochs 3 \
  --output_dir /tmp/$TASK_NAME/ \
  --overwrite_output_dir

用于分布式设置的后端(如gloonccl)不支持mps设备,这也意味着使用 MPS 后端时只能在单个 GPU 上进行训练。

您可以在Introducing Accelerated PyTorch Training on Mac博客文章中了解有关 MPS 后端的更多信息。

< > Update on GitHub