导出为 ONNX
在生产环境中部署 🤗 Transformers 模型通常需要或者能够受益于,将模型导出为可在专门的运行时和硬件上加载和执行的序列化格式。
🤗 Optimum 是 Transformers 的扩展,可以通过其 exporters
模块将模型从 PyTorch 或 TensorFlow 导出为 ONNX 及 TFLite 等序列化格式。🤗 Optimum 还提供了一套性能优化工具,可以在目标硬件上以最高效率训练和运行模型。
本指南演示了如何使用 🤗 Optimum 将 🤗 Transformers 模型导出为 ONNX。有关将模型导出为 TFLite 的指南,请参考 导出为 TFLite 页面。
导出为 ONNX
ONNX (Open Neural Network eXchange 开放神经网络交换) 是一个开放的标准,它定义了一组通用的运算符和一种通用的文件格式,用于表示包括 PyTorch 和 TensorFlow 在内的各种框架中的深度学习模型。当一个模型被导出为 ONNX时,这些运算符被用于构建计算图(通常被称为中间表示),该图表示数据在神经网络中的流动。
通过公开具有标准化运算符和数据类型的图,ONNX使得模型能够轻松在不同深度学习框架间切换。例如,在 PyTorch 中训练的模型可以被导出为 ONNX,然后再导入到 TensorFlow(反之亦然)。
导出为 ONNX 后,模型可以:
- 通过 图优化(graph optimization) 和 量化(quantization) 等技术进行推理优化。
- 通过
ORTModelForXXX
类 使用 ONNX Runtime 运行,它同样遵循你熟悉的 Transformers 中的AutoModel
API。 - 使用 优化推理流水线(pipeline) 运行,其 API 与 🤗 Transformers 中的 pipeline() 函数相同。
🤗 Optimum 通过利用配置对象提供对 ONNX 导出的支持。多种模型架构已经有现成的配置对象,并且配置对象也被设计得易于扩展以适用于其他架构。
现有的配置列表请参考 🤗 Optimum 文档。
有两种方式可以将 🤗 Transformers 模型导出为 ONNX,这里我们展示这两种方法:
- 使用 🤗 Optimum 的 CLI(命令行)导出。
- 使用 🤗 Optimum 的
optimum.onnxruntime
模块导出。
使用 CLI 将 🤗 Transformers 模型导出为 ONNX
要将 🤗 Transformers 模型导出为 ONNX,首先需要安装额外的依赖项:
pip install optimum[exporters]
请参阅 🤗 Optimum 文档 以查看所有可用参数,或者在命令行中查看帮助:
optimum-cli export onnx --help
运行以下命令,以从 🤗 Hub 导出模型的检查点(checkpoint),以 distilbert/distilbert-base-uncased-distilled-squad
为例:
optimum-cli export onnx --model distilbert/distilbert-base-uncased-distilled-squad distilbert_base_uncased_squad_onnx/
你应该能在日志中看到导出进度以及生成的 model.onnx
文件的保存位置,如下所示:
Validating ONNX model distilbert_base_uncased_squad_onnx/model.onnx...
-[✓] ONNX model output names match reference model (start_logits, end_logits)
- Validating ONNX Model output "start_logits":
-[✓] (2, 16) matches (2, 16)
-[✓] all values close (atol: 0.0001)
- Validating ONNX Model output "end_logits":
-[✓] (2, 16) matches (2, 16)
-[✓] all values close (atol: 0.0001)
The ONNX export succeeded and the exported model was saved at: distilbert_base_uncased_squad_onnx
上面的示例说明了从 🤗 Hub 导出检查点的过程。导出本地模型时,首先需要确保将模型的权重和分词器文件保存在同一目录(local_path
)中。在使用 CLI 时,将 local_path
传递给 model
参数,而不是 🤗 Hub 上的检查点名称,并提供 --task
参数。你可以在 🤗 Optimum 文档中查看支持的任务列表。如果未提供 task
参数,将默认导出不带特定任务头的模型架构。
optimum-cli export onnx --model local_path --task question-answering distilbert_base_uncased_squad_onnx/
生成的 model.onnx
文件可以在支持 ONNX 标准的 许多加速引擎(accelerators) 之一上运行。例如,我们可以使用 ONNX Runtime 加载和运行模型,如下所示:
>>> from transformers import AutoTokenizer
>>> from optimum.onnxruntime import ORTModelForQuestionAnswering
>>> tokenizer = AutoTokenizer.from_pretrained("distilbert_base_uncased_squad_onnx")
>>> model = ORTModelForQuestionAnswering.from_pretrained("distilbert_base_uncased_squad_onnx")
>>> inputs = tokenizer("What am I using?", "Using DistilBERT with ONNX Runtime!", return_tensors="pt")
>>> outputs = model(**inputs)
从 Hub 导出 TensorFlow 检查点的过程也一样。例如,以下是从 Keras 组织 导出纯 TensorFlow 检查点的命令:
optimum-cli export onnx --model keras-io/transformers-qa distilbert_base_cased_squad_onnx/
使用 optimum.onnxruntime 将 🤗 Transformers 模型导出为 ONNX
除了 CLI 之外,你还可以使用代码将 🤗 Transformers 模型导出为 ONNX,如下所示:
>>> from optimum.onnxruntime import ORTModelForSequenceClassification
>>> from transformers import AutoTokenizer
>>> model_checkpoint = "distilbert_base_uncased_squad"
>>> save_directory = "onnx/"
>>> # 从 transformers 加载模型并将其导出为 ONNX
>>> ort_model = ORTModelForSequenceClassification.from_pretrained(model_checkpoint, export=True)
>>> tokenizer = AutoTokenizer.from_pretrained(model_checkpoint)
>>> # 保存 onnx 模型以及分词器
>>> ort_model.save_pretrained(save_directory)
>>> tokenizer.save_pretrained(save_directory)
导出尚未支持的架构的模型
如果你想要为当前无法导出的模型添加支持,请先检查 optimum.exporters.onnx
是否支持该模型,如果不支持,你可以 直接为 🤗 Optimum 贡献代码。
使用 transformers.onnx 导出模型
tranformers.onnx
不再进行维护,请如上所述,使用 🤗 Optimum 导出模型。这部分内容将在未来版本中删除。
要使用 tranformers.onnx
将 🤗 Transformers 模型导出为 ONNX,请安装额外的依赖项:
pip install transformers[onnx]
将 transformers.onnx
包作为 Python 模块使用,以使用现成的配置导出检查点:
python -m transformers.onnx --model=distilbert/distilbert-base-uncased onnx/
以上代码将导出由 --model
参数定义的检查点的 ONNX 图。传入任何 🤗 Hub 上或者存储与本地的检查点。生成的 model.onnx
文件可以在支持 ONNX 标准的众多加速引擎上运行。例如,使用 ONNX Runtime 加载并运行模型,如下所示:
>>> from transformers import AutoTokenizer
>>> from onnxruntime import InferenceSession
>>> tokenizer = AutoTokenizer.from_pretrained("distilbert/distilbert-base-uncased")
>>> session = InferenceSession("onnx/model.onnx")
>>> # ONNX Runtime expects NumPy arrays as input
>>> inputs = tokenizer("Using DistilBERT with ONNX Runtime!", return_tensors="np")
>>> outputs = session.run(output_names=["last_hidden_state"], input_feed=dict(inputs))
可以通过查看每个模型的 ONNX 配置来获取所需的输出名(例如 ["last_hidden_state"]
)。例如,对于 DistilBERT,可以用以下代码获取输出名称:
>>> from transformers.models.distilbert import DistilBertConfig, DistilBertOnnxConfig
>>> config = DistilBertConfig()
>>> onnx_config = DistilBertOnnxConfig(config)
>>> print(list(onnx_config.outputs.keys()))
["last_hidden_state"]
从 Hub 导出 TensorFlow 检查点的过程也一样。导出纯 TensorFlow 检查点的示例代码如下:
python -m transformers.onnx --model=keras-io/transformers-qa onnx/
要导出本地存储的模型,请将模型的权重和分词器文件保存在同一目录中(例如 local-pt-checkpoint
),然后通过将 transformers.onnx
包的 --model
参数指向该目录,将其导出为 ONNX:
python -m transformers.onnx --model=local-pt-checkpoint onnx/