Transformers documentation

导出为 ONNX

You are viewing v4.45.2 version. A newer version v4.47.1 is available.
Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

导出为 ONNX

在生产环境中部署 🤗 Transformers 模型通常需要或者能够受益于,将模型导出为可在专门的运行时和硬件上加载和执行的序列化格式。

🤗 Optimum 是 Transformers 的扩展,可以通过其 exporters 模块将模型从 PyTorch 或 TensorFlow 导出为 ONNX 及 TFLite 等序列化格式。🤗 Optimum 还提供了一套性能优化工具,可以在目标硬件上以最高效率训练和运行模型。

本指南演示了如何使用 🤗 Optimum 将 🤗 Transformers 模型导出为 ONNX。有关将模型导出为 TFLite 的指南,请参考 导出为 TFLite 页面

导出为 ONNX

ONNX (Open Neural Network eXchange 开放神经网络交换) 是一个开放的标准,它定义了一组通用的运算符和一种通用的文件格式,用于表示包括 PyTorch 和 TensorFlow 在内的各种框架中的深度学习模型。当一个模型被导出为 ONNX时,这些运算符被用于构建计算图(通常被称为中间表示),该图表示数据在神经网络中的流动。

通过公开具有标准化运算符和数据类型的图,ONNX使得模型能够轻松在不同深度学习框架间切换。例如,在 PyTorch 中训练的模型可以被导出为 ONNX,然后再导入到 TensorFlow(反之亦然)。

导出为 ONNX 后,模型可以:

🤗 Optimum 通过利用配置对象提供对 ONNX 导出的支持。多种模型架构已经有现成的配置对象,并且配置对象也被设计得易于扩展以适用于其他架构。

现有的配置列表请参考 🤗 Optimum 文档

有两种方式可以将 🤗 Transformers 模型导出为 ONNX,这里我们展示这两种方法:

  • 使用 🤗 Optimum 的 CLI(命令行)导出。
  • 使用 🤗 Optimum 的 optimum.onnxruntime 模块导出。

使用 CLI 将 🤗 Transformers 模型导出为 ONNX

要将 🤗 Transformers 模型导出为 ONNX,首先需要安装额外的依赖项:

pip install optimum[exporters]

请参阅 🤗 Optimum 文档 以查看所有可用参数,或者在命令行中查看帮助:

optimum-cli export onnx --help

运行以下命令,以从 🤗 Hub 导出模型的检查点(checkpoint),以 distilbert/distilbert-base-uncased-distilled-squad 为例:

optimum-cli export onnx --model distilbert/distilbert-base-uncased-distilled-squad distilbert_base_uncased_squad_onnx/

你应该能在日志中看到导出进度以及生成的 model.onnx 文件的保存位置,如下所示:

Validating ONNX model distilbert_base_uncased_squad_onnx/model.onnx...
	-[✓] ONNX model output names match reference model (start_logits, end_logits)
	- Validating ONNX Model output "start_logits":
		-[✓] (2, 16) matches (2, 16)
		-[✓] all values close (atol: 0.0001)
	- Validating ONNX Model output "end_logits":
		-[✓] (2, 16) matches (2, 16)
		-[✓] all values close (atol: 0.0001)
The ONNX export succeeded and the exported model was saved at: distilbert_base_uncased_squad_onnx

上面的示例说明了从 🤗 Hub 导出检查点的过程。导出本地模型时,首先需要确保将模型的权重和分词器文件保存在同一目录(local_path)中。在使用 CLI 时,将 local_path 传递给 model 参数,而不是 🤗 Hub 上的检查点名称,并提供 --task 参数。你可以在 🤗 Optimum 文档中查看支持的任务列表。如果未提供 task 参数,将默认导出不带特定任务头的模型架构。

optimum-cli export onnx --model local_path --task question-answering distilbert_base_uncased_squad_onnx/

生成的 model.onnx 文件可以在支持 ONNX 标准的 许多加速引擎(accelerators) 之一上运行。例如,我们可以使用 ONNX Runtime 加载和运行模型,如下所示:

>>> from transformers import AutoTokenizer
>>> from optimum.onnxruntime import ORTModelForQuestionAnswering

>>> tokenizer = AutoTokenizer.from_pretrained("distilbert_base_uncased_squad_onnx")
>>> model = ORTModelForQuestionAnswering.from_pretrained("distilbert_base_uncased_squad_onnx")
>>> inputs = tokenizer("What am I using?", "Using DistilBERT with ONNX Runtime!", return_tensors="pt")
>>> outputs = model(**inputs)

从 Hub 导出 TensorFlow 检查点的过程也一样。例如,以下是从 Keras 组织 导出纯 TensorFlow 检查点的命令:

optimum-cli export onnx --model keras-io/transformers-qa distilbert_base_cased_squad_onnx/

使用 optimum.onnxruntime 将 🤗 Transformers 模型导出为 ONNX

除了 CLI 之外,你还可以使用代码将 🤗 Transformers 模型导出为 ONNX,如下所示:

>>> from optimum.onnxruntime import ORTModelForSequenceClassification
>>> from transformers import AutoTokenizer

>>> model_checkpoint = "distilbert_base_uncased_squad"
>>> save_directory = "onnx/"

>>> # 从 transformers 加载模型并将其导出为 ONNX
>>> ort_model = ORTModelForSequenceClassification.from_pretrained(model_checkpoint, export=True)
>>> tokenizer = AutoTokenizer.from_pretrained(model_checkpoint)

>>> # 保存 onnx 模型以及分词器
>>> ort_model.save_pretrained(save_directory)
>>> tokenizer.save_pretrained(save_directory)

导出尚未支持的架构的模型

如果你想要为当前无法导出的模型添加支持,请先检查 optimum.exporters.onnx 是否支持该模型,如果不支持,你可以 直接为 🤗 Optimum 贡献代码

使用 transformers.onnx 导出模型

tranformers.onnx 不再进行维护,请如上所述,使用 🤗 Optimum 导出模型。这部分内容将在未来版本中删除。

要使用 tranformers.onnx 将 🤗 Transformers 模型导出为 ONNX,请安装额外的依赖项:

pip install transformers[onnx]

transformers.onnx 包作为 Python 模块使用,以使用现成的配置导出检查点:

python -m transformers.onnx --model=distilbert/distilbert-base-uncased onnx/

以上代码将导出由 --model 参数定义的检查点的 ONNX 图。传入任何 🤗 Hub 上或者存储与本地的检查点。生成的 model.onnx 文件可以在支持 ONNX 标准的众多加速引擎上运行。例如,使用 ONNX Runtime 加载并运行模型,如下所示:

>>> from transformers import AutoTokenizer
>>> from onnxruntime import InferenceSession

>>> tokenizer = AutoTokenizer.from_pretrained("distilbert/distilbert-base-uncased")
>>> session = InferenceSession("onnx/model.onnx")
>>> # ONNX Runtime expects NumPy arrays as input
>>> inputs = tokenizer("Using DistilBERT with ONNX Runtime!", return_tensors="np")
>>> outputs = session.run(output_names=["last_hidden_state"], input_feed=dict(inputs))

可以通过查看每个模型的 ONNX 配置来获取所需的输出名(例如 ["last_hidden_state"])。例如,对于 DistilBERT,可以用以下代码获取输出名称:

>>> from transformers.models.distilbert import DistilBertConfig, DistilBertOnnxConfig

>>> config = DistilBertConfig()
>>> onnx_config = DistilBertOnnxConfig(config)
>>> print(list(onnx_config.outputs.keys()))
["last_hidden_state"]

从 Hub 导出 TensorFlow 检查点的过程也一样。导出纯 TensorFlow 检查点的示例代码如下:

python -m transformers.onnx --model=keras-io/transformers-qa onnx/

要导出本地存储的模型,请将模型的权重和分词器文件保存在同一目录中(例如 local-pt-checkpoint),然后通过将 transformers.onnx 包的 --model 参数指向该目录,将其导出为 ONNX:

python -m transformers.onnx --model=local-pt-checkpoint onnx/
< > Update on GitHub