Transformers documentation

التصدير إلى TFLite

You are viewing main version, which requires installation from source. If you'd like regular pip install, checkout the latest stable version (v4.46.3).
Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

التصدير إلى TFLite

TensorFlow Lite هو إطار عمل خفيف الوزن لنشر نماذج التعلم الآلي على الأجهزة المحدودة الموارد، مثل الهواتف المحمولة، والأنظمة المدمجة، وأجهزة إنترنت الأشياء (IoT). تم تصميم TFLite لتشغيل النماذج وتحسينها بكفاءة على هذه الأجهزة ذات الطاقة الحاسوبية والذاكرة واستهلاك الطاقة المحدودة.

يُمثَّل نموذج TensorFlow Lite بتنسيق محمول فعال خاص يُعرَّف بامتداد الملف .tflite.

🤗 Optimum يقدم وظيفة لتصدير نماذج 🤗 Transformers إلى TFLite من خلال الوحدة النمطية exporters.tflite. بالنسبة لقائمة هندسات النماذج المدعومة، يرجى الرجوع إلى وثائق 🤗 Optimum.

لتصدير نموذج إلى TFLite، قم بتثبيت متطلبات البرنامج المطلوبة:

pip install optimum[exporters-tf]

للاطلاع على جميع المغامﻻت المتاحة، راجع وثائق 🤗 Optimum، أو عرض المساعدة في سطر الأوامر:

optimum-cli export tflite --help

لتصدير نسخة النموذج ل 🤗 Hub، على سبيل المثال، google-bert/bert-base-uncased، قم بتشغيل الأمر التالي:

optimum-cli export tflite --model google-bert/bert-base-uncased --sequence_length 128 bert_tflite/

ستظهر لك السجلات التي تُبيّن التقدم وموقع حفظ ملف model.tflite الناتج، كما في المثال التالي:

Validating TFLite model...
	-[✓] TFLite model output names match reference model (logits)
	- Validating TFLite Model output "logits":
		-[✓] (1, 128, 30522) matches (1, 128, 30522)
		-[x] values not close enough, max diff: 5.817413330078125e-05 (atol: 1e-05)
The TensorFlow Lite export succeeded with the warning: The maximum absolute difference between the output of the reference model and the TFLite exported model is not within the set tolerance 1e-05:
- logits: max diff = 5.817413330078125e-05.
 The exported model was saved at: bert_tflite

يُبيّن المثال أعلاه كيفية تصدير نسخة من النموذج ل 🤗 Hub. عند تصدير نموذج محلي، تأكد أولاً من حفظ ملفات أوزان النموذج المجزء اللغوى في نفس المسار (local_path). عند استخدام CLI، قم بتمرير local_path إلى معامل model بدلاً من اسم النسخة على 🤗 Hub.

< > Update on GitHub