التصدير إلى TFLite
TensorFlow Lite هو إطار عمل خفيف الوزن لنشر نماذج التعلم الآلي على الأجهزة المحدودة الموارد، مثل الهواتف المحمولة، والأنظمة المدمجة، وأجهزة إنترنت الأشياء (IoT). تم تصميم TFLite لتشغيل النماذج وتحسينها بكفاءة على هذه الأجهزة ذات الطاقة الحاسوبية والذاكرة واستهلاك الطاقة المحدودة.
يُمثَّل نموذج TensorFlow Lite بتنسيق محمول فعال خاص يُعرَّف بامتداد الملف .tflite
.
🤗 Optimum يقدم وظيفة لتصدير نماذج 🤗 Transformers إلى TFLite من خلال الوحدة النمطية exporters.tflite
. بالنسبة لقائمة هندسات النماذج المدعومة، يرجى الرجوع إلى وثائق 🤗 Optimum.
لتصدير نموذج إلى TFLite، قم بتثبيت متطلبات البرنامج المطلوبة:
pip install optimum[exporters-tf]
للاطلاع على جميع المغامﻻت المتاحة، راجع وثائق 🤗 Optimum، أو عرض المساعدة في سطر الأوامر:
optimum-cli export tflite --help
لتصدير نسخة النموذج ل 🤗 Hub، على سبيل المثال، google-bert/bert-base-uncased
، قم بتشغيل الأمر التالي:
optimum-cli export tflite --model google-bert/bert-base-uncased --sequence_length 128 bert_tflite/
ستظهر لك السجلات التي تُبيّن التقدم وموقع حفظ ملف model.tflite
الناتج، كما في المثال التالي:
Validating TFLite model...
-[✓] TFLite model output names match reference model (logits)
- Validating TFLite Model output "logits":
-[✓] (1, 128, 30522) matches (1, 128, 30522)
-[x] values not close enough, max diff: 5.817413330078125e-05 (atol: 1e-05)
The TensorFlow Lite export succeeded with the warning: The maximum absolute difference between the output of the reference model and the TFLite exported model is not within the set tolerance 1e-05:
- logits: max diff = 5.817413330078125e-05.
The exported model was saved at: bert_tflite
يُبيّن المثال أعلاه كيفية تصدير نسخة من النموذج ل 🤗 Hub. عند تصدير نموذج محلي، تأكد أولاً من حفظ ملفات أوزان النموذج المجزء اللغوى في نفس المسار (local_path
). عند استخدام CLI، قم بتمرير local_path
إلى معامل model
بدلاً من اسم النسخة على 🤗 Hub.