Transformers documentation

الفلسفة

Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

الفلسفة

تُعد 🤗 Transformers مكتبة برمجية ذات رؤية واضحة صُممت من أجل:

  • الباحثون والمُتعلّمون في مجال التعلم الآلي ممن يسعون لاستخدام أو دراسة أو تطوير نماذج Transformers واسعة النطاق.
  • مُطبّقي تعلم الآلة الذين يرغبون في ضبط تلك النماذج أو تشغيلها في بيئة إنتاجية، أو كليهما.
  • المهندسون الذين يريدون فقط تنزيل نموذج مُدرب مسبقًا واستخدامه لحل مهمة تعلم آلي معينة.

تم تصميم المكتبة مع الأخذ في الاعتبار هدفين رئيسيين:

  1. سهولة وسرعة الاستخدام:
  • تمّ تقليل عدد المفاهيم المُجردة التي يتعامل معها المستخدم إلى أدنى حد والتي يجب تعلمها، وفي الواقع، لا توجد مفاهيم مُجردة تقريبًا، فقط ثلاث فئات أساسية مطلوبة لاستخدام كل نموذج: الإعدادات، نماذج، وفئة ما قبل المعالجة (مُجزّئ لغوي لـ NLP، معالج الصور للرؤية، مستخرج الميزات للصوت، و معالج للمدخﻻت متعددة الوسائط).
  • يمكن تهيئة جميع هذه الفئات بطريقة بسيطة وموحدة من خلال نماذج مُدربة مسبقًا باستخدام الدالة الموحدة from_pretrained() والتي تقوم بتنزيل (إذا لزم الأمر)، وتخزين وتحميل كل من: فئة النموذج المُراد استخدامه والبيانات المرتبطة ( مُعاملات الإعدادات، ومعجم للمُجزّئ اللغوي،وأوزان النماذج) من نقطة تدقيق مُحددة مُخزّنة على Hugging Face Hub أو ن من نقطة تخزين خاصة بالمستخدم.
  • بالإضافة إلى هذه الفئات الأساسية الثلاث، توفر المكتبة واجهتي برمجة تطبيقات: pipeline() للاستخدام السريع لأحد النماذج لأداء استنتاجات على مهمة مُحددة، و Trainer للتدريب السريع أو الضبط الدقيق لنماذج PyTorch (جميع نماذج TensorFlow متوافقة مع Keras.fit).
  • نتيجة لذلك، هذه المكتبة ليست صندوق أدوات متعدد الاستخدامات من الكتل الإنشائية للشبكات العصبية. إذا كنت تريد توسيع أو البناء على المكتبة، فما عليك سوى استخدام Python و PyTorch و TensorFlow و Keras العادية والوراثة من الفئات الأساسية للمكتبة لإعادة استخدام الوظائف مثل تحميل النموذج وحفظه. إذا كنت ترغب في معرفة المزيد عن فلسفة الترميز لدينا للنماذج، فراجع منشور المدونة الخاص بنا Repeat Yourself.
  1. تقديم نماذج رائدة في مجالها مع أداء قريب قدر الإمكان من النماذج الأصلية:
  • نقدم مثالًا واحدًا على الأقل لكل بنية تقوم بإعادة إنتاج نتيجة مقدمة من المؤلفين الرسميين لتلك البنية.
  • عادةً ما تكون الشفرة قريبة قدر الإمكان من قاعدة الشفرة الأصلية، مما يعني أن بعض شفرة PyTorch قد لا تكون “بأسلوب PyTorch” كما يمكن أن تكون نتيجة لكونها شفرة TensorFlow محولة والعكس صحيح.

بعض الأهداف الأخرى:

  • كشف تفاصيل النماذج الداخلية بشكل متسق قدر الإمكان:

    -نتيح الوصول، باستخدام واجهة برمجة واحدة، إلى جميع الحالات المخفية (Hidden-States) وأوزان الانتباه (Attention Weights).

    • تم توحيد واجهات برمجة التطبيقات الخاصة بفئات المعالجة المسبقة والنماذج الأساسية لتسهيل التبديل بين النماذج.
  • دمج مجموعة مختارة من الأدوات الواعدة لضبط النماذج بدقة (Fine-tuning) ودراستها:

    • طريقة بسيطة ومتسقة لإضافة رموز جديدة إلى مفردات التضمينات (Embeddings) لضبط النماذج بدقة.
    • طرق سهلة لإخفاء (Masking) وتقليم (Pruning) رؤوس المحولات (Transformer Heads).
  • التبديل بسهولة بين PyTorch و TensorFlow 2.0 و Flax، مما يسمح بالتدريب باستخدام إطار واحد والاستدلال باستخدام إطار آخر.

المفاهيم الرئيسية

تعتمد المكتبة على ثلاثة أنواع من الفئات لكل نموذج:

  • فئات النماذج يمكن أن تكون نماذج PyTorch (torch.nn.Module)، أو نماذج Keras (tf.keras.Model)، أو نماذج JAX/Flax (flax.linen.Module) التي تعمل مع الأوزان المُدربة مسبقًا المقدمة في المكتبة.
  • فئات الإعداد تخزن معلمات التهيئة المطلوبة لبناء نموذج (مثل عدد الطبقات وحجم الطبقة المخفية). أنت لست مضطرًا دائمًا إلى إنشاء مثيل لهذه الفئات بنفسك. على وجه الخصوص، إذا كنت تستخدم نموذجًا مُدربًا مسبقًا دون أي تعديل، فإن إنشاء النموذج سيهتم تلقائيًا تهيئة الإعدادات (والذي يعد جزءًا من النموذج).
  • فئات ما قبل المعالجة تحويل البيانات الخام إلى تنسيق مقبول من قبل النموذج. يقوم المعالج بتخزين المعجم لكل نموذج ويقدم طرقًا لتشفير وفك تشفير السلاسل في قائمة من مؤشرات تضمين الرموز ليتم إطعامها للنموذج. تقوم معالجات الصور بمعالجة إدخالات الرؤية، وتقوم مستخلصات الميزات بمعالجة إدخالات الصوت، ويقوم المعالج بمعالجة الإدخالات متعددة الوسائط.

يمكن تهيئة جميع هذه الفئات من نسخ مُدربة مسبقًا، وحفظها محليًا، ومشاركتها على منصة Hub عبر ثلاث طرق:

  • تسمح لك الدالة from_pretrained() بتهيئة النموذج وتكويناته وفئة المعالجة المسبقة من إصدار مُدرب مسبقًا إما يتم توفيره بواسطة المكتبة نفسها (يمكن العثور على النماذج المدعومة على Model Hub) أو مخزنة محليًا (أو على خادم) بواسطة المستخدم.
  • تسمح لك الدالة save_pretrained() بحفظ النموذج، وتكويناته وفئة المعالجة المسبقة محليًا، بحيث يمكن إعادة تحميله باستخدام الدالة from_pretrained().
  • تسمح لك push_to_hub() بمشاركة نموذج وتكويناتهوفئة المعالجة المسبقة على Hub، بحيث يمكن الوصول إليها بسهولة من قبل الجميع.
< > Update on GitHub