مقدمة

Ask a Question

مرحبًا بك في 🤗 الدورة التدريبية!

ستعلمك هذه الدورة التدريبية حول معالجة اللغة الطبيعية (NLP) باستخدام مكتبات (libraries) من نظام Hugging Face - المحولات 🤗 Transformers، قواعد البيانات 🤗 Datasets، المقسم 🤗 Tokenizers،و التسريع 🤗 Accelerate - بالإضافة إلى مركز وجه يعانق Hugging Face Hub. إنه مجاني تمامًا وبدون إعلانات.

ماذا تتوقع؟

فيما يلي نظرة عامة موجزة عن الدورة:

Brief overview of the chapters of the course.
- تقدم الفصول من 1 إلى 4 مقدمة للمفاهيم الرئيسية لمكتبة المحولات 🤗 Transformers. وبنهاية هذا الجزء من الدورة التدريبية ستكون على دراية بكيفية عمل نماذج المحولات Transformer وستعرف كيفية استخدام نموذج من [مركز وجه يعانق Hugging Face Hub](https://huggingface.co/models) ، قم بضبط النموذج لقاعدة بيانات معينة ، وشارك نتائجك على المركز Hub! - الفصول من 5 إلى 8 تعلم أساسيات 🤗 قواعد البيانات و التقسيم الرمزي قبل الغوص في المهام الأساسية لمعالجة اللغة الطبيعية التقليدية (NLP). بنهاية هذا الجزء ، ستكون قادرًا على معالجة مشكلات البرمجة اللغوية الطبيعية الأكثر شيوعًا بنفسك. - الفصول من 9 إلى 12 تتجاوز مفهوم معالجة اللغة الطبيعية ، وتستكشف كيف يمكن استخدام نماذج المحولات (Transformers) لمعالجة المهام في معالجة الكلام والرؤية الحاسوبية. خلال هذه الفصول ، ستتعلم كيفية إنشاء ومشاركة العروض التوضيحية لنماذجك ، وتحسينها لبيئات الإنتاج. بنهاية هذا الجزء ، ستكون جاهزًا لتطبيق 🤗 المحولات (تقريبًا) على أي مشكلة في التعلم الآلي! هذه الدورة:

من نحن؟

عن المؤلفين:

أكمل أبو بكر عابد (Abubakar Abid) درجة الدكتوراه في جامعة ستانفورد في التعلم الآلي التطبيقي. أثناء الدكتوراه ، أسس Gradio ، وهي مكتبة بايثون (Python) مفتوحة المصدر تم استخدامها لإنشاء أكثر من 600000 عرض تعليمي للتعلم الآلي. استحوذت Hugging Face على Gradio ، حيث يعمل أبو بكر الآن كرئيس لفريق التعلم الآلي.

ماثيو كاريغان (Matthew Carrigan) هو مهندس تعلم الآلة في Hugging Face. يعيش في دبلن بأيرلندا وعمل سابقًا كمهندس تعلم الالة (ML) في Parse.ly وقبل ذلك كان باحثًا بعد الدكتوراه في Trinity College Dublin. إنه لا يعتقد أننا سنصل إلى الذكاء الاصطناعي العام (AGI) من خلال توسيع نطاق البنى القائمة ، ولكن لديه آمال كبيرة في خلود الروبوت بغض النظر عن ذلك.

لايساندري ديباوت (Lysandre Debut) هو مهندس تعلم الآلة في Hugging Face ويعمل على مكتبة 🤗 Transformers منذ مراحل التطوير المبكرة جدًا. هدفه هو جعل معالجة اللغة الطبيعية في متناول الجميع من خلال تطوير أدوات باستخدام واجهة برمجة تطبيقات بسيطة للغاية.

سايلفين جوغير (Sylvain Gugger) هو مهندس أبحاث في Hugging Face وأحد المشرفين الأساسيين على مكتبة 🤗 Transformers. كان سابقًا عالم أبحاث في fast.ai ، وشارك في كتابة التعلم العميق للمبرمجين مع fastai و PyTorch مع جيريمي هوارد (Jeremy Howard). ينصب التركيز الرئيسي لأبحاثه على جعل التعلم العميق أكثر سهولة ، من خلال تصميم وتحسين التقنيات التي تسمح للنماذج بالتدريب السريع على موارد محدودة.

داود خان (Dawood Khan) هو مهندس تعلم الآلة في Hugging Face. إنه من مدينة نيويورك وتخرج من جامعة نيويورك يدرس علوم الكمبيوتر. بعد العمل كمهندس iOS لبضع سنوات ، استقال داود لبدء Gradio مع زملائه المؤسسين. تم الأسحتواذ على Gradio في النهاية بواسطة Hugging Face.

ميرفي نوين (Merve Noyan) هي مدافعة عن المطورين في Hugging Face ، وتعمل على تطوير الأدوات وبناء المحتوى حولها لإضفاء الطابع الديمقراطي على التعلم الآلي للجميع.

لوكيلي ساولينر (Lucile Saulnier) هو مهندس تعلم آلي في Hugging Face ، يطور ويدعم استخدام أدوات مفتوحة المصدر. كما أنها تشارك بنشاط في العديد من المشاريع البحثية في مجال معالجة اللغة الطبيعية مثل التدريب التعاوني و BigScience.

لويس تونستول (Lewis Tunstall) هو مهندس تعلم آلي في Hugging Face ، يركز على تطوير أدوات مفتوحة المصدر وجعلها في متناول المجتمع الأوسع. وهو أيضًا مؤلف مشارك لكتاب O’Reilly معالجة اللغة الطبيعية باستخدام المحولات Transformers.

ليوناردو فون ويراي (Leandro von Werra) هو مهندس تعلم الآلة في فريق مفتوح المصدر في Hugging Face وهو أيضًا مؤلف مشارك لكتاب O’Reilly معالجة اللغة الطبيعية مع المحولات. يتمتع بخبرة عدة سنوات في المجال في جلب مشاريع البرمجة اللغوية العصبية إلى الإنتاج من خلال العمل عبر مجموعة التعلم الآلي بأكملها.

الأسئلة الشائعة

فيما يلي بعض الإجابات عن الأسئلة المتداولة:

حاليا ليس لدينا أي شهادة لهذه الدورة. ومع ذلك ، نحن نعمل على برنامج اعتماد للنظام البيئي Hugging Face - ترقبوا ذلك!

تم تصميم كل فصل في هذه الدورة ليتم الانتهاء منه في أسبوع واحد ، مع ما يقرب من 6-8 ساعات من العمل في الأسبوع. ومع ذلك ، يمكنك أن تأخذ الكثير من الوقت الذي تحتاجه لإكمال الدورة.

إذا كان لديك سؤال حول أي قسم من الدورة ، فما عليك سوى النقر فوق لافتة ”طرح سؤال” (Ask a question) أعلى الصفحة لإعادة توجيهك تلقائيًا إلى القسم الأيمن من منتديات Hugging Face:

Link to the Hugging Face forums

لاحظ أن قائمة أفكار للمشاريع متاحة أيضًا في المنتديات إذا كنت ترغب في ممارسة المزيد بعد الانتهاء من الدورة.

لكل قسم ، انقر فوق لافتة أعلى الصفحة لتشغيل الكود إما في Google Colab أو Amazon SageMaker Studio Lab:

Link to the Hugging Face course notebooks

يتم استضافة دفاتر جوبيتر (Jupyter) التي تحتوي على جميع التعليمات البرمجية من الدورة التدريبية على الريبو huggingface / notebooks. إذا كنت ترغب في إنشائها محليًا ، فراجع الإرشادات الموجودة في course الريبو على GitHub.

هناك طرق عديدة للمساهمة في الدورة! إذا وجدت خطأً إملائيًا أو خطأ ، فالرجاء فتح مشكلة في الدورة التدريبية. إذا كنت ترغب في المساعدة في ترجمة الدورة إلى لغتك الأم ، فراجع التعليمات هنا.

تحتوي كل ترجمة على مسرد مصطلحات وملف “TRANSLATING.txt” يوضح الخيارات التي تم إجراؤها لمصطلحات التعلم الآلي وما إلى ذلك. يمكنك العثور على مثال للغة الألمانية هنا.

بالطبع! تم إصدار الدورة التدريبية بموجب ترخيص Apache 2 المسموح به. هذا يعني أنه يجب عليك منح الائتمان المناسب ، وتقديم ارتباط إلى الترخيص ، وبيان ما إذا تم إجراء تغييرات. يمكنك القيام بذلك بأي طريقة معقولة ، ولكن ليس بأي طريقة توحي بأن المرخِّص يؤيدك أو يؤيد استخدامك. إذا كنت ترغب في الاستشهاد بالدورة التدريبية كمرحع، فيرجى استخدام BibTeX التالية:


@misc{huggingfacecourse,
  author = {Hugging Face},
  title = {The Hugging Face Course, 2022},
  howpublished = "\url{https://huggingface.co/course}",
  year = {2022},
  note = "[Online; accessed <today>]"
}

هيا بنا

هل أنت على استعداد لبدء التنفيذ؟ ستتعلم في هذا الفصل: