You are viewing main version, which requires installation from source. If you'd like
regular pip install, checkout the latest stable version (v4.47.1).
مجتمع المطورين
هذه الصفحة تجمع الموارد حول 🤗 Transformers التي طورها المجتمع.
موارد المجتمع:
المصدر | الوصف | المؤلف |
---|---|---|
Hugging Face Transformers Glossary Flashcards | مجموعة من البطاقات التعليمية القائمة على Transformers Docs Glossary والتي تم وضعها في شكل يمكن تعلمه/مراجعته بسهولة باستخدام Anki وهو تطبيق مفتوح المصدر متعدد المنصات مصمم خصيصًا للاحتفاظ بالمعرفة على المدى الطويل. شاهد هذا فيديو تمهيدي حول كيفية استخدام البطاقات التعليمية. | Darigov Research |
دفاتر ملاحظات المجتمع:
الدفتر | الوصف | المؤلف | |
---|---|---|---|
Fine-tune a pre-trained Transformer to generate lyrics | كيفية توليد كلمات الأغاني على غرار فنانك المفضل من خلال ضبط نموذج GPT-2 | Aleksey Korshuk | |
Train T5 in Tensorflow 2 | كيفية تدريب T5 لأي مهمة باستخدام Tensorflow 2. يوضح هذا الدفتر مهمة السؤال والجواب المنفذة في Tensorflow 2 باستخدام SQUAD | Muhammad Harris | |
Train T5 on TPU | كيفية تدريب T5 على SQUAD مع Transformers و Nlp | Suraj Patil | |
Fine-tune T5 for Classification and Multiple Choice | كيفية ضبط نموذج T5 للتصنيف والمهام متعددة الخيارات باستخدام تنسيق النص إلى نص مع PyTorch Lightning | Suraj Patil | |
Fine-tune DialoGPT on New Datasets and Languages | كيفية ضبط نموذج DialoGPT على مجموعة بيانات جديدة لروبوتات الدردشة المحادثية المفتوحة | Nathan Cooper | |
Long Sequence Modeling with Reformer | كيفية التدريب على تسلسلات طويلة تصل إلى 500,000 رمز باستخدام Reformer | Patrick von Platen | |
Fine-tune BART for Summarization | كيفية ضبط نموذج BART للتلخيص باستخدام fastai باستخدام blurr | Wayde Gilliam | |
Fine-tune a pre-trained Transformer on anyone’s tweets | كيفية توليد تغريدات على غرار حساب Twitter المفضل لديك من خلال ضبط نموذج GPT-2 | Boris Dayma | |
Optimize 🤗 Hugging Face models with Weights & Biases | دليل كامل لعرض تكامل W&B مع Hugging Face | Boris Dayma | |
Pretrain Longformer | كيفية بناء نسخة “طويلة” من النماذج المسبقة التدريب الموجودة | Iz Beltagy | |
Fine-tune Longformer for QA | كيفية ضبط نموذج Longformer لمهمة QA | Suraj Patil | |
Evaluate Model with 🤗nlp | كيفية تقييم نموذج Longformer على TriviaQA مع nlp | Patrick von Platen | |
Fine-tune T5 for Sentiment Span Extraction | كيفية ضبط نموذج T5 لاستخراج المشاعر باستخدام تنسيق النص إلى نص مع PyTorch Lightning | Lorenzo Ampil | |
Fine-tune DistilBert for Multiclass Classification | كيفية ضبط نموذج DistilBert للتصنيف متعدد الفئات باستخدام PyTorch | Abhishek Kumar Mishra | |
Fine-tune BERT for Multi-label Classification | كيفية ضبط نموذج BERT للتصنيف متعدد التصنيفات باستخدام PyTorch | Abhishek Kumar Mishra | |
Fine-tune T5 for Summarization | كيفية ضبط نموذج T5 للتلخيص في PyTorch وتتبع التجارب باستخدام WandB | Abhishek Kumar Mishra | |
Speed up Fine-Tuning in Transformers with Dynamic Padding / Bucketing | كيفية تسريع الضبط الدقيق بعامل 2 باستخدام الضبط الديناميكي/التقسيم | Michael Benesty | |
Pretrain Reformer for Masked Language Modeling | كيفية تدريب نموذج Reformer مع طبقات الانتباه ثنائية الاتجاه | Patrick von Platen | |
Expand and Fine Tune Sci-BERT | كيفية زيادة مفردات نموذج SciBERT المسبق التدريب من AllenAI على مجموعة بيانات CORD وإنشاء خط أنابيب لها. | Tanmay Thakur | |
Fine Tune BlenderBotSmall for Summarization using the Trainer API | كيفية ضبط نموذج BlenderBotSmall للتلخيص على مجموعة بيانات مخصصة، باستخدام واجهة برمجة التطبيقات Trainer. | Tanmay Thakur | |
Fine-tune Electra and interpret with Integrated Gradients | كيفية ضبط نموذج Electra للتحليل العاطفي وتفسير التنبؤات باستخدام Captum Integrated Gradients | Eliza Szczechla | |
fine-tune a non-English GPT-2 Model with Trainer class | كيفية ضبط نموذج GPT-2 غير الإنجليزي باستخدام فئة Trainer | Philipp Schmid | |
Fine-tune a DistilBERT Model for Multi Label Classification task | كيفية ضبط نموذج DistilBERT لمهمة التصنيف متعدد التصنيفات | Dhaval Taunk | |
Fine-tune ALBERT for sentence-pair classification | كيفية ضبط نموذج ALBERT أو أي نموذج آخر قائم على BERT لمهمة التصنيف المزدوج للجمل | Nadir El Manouzi | |
Fine-tune Roberta for sentiment analysis | كيفية ضبط نموذج Roberta للتحليل العاطفي | Dhaval Taunk | |
Evaluating Question Generation Models | ما مدى دقة الإجابات على الأسئلة التي يولدها نموذجك التحويلي seq2seq؟ | Pascal Zoleko | |
Classify text with DistilBERT and Tensorflow | كيفية ضبط نموذج DistilBERT للتصنيف النصي في TensorFlow | Peter Bayerle | |
Leverage BERT for Encoder-Decoder Summarization on CNN/Dailymail | كيفية البدء السريع لنموذج EncoderDecoderModel مع نقطة تفتيش google-bert/bert-base-uncased للتلخيص على CNN/Dailymail | Patrick von Platen | |
Leverage RoBERTa for Encoder-Decoder Summarization on BBC XSum | كيفية البدء السريع لنموذج EncoderDecoderModel المشترك مع نقطة تفتيش FacebookAI/roberta-base للتلخيص على BBC/XSum | Patrick von Platen | |
Fine-tune TAPAS on Sequential Question Answering (SQA) | كيفية ضبط نموذج TapasForQuestionAnswering مع نقطة تفتيش tapas-base على مجموعة بيانات Sequential Question Answering (SQA) | Niels Rogge | |
Evaluate TAPAS on Table Fact Checking (TabFact) | كيفية تقييم نموذج TapasForSequenceClassification المضبوط مسبقًا مع نقطة تفتيش tapas-base-finetuned-tabfact باستخدام مزيج من مكتبتي 🤗 datasets و 🤗 transformers | Niels Rogge | |
Fine-tuning mBART for translation | كيفية ضبط نموذج mBART باستخدام Seq2SeqTrainer للترجمة من الهندية إلى الإنجليزية | Vasudev Gupta | |
Fine-tune LayoutLM on FUNSD (a form understanding dataset) | كيفية ضبط نموذج LayoutLMForTokenClassification على مجموعة بيانات FUNSD لاستخراج المعلومات من المستندات الممسوحة ضوئيًا | Niels Rogge | |
Fine-Tune DistilGPT2 and Generate Text | كيفية ضبط نموذج DistilGPT2 وتوليد النص | Aakash Tripathi | |
Fine-Tune LED on up to 8K tokens | كيفية ضبط نموذج LED على pubmed للتلخيص طويل المدى | Patrick von Platen | |
Evaluate LED on Arxiv | كيفية تقييم نموذج LED للتلخيص طويل المدى بشكل فعال | Patrick von Platen | |
Fine-tune LayoutLM on RVL-CDIP (a document image classification dataset) | كيفية ضبط نموذج LayoutLMForSequenceClassification على مجموعة بيانات RVL-CDIP لتصنيف المستندات الممسوحة ضوئيًا | Niels Rogge | |
Wav2Vec2 CTC decoding with GPT2 adjustment | كيفية فك تشفير تسلسل CTC مع تعديل نموذج اللغة | Eric Lam | |
Fine-tune BART for summarization in two languages with Trainer class | كيفية ضبط نموذج BART للتلخيص بلغتين باستخدام فئة Trainer | Eliza Szczechla | |
Evaluate Big Bird on Trivia QA | كيفية تقييم نموذج BigBird للأسئلة والأجوبة على وثائق طويلة على Trivia QA | Patrick von Platen | |
Create video captions using Wav2Vec2 | كيفية إنشاء تعليقات توضيحية على YouTube من أي فيديو من خلال تفريغ الصوت باستخدام Wav2Vec | Niklas Muennighoff | |
Fine-tune the Vision Transformer on CIFAR-10 using PyTorch Lightning | كيفية ضبط نموذج Vision Transformer (ViT) على CIFAR-10 باستخدام مكتبات HuggingFace Transformers و Datasets و PyTorch Lightning | Niels Rogge | |
Fine-tune the Vision Transformer on CIFAR-10 using the 🤗 Trainer | كيفية ضبط نموذج Vision Transformer (ViT) على CIFAR-10 باستخدام مكتبات HuggingFace Transformers و Datasets و 🤗 Trainer | Niels Rogge | |
Evaluate LUKE on Open Entity, an entity typing dataset | كيفية تقييم نموذج LukeForEntityClassification على مجموعة بيانات Open Entity | Ikuya Yamada | |
Evaluate LUKE on TACRED, a relation extraction dataset | كيفية تقييم نموذج LukeForEntityPairClassification على مجموعة بيانات TACRED | Ikuya Yamada | |
Evaluate LUKE on CoNLL-2003, an important NER benchmark | كيفية تقييم نموذج LukeForEntitySpanClassification على مجموعة بيانات CoNLL-2003 | Ikuya Yamada | |
Evaluate BigBird-Pegasus on PubMed dataset | كيفية تقييم نموذج BigBirdPegasusForConditionalGeneration على مجموعة بيانات PubMed | Vasudev Gupta | |
Speech Emotion Classification with Wav2Vec2 | كيفية استخدام نموذج Wav2Vec2 المسبق التدريب لتصنيف المشاعر على مجموعة بيانات MEGA | Mehrdad Farahani | |
Detect objects in an image with DETR | كيفية استخدام نموذج DetrForObjectDetection المدرب للكشف عن الأجسام في صورة وتصوير الانتباه | Niels Rogge | |
Fine-tune DETR on a custom object detection dataset | كيفية ضبط نموذج DetrForObjectDetection على مجموعة بيانات الكشف عن الأجسام المخصصة | Niels Rogge | |
Finetune T5 for Named Entity Recognition | كيفية ضبط نموذج T5 على مهمة التعرف على الكيانات المسماة | Ogundepo Odunayo | |
Fine-Tuning Open-Source LLM using QLoRA with MLflow and PEFT | كيفية استخدام QLoRA و PEFT لضبط نموذج LLM بطريقة فعالة من حيث الذاكرة، مع استخدام MLflow لإدارة تتبع التجارب | Yuki Watanabe |