Transformers documentation
مجتمع المطورين
You are viewing main version, which requires installation from source. If you'd like
regular pip install, checkout the latest stable version (v4.51.1).
مجتمع المطورين
هذه الصفحة تجمع الموارد حول 🤗 Transformers التي طورها المجتمع.
موارد المجتمع:
المصدر | الوصف | المؤلف |
---|---|---|
Hugging Face Transformers Glossary Flashcards | مجموعة من البطاقات التعليمية القائمة على Transformers Docs Glossary والتي تم وضعها في شكل يمكن تعلمه/مراجعته بسهولة باستخدام Anki وهو تطبيق مفتوح المصدر متعدد المنصات مصمم خصيصًا للاحتفاظ بالمعرفة على المدى الطويل. شاهد هذا فيديو تمهيدي حول كيفية استخدام البطاقات التعليمية. | Darigov Research |
دفاتر ملاحظات المجتمع:
الدفتر | الوصف | المؤلف | |
---|---|---|---|
Fine-tune a pre-trained Transformer to generate lyrics | كيفية توليد كلمات الأغاني على غرار فنانك المفضل من خلال ضبط نموذج GPT-2 | Aleksey Korshuk | |
Train T5 in Tensorflow 2 | كيفية تدريب T5 لأي مهمة باستخدام Tensorflow 2. يوضح هذا الدفتر مهمة السؤال والجواب المنفذة في Tensorflow 2 باستخدام SQUAD | Muhammad Harris | |
Train T5 on TPU | كيفية تدريب T5 على SQUAD مع Transformers و Nlp | Suraj Patil | |
Fine-tune T5 for Classification and Multiple Choice | كيفية ضبط نموذج T5 للتصنيف والمهام متعددة الخيارات باستخدام تنسيق النص إلى نص مع PyTorch Lightning | Suraj Patil | |
Fine-tune DialoGPT on New Datasets and Languages | كيفية ضبط نموذج DialoGPT على مجموعة بيانات جديدة لروبوتات الدردشة المحادثية المفتوحة | Nathan Cooper | |
Long Sequence Modeling with Reformer | كيفية التدريب على تسلسلات طويلة تصل إلى 500,000 رمز باستخدام Reformer | Patrick von Platen | |
Fine-tune BART for Summarization | كيفية ضبط نموذج BART للتلخيص باستخدام fastai باستخدام blurr | Wayde Gilliam | |
Fine-tune a pre-trained Transformer on anyone’s tweets | كيفية توليد تغريدات على غرار حساب Twitter المفضل لديك من خلال ضبط نموذج GPT-2 | Boris Dayma | |
Optimize 🤗 Hugging Face models with Weights & Biases | دليل كامل لعرض تكامل W&B مع Hugging Face | Boris Dayma | |
Pretrain Longformer | كيفية بناء نسخة “طويلة” من النماذج المسبقة التدريب الموجودة | Iz Beltagy | |
Fine-tune Longformer for QA | كيفية ضبط نموذج Longformer لمهمة QA | Suraj Patil | |
Evaluate Model with 🤗nlp | كيفية تقييم نموذج Longformer على TriviaQA مع nlp | Patrick von Platen | |
Fine-tune T5 for Sentiment Span Extraction | كيفية ضبط نموذج T5 لاستخراج المشاعر باستخدام تنسيق النص إلى نص مع PyTorch Lightning | Lorenzo Ampil | |
Fine-tune DistilBert for Multiclass Classification | كيفية ضبط نموذج DistilBert للتصنيف متعدد الفئات باستخدام PyTorch | Abhishek Kumar Mishra | |
Fine-tune BERT for Multi-label Classification | كيفية ضبط نموذج BERT للتصنيف متعدد التصنيفات باستخدام PyTorch | Abhishek Kumar Mishra | |
Fine-tune T5 for Summarization | كيفية ضبط نموذج T5 للتلخيص في PyTorch وتتبع التجارب باستخدام WandB | Abhishek Kumar Mishra | |
Speed up Fine-Tuning in Transformers with Dynamic Padding / Bucketing | كيفية تسريع الضبط الدقيق بعامل 2 باستخدام الضبط الديناميكي/التقسيم | Michael Benesty | |
Pretrain Reformer for Masked Language Modeling | كيفية تدريب نموذج Reformer مع طبقات الانتباه ثنائية الاتجاه | Patrick von Platen | |
Expand and Fine Tune Sci-BERT | كيفية زيادة مفردات نموذج SciBERT المسبق التدريب من AllenAI على مجموعة بيانات CORD وإنشاء خط أنابيب لها. | Tanmay Thakur | |
Fine Tune BlenderBotSmall for Summarization using the Trainer API | كيفية ضبط نموذج BlenderBotSmall للتلخيص على مجموعة بيانات مخصصة، باستخدام واجهة برمجة التطبيقات Trainer. | Tanmay Thakur | |
Fine-tune Electra and interpret with Integrated Gradients | كيفية ضبط نموذج Electra للتحليل العاطفي وتفسير التنبؤات باستخدام Captum Integrated Gradients | Eliza Szczechla | |
fine-tune a non-English GPT-2 Model with Trainer class | كيفية ضبط نموذج GPT-2 غير الإنجليزي باستخدام فئة Trainer | Philipp Schmid | |
Fine-tune a DistilBERT Model for Multi Label Classification task | كيفية ضبط نموذج DistilBERT لمهمة التصنيف متعدد التصنيفات | Dhaval Taunk | |
Fine-tune ALBERT for sentence-pair classification | كيفية ضبط نموذج ALBERT أو أي نموذج آخر قائم على BERT لمهمة التصنيف المزدوج للجمل | Nadir El Manouzi | |
Fine-tune Roberta for sentiment analysis | كيفية ضبط نموذج Roberta للتحليل العاطفي | Dhaval Taunk | |
Evaluating Question Generation Models | ما مدى دقة الإجابات على الأسئلة التي يولدها نموذجك التحويلي seq2seq؟ | Pascal Zoleko | |
Classify text with DistilBERT and Tensorflow | كيفية ضبط نموذج DistilBERT للتصنيف النصي في TensorFlow | Peter Bayerle | |
Leverage BERT for Encoder-Decoder Summarization on CNN/Dailymail | كيفية البدء السريع لنموذج EncoderDecoderModel مع نقطة تفتيش google-bert/bert-base-uncased للتلخيص على CNN/Dailymail | Patrick von Platen | |
Leverage RoBERTa for Encoder-Decoder Summarization on BBC XSum | كيفية البدء السريع لنموذج EncoderDecoderModel المشترك مع نقطة تفتيش FacebookAI/roberta-base للتلخيص على BBC/XSum | Patrick von Platen | |
Fine-tune TAPAS on Sequential Question Answering (SQA) | كيفية ضبط نموذج TapasForQuestionAnswering مع نقطة تفتيش tapas-base على مجموعة بيانات Sequential Question Answering (SQA) | Niels Rogge | |
Evaluate TAPAS on Table Fact Checking (TabFact) | كيفية تقييم نموذج TapasForSequenceClassification المضبوط مسبقًا مع نقطة تفتيش tapas-base-finetuned-tabfact باستخدام مزيج من مكتبتي 🤗 datasets و 🤗 transformers | Niels Rogge | |
Fine-tuning mBART for translation | كيفية ضبط نموذج mBART باستخدام Seq2SeqTrainer للترجمة من الهندية إلى الإنجليزية | Vasudev Gupta | |
Fine-tune LayoutLM on FUNSD (a form understanding dataset) | كيفية ضبط نموذج LayoutLMForTokenClassification على مجموعة بيانات FUNSD لاستخراج المعلومات من المستندات الممسوحة ضوئيًا | Niels Rogge | |
Fine-Tune DistilGPT2 and Generate Text | كيفية ضبط نموذج DistilGPT2 وتوليد النص | Aakash Tripathi | |
Fine-Tune LED on up to 8K tokens | كيفية ضبط نموذج LED على pubmed للتلخيص طويل المدى | Patrick von Platen | |
Evaluate LED on Arxiv | كيفية تقييم نموذج LED للتلخيص طويل المدى بشكل فعال | Patrick von Platen | |
Fine-tune LayoutLM on RVL-CDIP (a document image classification dataset) | كيفية ضبط نموذج LayoutLMForSequenceClassification على مجموعة بيانات RVL-CDIP لتصنيف المستندات الممسوحة ضوئيًا | Niels Rogge | |
Wav2Vec2 CTC decoding with GPT2 adjustment | كيفية فك تشفير تسلسل CTC مع تعديل نموذج اللغة | Eric Lam | |
Fine-tune BART for summarization in two languages with Trainer class | كيفية ضبط نموذج BART للتلخيص بلغتين باستخدام فئة Trainer | Eliza Szczechla | |
Evaluate Big Bird on Trivia QA | كيفية تقييم نموذج BigBird للأسئلة والأجوبة على وثائق طويلة على Trivia QA | Patrick von Platen | |
Create video captions using Wav2Vec2 | كيفية إنشاء تعليقات توضيحية على YouTube من أي فيديو من خلال تفريغ الصوت باستخدام Wav2Vec | Niklas Muennighoff | |
Fine-tune the Vision Transformer on CIFAR-10 using PyTorch Lightning | كيفية ضبط نموذج Vision Transformer (ViT) على CIFAR-10 باستخدام مكتبات HuggingFace Transformers و Datasets و PyTorch Lightning | Niels Rogge | |
Fine-tune the Vision Transformer on CIFAR-10 using the 🤗 Trainer | كيفية ضبط نموذج Vision Transformer (ViT) على CIFAR-10 باستخدام مكتبات HuggingFace Transformers و Datasets و 🤗 Trainer | Niels Rogge | |
Evaluate LUKE on Open Entity, an entity typing dataset | كيفية تقييم نموذج LukeForEntityClassification على مجموعة بيانات Open Entity | Ikuya Yamada | |
Evaluate LUKE on TACRED, a relation extraction dataset | كيفية تقييم نموذج LukeForEntityPairClassification على مجموعة بيانات TACRED | Ikuya Yamada | |
Evaluate LUKE on CoNLL-2003, an important NER benchmark | كيفية تقييم نموذج LukeForEntitySpanClassification على مجموعة بيانات CoNLL-2003 | Ikuya Yamada | |
Evaluate BigBird-Pegasus on PubMed dataset | كيفية تقييم نموذج BigBirdPegasusForConditionalGeneration على مجموعة بيانات PubMed | Vasudev Gupta | |
Speech Emotion Classification with Wav2Vec2 | كيفية استخدام نموذج Wav2Vec2 المسبق التدريب لتصنيف المشاعر على مجموعة بيانات MEGA | Mehrdad Farahani | |
Detect objects in an image with DETR | كيفية استخدام نموذج DetrForObjectDetection المدرب للكشف عن الأجسام في صورة وتصوير الانتباه | Niels Rogge | |
Fine-tune DETR on a custom object detection dataset | كيفية ضبط نموذج DetrForObjectDetection على مجموعة بيانات الكشف عن الأجسام المخصصة | Niels Rogge | |
Finetune T5 for Named Entity Recognition | كيفية ضبط نموذج T5 على مهمة التعرف على الكيانات المسماة | Ogundepo Odunayo | |
Fine-Tuning Open-Source LLM using QLoRA with MLflow and PEFT | كيفية استخدام QLoRA و PEFT لضبط نموذج LLM بطريقة فعالة من حيث الذاكرة، مع استخدام MLflow لإدارة تتبع التجارب | Yuki Watanabe |