NLP Course documentation

सारांश

Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

सारांश

Ask a Question

इस अध्याय में, आपने देखा कि 🤗 ट्रांसफॉर्मर के उच्च-स्तरीय पाइपलाइन () फ़ंक्शन का उपयोग करके विभिन्न प्राकृतिक भाषा प्रसंस्करण कार्यों को कैसे किया जाता है। आपने यह भी देखा कि हब में मॉडलों की खोज और उनका उपयोग कैसे करें, साथ ही सीधे अपने ब्राउज़र में मॉडलों का परीक्षण करने के लिए अनुमान API का उपयोग कैसे करें।

हमने चर्चा की कि ट्रांसफॉर्मर मॉडल उच्च स्तर पर कैसे काम करते हैं और ट्रांसफर लर्निंग और फाइन-ट्यूनिंग के महत्व के बारे में बात की। एक महत्वपूर्ण पहलू यह है कि आप पूर्ण आर्किटेक्चर या केवल एन्कोडर या डिकोडर का उपयोग कर सकते हैं, यह इस बात पर निर्भर करता है कि आप किस प्रकार के कार्य को हल करना चाहते हैं। निम्न तालिका इसे सारांशित करती है:

मॉडल उदाहरण कार्य
एनकोडर ALBERT, BERT, DistilBERT, ELECTRA, RoBERTa वाक्य वर्गीकरण, नामित इकाई मान्यता, प्रश्न उत्तर निकालने वाला
डिकोडर CTRL, GPT, GPT-2, Transformer XL पाठ निर्माण
एनकोडर-डिकोडर BART, T5, Marian, mBART संक्षिप्तीकरण, अनुवाद, प्रश्न उत्तर बनाना