NLP Course documentation

अध्याय के अंत की प्रश्नोत्तरी

Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

अध्याय के अंत की प्रश्नोत्तरी

Ask a Question

इस अध्याय में बहुत सारी जमीन शामिल है! यदि आप सभी विवरणों को नहीं समझ पाए हैं तो चिंता न करें; अगले अध्याय आपको यह समझने में मदद करेंगे कि चीजें हुड के तहत कैसे काम करती हैं।

लेकिन, आइए पहले यह जाँचें कि आपने इस अध्याय में क्या सीखा!

1. हब को एक्सप्लोर करें और रॉबर्टा-लार्ज-एमएनली चेकपॉइंट देखें। यह कौन सा कार्य करता है?

2. निम्नलिखित कोड क्या लौटाएगा?

from transformers import pipeline

ner = pipeline("ner", grouped_entities=True)
ner("My name is Sylvain and I work at Hugging Face in Brooklyn.")

3. क्या प्रतिस्थापित करना चाहिए … इस कोड नमूने में?

from transformers import pipeline

filler = pipeline("fill-mask", model="bert-base-cased")
result = filler("...")

4. यह कोड विफल क्यों होगा?

from transformers import pipeline

classifier = pipeline("zero-shot-classification")
result = classifier("This is a course about the Transformers library")

5. “ट्रांसफर लर्निंग” का क्या अर्थ है?

6. सही या गलत? एक भाषा मॉडल को आमतौर पर इसके पूर्व-प्रशिक्षण के लिए लेबल की आवश्यकता नहीं होती है।

7. उस वाक्य का चयन करें जो “मॉडल,” “वास्तुकला,” और “वजन” शब्दों का सबसे अच्छा वर्णन करता है।

8. आप जनरेट किए गए टेक्स्ट के साथ संकेतों को पूरा करने के लिए इनमें से किस प्रकार के मॉडल का उपयोग करेंगे?

9. पाठों को सारांशित करने के लिए आप इनमें से किस प्रकार के मॉडल का उपयोग करेंगे?

10. कुछ लेबल के अनुसार टेक्स्ट इनपुट को वर्गीकृत करने के लिए आप इनमें से किस प्रकार के मॉडल का उपयोग करेंगे?

11. एक मॉडल में देखे गए पूर्वाग्रह के संभावित स्रोत क्या हो सकते हैं?