NLP Course documentation

คำถามท้ายบท

Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

คำถามท้ายบท

Ask a Question

มาทดสอบความรู้ที่คุณได้เรียนในบทนี้กันเถอะ!

1. สถานการณ์ไหนที่คุณควรจะเทรน tokenizer ขึ้นมาใหม่?

2. เวลาใช้ train_new_from_iterator() อะไรคือข้อดีของการใช้ generator of lists of texts เทียบกับการใช้ list of lists of texts?

3. อะไรคือข้อดีของ “fast” tokenizer?

4. token-classification pipeline มีวิธีจัดการกับ entity ที่ประกอบไปด้วยหลายๆ token ได้อย่างไร?

5. question-answering pipeline มีวิธีจัดการกับข้อความส่วนบริบท(context)ที่มีขนาดยาวอย่างไร?

6. อะไรคือ normalization?

7. อะไรคือขั้นตอนการ pre-tokenization ของ subword tokenizer?

8. เลือกข้อความที่ถูกต้อง เกี่ยวกับ BPE model?

9. เลือกข้อความที่ถูกต้อง เกี่ยวกับ WordPiece model?

10. เลือกข้อความที่ถูกต้อง เกี่ยวกับ Unigram model?