คำถามท้ายบท
มาทดสอบความรู้ที่คุณได้เรียนในบทนี้กันเถอะ!
1. สถานการณ์ไหนที่คุณควรจะเทรน tokenizer ขึ้นมาใหม่?
2. เวลาใช้ train_new_from_iterator()
อะไรคือข้อดีของการใช้ generator of lists of texts เทียบกับการใช้ list of lists of texts?
3. อะไรคือข้อดีของ “fast” tokenizer?
4. token-classification
pipeline มีวิธีจัดการกับ entity ที่ประกอบไปด้วยหลายๆ token ได้อย่างไร?
5. question-answering
pipeline มีวิธีจัดการกับข้อความส่วนบริบท(context)ที่มีขนาดยาวอย่างไร?
6. อะไรคือ normalization?
7. อะไรคือขั้นตอนการ pre-tokenization ของ subword tokenizer?
8. เลือกข้อความที่ถูกต้อง เกี่ยวกับ BPE model?
9. เลือกข้อความที่ถูกต้อง เกี่ยวกับ WordPiece model?
10. เลือกข้อความที่ถูกต้อง เกี่ยวกับ Unigram model?