NLP Course documentation

Quiz de fin de chapitre

Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

Quiz de fin de chapitre

Ask a Question

Testons ce que vous avez appris dans ce chapitre !

1. Quand devez-vous entraîner un nouveau <i> tokenizer </i> ?

2. Quel est l’avantage d’utiliser un générateur de listes par rapport à une liste de listes lors de l’utilisation de <code> train_new_from_iterator() </code> ?

3. Quels sont les avantages d’utiliser un <i> tokenizer </i> « rapide » ?

4. Comment le pipeline token-classification gère-t-il les entités qui s’étendent sur plusieurs <i> tokens </i> ?

5. Comment le pipeline question-answering gère-t-il les contextes longs ?

6. Qu’est-ce que la normalisation ?

7. Qu’est-ce que la pré-tokénisation pour un <i> tokenizer </i> en sous-mots ?

8. Sélectionnez les phrases qui s’appliquent au <i> tokenizer </i> BPE.

9. Sélectionnez les phrases qui s’appliquent au <i> tokenizer </i> WordPiece.

10. Sélectionnez les phrases qui s’appliquent au <i> tokenizer </i> Unigram.