Testons ce que vous avez appris dans ce chapitre !
1. Quand devez-vous entraîner un nouveau <i> tokenizer </i> ?
2. Quel est l’avantage d’utiliser un générateur de listes par rapport à une liste de listes lors de l’utilisation de <code> train_new_from_iterator() </code> ?
3. Quels sont les avantages d’utiliser un <i> tokenizer </i> « rapide » ?
4. Comment le pipeline token-classification gère-t-il les entités qui s’étendent sur plusieurs <i> tokens </i> ?
5. Comment le pipeline question-answering gère-t-il les contextes longs ?
6. Qu’est-ce que la normalisation ?
7. Qu’est-ce que la pré-tokénisation pour un <i> tokenizer </i> en sous-mots ?
8. Sélectionnez les phrases qui s’appliquent au <i> tokenizer </i> BPE.
9. Sélectionnez les phrases qui s’appliquent au <i> tokenizer </i> WordPiece.
10. Sélectionnez les phrases qui s’appliquent au <i> tokenizer </i> Unigram.