NLP Course documentation

Maîtriser le <i> NLP </i>

Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

Maîtriser le <i> NLP </i>

Ask a Question

Si vous êtes arrivé jusqu’ici dans le cours, félicitations ! Vous avez maintenant toutes les connaissances et les outils nécessaires pour aborder (presque) n’importe quelle tâche de NLP avec 🤗 Transformers et l’écosystème d’Hugging Face !

Nous avons vu beaucoup d’assembleurs de données différents, c’est pourquoi nous avons fait cette petite vidéo pour vous aider à trouver lequel utiliser pour chaque tâche :

Après avoir terminé ce tour d’horizon des principales tâches de NLP, vous devriez :

  • savoir quelles architectures (encodeur, décodeur ou encodeur-décodeur) sont les mieux adaptées à chaque tâche,
  • comprendre la différence entre le pré-entraînement et le finetuning d’un modèle de langage,
  • savoir comment entraîner des transformers en utilisant soit l’API Trainer et les fonctionnalités d’entraînement distribué d’ 🤗 Accelerate ou TensorFlow et Keras selon la piste que vous avez suivie,
  • comprendre la signification et les limites de métriques comme ROUGE et BLEU pour les tâches de génération de texte,
  • savoir comment interagir avec vos modèles finetunés, à la fois sur le Hub et en utilisant la pipeline de 🤗 Transformers.

Malgré toutes ces connaissances, il arrivera un moment où vous rencontrerez un bug difficile dans votre code ou aurez une question sur la façon de résoudre un problème de NLP particulier. Heureusement, la communauté d’Hugging Face est là pour vous aider ! Dans le dernier chapitre de cette partie du cours, nous allons explorer comment vous pouvez déboguer vos modèles et demander de l’aide efficacement.