Transformers documentation

Entraîner avec un script

You are viewing v4.43.0 version. A newer version v4.43.1 is available.
Hugging Face's logo
Join the Hugging Face community

and get access to the augmented documentation experience

to get started

Entraîner avec un script

En plus des notebooks de 🤗 Transformers, il existe également des exemples de scripts démontrant comment entraîner un modèle pour une tâche avec PyTorch, TensorFlow ou JAX/Flax.

Vous trouverez également des scripts que nous avons utilisé dans nos projets de recherche et des exemples “legacy” qui sont des contributions de la communauté. Ces scripts ne sont pas activement maintenus et nécessitent une version spécifique de 🤗 Transformers qui sera probablement incompatible avec la dernière version de la librairie.

Les exemples de scripts ne sont pas censés fonctionner immédiatement pour chaque problème, et il se peut que vous ayez besoin d’adapter le script au problème que vous essayez de résoudre. Pour vous aider dans cette tâche, la plupart des scripts exposent entièrement la manière dont les données sont prétraitées, vous permettant de les modifier selon vos besoins.

Pour toute fonctionnalité que vous souhaitez implémenter dans un script d’exemple, veuillez en discuter sur le forum ou dans une issue avant de soumettre une Pull Request. Bien que nous acceptions les corrections de bugs, il est peu probable que nous fusionnions une Pull Request (opération “merge” dans Git) ajoutant plus de fonctionnalités au détriment de la lisibilité.

Ce guide vous montrera comment exécuter un script d’entraînement de résumé en exemple avec PyTorch et TensorFlow. Tous les exemples sont censés fonctionner avec les deux frameworks, sauf indication contraire.

Configuration

Pour exécuter avec succès la dernière version des scripts d’exemple, vous devez installer 🤗 Transformers à partir du code source dans un nouvel environnement virtuel :

git clone https://github.com/huggingface/transformers
cd transformers
pip install .

Pour les versions plus anciennes des exemples de scripts, cliquez sur le bouton ci-dessous :

Exemples pour les anciennes versions de Transformers 🤗

Ensuite, changez votre clone actuel de 🤗 Transformers pour une version spécifique, comme par exemple v3.5.1 :

git checkout tags/v3.5.1

Après avoir configuré la bonne version de la librairie, accédez au dossier d’exemple de votre choix et installez les prérequis spécifiques à l’exemple.

pip install -r requirements.txt

Exécuter un script

Pytorch
Hide Pytorch content

Le script d’exemple télécharge et prétraite un jeu de données à partir de la bibliothèque 🤗 Datasets. Ensuite, le script affine un ensemble de données à l’aide de Trainer sur une architecture qui prend en charge la tâche de résumé. L’exemple suivant montre comment ajuster le modèle T5-small sur les données CNN/DailyMail. Le modèle T5 nécessite un argument supplémentaire source_prefix en raison de la façon dont il a été entraîné. Cette invite permet à T5 de savoir qu’il s’agit d’une tâche de résumé.

python examples/pytorch/summarization/run_summarization.py \
    --model_name_or_path google-t5/t5-small \
    --do_train \
    --do_eval \
    --dataset_name cnn_dailymail \
    --dataset_config "3.0.0" \
    --source_prefix "summarize: " \
    --output_dir /tmp/tst-summarization \
    --per_device_train_batch_size=4 \
    --per_device_eval_batch_size=4 \
    --overwrite_output_dir \
    --predict_with_generate
TensorFlow
Hide TensorFlow content

Le script d’exemple télécharge et prétraite un jeu de données à partir de la bibliothèque 🤗 Datasets. Ensuite, le script ajuste un modèle à l’aide de Keras sur une architecture qui prend en charge la tâche de résumé. L’exemple suivant montre comment ajuster le modèle T5-small sur le jeu de données CNN/DailyMail. Le modèle T5 nécessite un argument supplémentaire source_prefix en raison de la façon dont il a été entraîné. Cette invite permet à T5 de savoir qu’il s’agit d’une tâche de résumé.

python examples/tensorflow/summarization/run_summarization.py  \
    --model_name_or_path google-t5/t5-small \
    --dataset_name cnn_dailymail \
    --dataset_config "3.0.0" \
    --output_dir /tmp/tst-summarization  \
    --per_device_train_batch_size 8 \
    --per_device_eval_batch_size 16 \
    --num_train_epochs 3 \
    --do_train \
    --do_eval

Entraînement distribué et précision mixte

Trainer prend en charge l’entraînement distribué et la précision mixte, ce qui signifie que vous pouvez également les utiliser dans un script. Pour activer ces deux fonctionnalités :

  • Ajoutez l’argument fp16 pour activer la précision mixte.
  • Définissez le nombre de GPU à utiliser avec l’argument nproc_per_node.
torchrun \
    --nproc_per_node 8 pytorch/summarization/run_summarization.py \
    --fp16 \
    --model_name_or_path google-t5/t5-small \
    --do_train \
    --do_eval \
    --dataset_name cnn_dailymail \
    --dataset_config "3.0.0" \
    --source_prefix "summarize: " \
    --output_dir /tmp/tst-summarization \
    --per_device_train_batch_size=4 \
    --per_device_eval_batch_size=4 \
    --overwrite_output_dir \
    --predict_with_generate

Les scripts TensorFlow utilisent une Strategie en Miroir MirroredStrategy pour l’entraînement distribué, et vous n’avez pas besoin d’ajouter d’arguments supplémentaires au script d’entraînement. Le script TensorFlow utilisera plusieurs GPU par défaut s’ils sont disponibles.

Exécuter un script sur un TPU

Pytorch
Hide Pytorch content

Les unités de traitement de tenseurs (UTT) (TPU) sont spécialement conçues pour accélérer les performances. PyTorch prend en charge les TPU avec le compilateur de deep learning XLA. Pour utiliser un TPU, lancez le script xla_spawn.py et utilisez l’argument num_cores pour définir le nombre de cœurs TPU que vous souhaitez utilise

python xla_spawn.py --num_cores 8 \
    summarization/run_summarization.py \
    --model_name_or_path google-t5/t5-small \
    --do_train \
    --do_eval \
    --dataset_name cnn_dailymail \
    --dataset_config "3.0.0" \
    --source_prefix "summarize: " \
    --output_dir /tmp/tst-summarization \
    --per_device_train_batch_size=4 \
    --per_device_eval_batch_size=4 \
    --overwrite_output_dir \
    --predict_with_generate
TensorFlow
Hide TensorFlow content

Les scripts TensorFlow utilisent une TPUStrategy pour l’entraînement sur TPU. Pour utiliser un TPU, passez le nom de la ressource TPU à l’argument tpu.

python run_summarization.py  \
    --tpu name_of_tpu_resource \
    --model_name_or_path google-t5/t5-small \
    --dataset_name cnn_dailymail \
    --dataset_config "3.0.0" \
    --output_dir /tmp/tst-summarization  \
    --per_device_train_batch_size 8 \
    --per_device_eval_batch_size 16 \
    --num_train_epochs 3 \
    --do_train \
    --do_eval

Exécuter un script avec 🤗 Accelerate

🤗 Accelerate est une bibliothèque uniquement pour PyTorch qui offre une méthode unifiée pour entraîner un modèle sur plusieurs types de configurations (CPU uniquement, plusieurs GPU, TPU) tout en maintenant une visibilité complète sur la boucle d’entraînement PyTorch. Assurez-vous que vous avez installé 🤗 Accelerate si ce n’est pas déjà le cas.

Note : Comme Accelerate est en développement rapide, la version git d’accelerate doit être installée pour exécuter les scripts.

pip install git+https://github.com/huggingface/accelerate

Au lieu du script run_summarization.py, vous devez utiliser le script run_summarization_no_trainer.py. Les scripts compatibles avec 🤗 Accelerate auront un fichier task_no_trainer.py dans le dossier. Commencez par exécuter la commande suivante pour créer et enregistrer un fichier de configuration.

accelerate config

Testez votre configuration pour vous assurer qu’elle est correctement configurée :

accelerate test

Maintenant, vous êtes prêt à lancer l’entraînement :

accelerate launch run_summarization_no_trainer.py \
    --model_name_or_path google-t5/t5-small \
    --dataset_name cnn_dailymail \
    --dataset_config "3.0.0" \
    --source_prefix "summarize: " \
    --output_dir ~/tmp/tst-summarization

Utiliser un jeu de données personnalisé

Le script de résumé prend en charge les jeux de données personnalisés tant qu’ils sont au format CSV ou JSON Line. Lorsque vous utilisez votre propre jeu de données, vous devez spécifier plusieurs arguments supplémentaires :

  • train_file et validation_file spécifient le chemin vers vos fichiers d’entraînement et de validation.
  • text_column est le texte d’entrée à résumer.
  • summary_column est le texte cible à produire.

Un exemple de script de résumé utilisant un ensemble de données personnalisé ressemblerait à ceci :

python examples/pytorch/summarization/run_summarization.py \
    --model_name_or_path google-t5/t5-small \
    --do_train \
    --do_eval \
    --train_file path_to_csv_or_jsonlines_file \
    --validation_file path_to_csv_or_jsonlines_file \
    --text_column text_column_name \
    --summary_column summary_column_name \
    --source_prefix "summarize: " \
    --output_dir /tmp/tst-summarization \
    --overwrite_output_dir \
    --per_device_train_batch_size=4 \
    --per_device_eval_batch_size=4 \
    --predict_with_generate

Tester un script

Il est souvent judicieux d’exécuter votre script sur un plus petit nombre d’exemples de jeu de données pour s’assurer que tout fonctionne comme prévu avant de s’engager sur un jeu de données complet qui pourrait prendre des heures à traiter. Utilisez les arguments suivants pour tronquer le jeu de données à un nombre maximal d’échantillons :

  • max_train_samples
  • max_eval_samples
  • max_predict_samples
python examples/pytorch/summarization/run_summarization.py \
    --model_name_or_path google-t5/t5-small \
    --max_train_samples 50 \
    --max_eval_samples 50 \
    --max_predict_samples 50 \
    --do_train \
    --do_eval \
    --dataset_name cnn_dailymail \
    --dataset_config "3.0.0" \
    --source_prefix "summarize: " \
    --output_dir /tmp/tst-summarization \
    --per_device_train_batch_size=4 \
    --per_device_eval_batch_size=4 \
    --overwrite_output_dir \
    --predict_with_generate

Tous les scripts d’exemple ne prennent pas en charge l’argument max_predict_samples. Si vous n’êtes pas sûr que votre script prenne en charge cet argument, ajoutez l’argument -h pour vérifier.

examples/pytorch/summarization/run_summarization.py -h

Reprendre l’entraînement à partir d’un point de contrôle

Une autre option utile est de reprendre l’entraînement à partir d’un point de contrôle précédent. Cela vous permettra de reprendre là où vous vous étiez arrêté sans recommencer si votre entraînement est interrompu. Il existe deux méthodes pour reprendre l’entraînement à partir d’un point de contrôle.

La première méthode utilise l’argument output_dir previous_output_dir pour reprendre l’entraînement à partir du dernier point de contrôle stocké dans output_dir. Dans ce cas, vous devez supprimer l’argument overwrite_output_dir.

python examples/pytorch/summarization/run_summarization.py
    --model_name_or_path google-t5/t5-small \
    --do_train \
    --do_eval \
    --dataset_name cnn_dailymail \
    --dataset_config "3.0.0" \
    --source_prefix "summarize: " \
    --output_dir /tmp/tst-summarization \
    --per_device_train_batch_size=4 \
    --per_device_eval_batch_size=4 \
    --output_dir previous_output_dir \
    --predict_with_generate

La seconde méthode utilise l’argument resume_from_checkpoint path_to_specific_checkpoint pour reprendre l’entraînement à partir d’un dossier de point de contrôle spécifique.

python examples/pytorch/summarization/run_summarization.py
    --model_name_or_path google-t5/t5-small \
    --do_train \
    --do_eval \
    --dataset_name cnn_dailymail \
    --dataset_config "3.0.0" \
    --source_prefix "summarize: " \
    --output_dir /tmp/tst-summarization \
    --per_device_train_batch_size=4 \
    --per_device_eval_batch_size=4 \
    --overwrite_output_dir \
    --resume_from_checkpoint path_to_specific_checkpoint \
    --predict_with_generate

Partage ton modèle

Tous les scripts peuvent télécharger votre modèle final sur le Model Hub. Assurez-vous que vous êtes connecté à Hugging Face avant de commencer :

huggingface-cli login

Ensuite, ajoutez l’argument push_to_hub au script. Cet argument créera un dépôt avec votre nom d’utilisateur Hugging Face et le nom du dossier spécifié dans output_dir.

Pour donner un nom spécifique à votre dépôt, utilisez l’argument push_to_hub_model_id pour l’ajouter. Le dépôt sera automatiquement listé sous votre namespace.

L’exemple suivant montre comment télécharger un modèle avec un nom de dépôt spécifique :

python examples/pytorch/summarization/run_summarization.py
    --model_name_or_path google-t5/t5-small \
    --do_train \
    --do_eval \
    --dataset_name cnn_dailymail \
    --dataset_config "3.0.0" \
    --source_prefix "summarize: " \
    --push_to_hub \
    --push_to_hub_model_id finetuned-t5-cnn_dailymail \
    --output_dir /tmp/tst-summarization \
    --per_device_train_batch_size=4 \
    --per_device_eval_batch_size=4 \
    --overwrite_output_dir \
    --predict_with_generate
< > Update on GitHub