# 定义DATA_DIR
export DATA_DIR='../../glue_data'

# 定义SAVE_DIR
export SAVE_DIR='./bert_finetuning_test/'

# 使用python脚本运行微调脚本
# --model_type: 需要微调的模型类型，这里可以选择BERT/XLNET/XLM/roBERTa/distilBERT
# --model_name_or_path: 选择具体的模型或者路径，比如英文语料可以选：bert-base-uncased
# --task_name: 任务类型，如MRPC代表二分类任务
# --do_train: 训练
# --do_eval: 验证
# --max_seq_length
# --learning_rate
# --num_train_epochs:
# --output_dir $SAVE_DIR:
# --overwrite_output_dir:
#  --model_type BERT \

export TASK_NAME=mrpc

# 预训练模型和数据都是从hf上下载的，默认保存在：~/.cache/huggingface/...(linux,windows同理)
# 默认是从huggingface.io上下载的，国外网站，根本下不动，可以手动从国内网站下载放到对应目录，但太麻烦，因为新的transformers模型和数据的路径名挺复杂的
export HF_ENDPOINT="https://hf-mirror.com"


python3 run_glue.py \
  --model_name_or_path bert-base-cased \
  --task_name $TASK_NAME \
  --do_train \
  --do_eval \
  --max_seq_length 64 \
  --per_device_train_batch_size 4 \
  --learning_rate 2e-5 \
  --num_train_epochs 3 \
  --output_dir /tmp/$TASK_NAME/


#export TASK_NAME=SST-2

#python3 run_glue.py \
#  --model_name_or_path ~/huggingface-models/bert-base-chinese/ \
#  --task_name $TASK_NAME \
#  --do_train \
#  --do_eval \
#  --max_seq_length 128 \
#  --learning_rate 2e-5 \
#  --num_train_epochs 1 \
#  --output_dir ${SAVE_DIR} \
#  --overwrite_output_dir