# 설명 '\n'을 제거한 데이터셋으로 학습시킨 모델. # 사용한 arguments ```bash python train.py --output_dir ${MODEL_PATH} \ --wandb_name ${WANDB_NAME} \ --do_train --do_eval \ --model_name_or_path "klue/roberta-large" \ --dataset_name ../data/noNewline_train_dataset \ --save_strategy steps \ --save_steps 500 \ --save_total_limit 1 \ --logging_steps 100 \ --evaluation_strategy steps \ --eval_steps 500 \ --per_device_train_batch_size 8 \ --per_device_eval_batch_size 8 \ --learning_rate 5e-5 \ --weight_decay 0.0 \ --num_train_epochs 3.0 \ --lr_scheduler_type linear \ --warmup_ratio 0.0 \ --report_to wandb ```