Fill-Mask
Transformers
PyTorch
xlm-roberta
parliament
xlm-r-parla / trainer_state.json
5roop's picture
Upload trainer_state.json with huggingface_hub
335250d
raw
history blame
4.08 kB
{
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 1.499490435414153,
"global_step": 8000,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.05,
"learning_rate": 2e-05,
"loss": 0.9577,
"step": 250
},
{
"epoch": 0.09,
"learning_rate": 4e-05,
"loss": 0.915,
"step": 500
},
{
"epoch": 0.14,
"learning_rate": 6e-05,
"loss": 0.9012,
"step": 750
},
{
"epoch": 0.19,
"learning_rate": 8e-05,
"loss": 0.8917,
"step": 1000
},
{
"epoch": 0.23,
"learning_rate": 0.0001,
"loss": 0.8893,
"step": 1250
},
{
"epoch": 0.28,
"learning_rate": 9.866666666666668e-05,
"loss": 0.8859,
"step": 1500
},
{
"epoch": 0.33,
"learning_rate": 9.733333333333335e-05,
"loss": 0.8743,
"step": 1750
},
{
"epoch": 0.37,
"learning_rate": 9.6e-05,
"loss": 0.876,
"step": 2000
},
{
"epoch": 0.42,
"learning_rate": 9.466666666666667e-05,
"loss": 0.8588,
"step": 2250
},
{
"epoch": 0.47,
"learning_rate": 9.333333333333334e-05,
"loss": 0.8509,
"step": 2500
},
{
"epoch": 0.52,
"learning_rate": 9.200000000000001e-05,
"loss": 0.8465,
"step": 2750
},
{
"epoch": 0.56,
"learning_rate": 9.066666666666667e-05,
"loss": 0.8398,
"step": 3000
},
{
"epoch": 0.61,
"learning_rate": 8.933333333333334e-05,
"loss": 0.8369,
"step": 3250
},
{
"epoch": 0.66,
"learning_rate": 8.800000000000001e-05,
"loss": 0.8316,
"step": 3500
},
{
"epoch": 0.7,
"learning_rate": 8.666666666666667e-05,
"loss": 0.8272,
"step": 3750
},
{
"epoch": 0.75,
"learning_rate": 8.533333333333334e-05,
"loss": 0.8232,
"step": 4000
},
{
"epoch": 0.8,
"learning_rate": 8.4e-05,
"loss": 0.8202,
"step": 4250
},
{
"epoch": 0.84,
"learning_rate": 8.266666666666667e-05,
"loss": 0.8167,
"step": 4500
},
{
"epoch": 0.89,
"learning_rate": 8.133333333333334e-05,
"loss": 0.8131,
"step": 4750
},
{
"epoch": 0.94,
"learning_rate": 8e-05,
"loss": 0.8107,
"step": 5000
},
{
"epoch": 0.98,
"learning_rate": 7.866666666666666e-05,
"loss": 0.8063,
"step": 5250
},
{
"epoch": 1.03,
"learning_rate": 7.733333333333333e-05,
"loss": 0.8038,
"step": 5500
},
{
"epoch": 1.08,
"learning_rate": 7.6e-05,
"loss": 0.798,
"step": 5750
},
{
"epoch": 1.12,
"learning_rate": 7.466666666666667e-05,
"loss": 0.7962,
"step": 6000
},
{
"epoch": 1.17,
"learning_rate": 7.333333333333333e-05,
"loss": 0.7927,
"step": 6250
},
{
"epoch": 1.22,
"learning_rate": 7.2e-05,
"loss": 0.7906,
"step": 6500
},
{
"epoch": 1.27,
"learning_rate": 7.066666666666667e-05,
"loss": 0.7889,
"step": 6750
},
{
"epoch": 1.31,
"learning_rate": 6.933333333333334e-05,
"loss": 0.7872,
"step": 7000
},
{
"epoch": 1.36,
"learning_rate": 6.800000000000001e-05,
"loss": 0.783,
"step": 7250
},
{
"epoch": 1.41,
"learning_rate": 6.666666666666667e-05,
"loss": 0.7824,
"step": 7500
},
{
"epoch": 1.45,
"learning_rate": 6.533333333333334e-05,
"loss": 0.7795,
"step": 7750
},
{
"epoch": 1.5,
"learning_rate": 6.400000000000001e-05,
"loss": 0.777,
"step": 8000
}
],
"max_steps": 20000,
"num_train_epochs": 4,
"total_flos": 9.551363792122184e+17,
"trial_name": null,
"trial_params": null
}