tahaspc's picture
Upload folder using huggingface_hub
8346256 verified
{
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 3.0,
"eval_steps": 500,
"global_step": 144,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.14583333333333334,
"grad_norm": 0.932168185710907,
"learning_rate": 9.333333333333334e-05,
"loss": 2.4371,
"step": 7
},
{
"epoch": 0.2916666666666667,
"grad_norm": 1.55926513671875,
"learning_rate": 0.0001866666666666667,
"loss": 2.1281,
"step": 14
},
{
"epoch": 0.4375,
"grad_norm": 2.454427480697632,
"learning_rate": 0.00019069767441860466,
"loss": 1.3913,
"step": 21
},
{
"epoch": 0.5833333333333334,
"grad_norm": 0.8888841867446899,
"learning_rate": 0.0001798449612403101,
"loss": 0.5878,
"step": 28
},
{
"epoch": 0.7291666666666666,
"grad_norm": 1.1111289262771606,
"learning_rate": 0.0001689922480620155,
"loss": 0.3453,
"step": 35
},
{
"epoch": 0.875,
"grad_norm": 0.4063495099544525,
"learning_rate": 0.00015813953488372093,
"loss": 0.2937,
"step": 42
},
{
"epoch": 1.0208333333333333,
"grad_norm": 0.42902955412864685,
"learning_rate": 0.00014728682170542636,
"loss": 0.2779,
"step": 49
},
{
"epoch": 1.1666666666666667,
"grad_norm": 0.5491642355918884,
"learning_rate": 0.00013643410852713178,
"loss": 0.2806,
"step": 56
},
{
"epoch": 1.3125,
"grad_norm": 0.4311344027519226,
"learning_rate": 0.0001255813953488372,
"loss": 0.2311,
"step": 63
},
{
"epoch": 1.4583333333333333,
"grad_norm": 0.4233413636684418,
"learning_rate": 0.00011472868217054265,
"loss": 0.2268,
"step": 70
},
{
"epoch": 1.6041666666666665,
"grad_norm": 0.46011030673980713,
"learning_rate": 0.00010387596899224807,
"loss": 0.2155,
"step": 77
},
{
"epoch": 1.75,
"grad_norm": 0.4046083688735962,
"learning_rate": 9.30232558139535e-05,
"loss": 0.2121,
"step": 84
},
{
"epoch": 1.8958333333333335,
"grad_norm": 0.41275689005851746,
"learning_rate": 8.217054263565892e-05,
"loss": 0.2015,
"step": 91
},
{
"epoch": 2.0416666666666665,
"grad_norm": 0.42750322818756104,
"learning_rate": 7.131782945736435e-05,
"loss": 0.1849,
"step": 98
},
{
"epoch": 2.1875,
"grad_norm": 0.46662458777427673,
"learning_rate": 6.0465116279069765e-05,
"loss": 0.184,
"step": 105
},
{
"epoch": 2.3333333333333335,
"grad_norm": 0.5476089715957642,
"learning_rate": 4.96124031007752e-05,
"loss": 0.194,
"step": 112
},
{
"epoch": 2.4791666666666665,
"grad_norm": 0.5398187041282654,
"learning_rate": 3.875968992248062e-05,
"loss": 0.1868,
"step": 119
},
{
"epoch": 2.625,
"grad_norm": 0.41189488768577576,
"learning_rate": 2.7906976744186048e-05,
"loss": 0.1741,
"step": 126
},
{
"epoch": 2.7708333333333335,
"grad_norm": 0.8281562328338623,
"learning_rate": 1.7054263565891473e-05,
"loss": 0.1577,
"step": 133
},
{
"epoch": 2.9166666666666665,
"grad_norm": 0.49911385774612427,
"learning_rate": 6.2015503875969e-06,
"loss": 0.1839,
"step": 140
}
],
"logging_steps": 7,
"max_steps": 144,
"num_input_tokens_seen": 0,
"num_train_epochs": 3,
"save_steps": 500,
"total_flos": 7.5433855942656e+16,
"train_batch_size": 12,
"trial_name": null,
"trial_params": null
}