|
{ |
|
"best_metric": null, |
|
"best_model_checkpoint": null, |
|
"epoch": 3.0, |
|
"eval_steps": 500, |
|
"global_step": 144, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.14583333333333334, |
|
"grad_norm": 0.932168185710907, |
|
"learning_rate": 9.333333333333334e-05, |
|
"loss": 2.4371, |
|
"step": 7 |
|
}, |
|
{ |
|
"epoch": 0.2916666666666667, |
|
"grad_norm": 1.55926513671875, |
|
"learning_rate": 0.0001866666666666667, |
|
"loss": 2.1281, |
|
"step": 14 |
|
}, |
|
{ |
|
"epoch": 0.4375, |
|
"grad_norm": 2.454427480697632, |
|
"learning_rate": 0.00019069767441860466, |
|
"loss": 1.3913, |
|
"step": 21 |
|
}, |
|
{ |
|
"epoch": 0.5833333333333334, |
|
"grad_norm": 0.8888841867446899, |
|
"learning_rate": 0.0001798449612403101, |
|
"loss": 0.5878, |
|
"step": 28 |
|
}, |
|
{ |
|
"epoch": 0.7291666666666666, |
|
"grad_norm": 1.1111289262771606, |
|
"learning_rate": 0.0001689922480620155, |
|
"loss": 0.3453, |
|
"step": 35 |
|
}, |
|
{ |
|
"epoch": 0.875, |
|
"grad_norm": 0.4063495099544525, |
|
"learning_rate": 0.00015813953488372093, |
|
"loss": 0.2937, |
|
"step": 42 |
|
}, |
|
{ |
|
"epoch": 1.0208333333333333, |
|
"grad_norm": 0.42902955412864685, |
|
"learning_rate": 0.00014728682170542636, |
|
"loss": 0.2779, |
|
"step": 49 |
|
}, |
|
{ |
|
"epoch": 1.1666666666666667, |
|
"grad_norm": 0.5491642355918884, |
|
"learning_rate": 0.00013643410852713178, |
|
"loss": 0.2806, |
|
"step": 56 |
|
}, |
|
{ |
|
"epoch": 1.3125, |
|
"grad_norm": 0.4311344027519226, |
|
"learning_rate": 0.0001255813953488372, |
|
"loss": 0.2311, |
|
"step": 63 |
|
}, |
|
{ |
|
"epoch": 1.4583333333333333, |
|
"grad_norm": 0.4233413636684418, |
|
"learning_rate": 0.00011472868217054265, |
|
"loss": 0.2268, |
|
"step": 70 |
|
}, |
|
{ |
|
"epoch": 1.6041666666666665, |
|
"grad_norm": 0.46011030673980713, |
|
"learning_rate": 0.00010387596899224807, |
|
"loss": 0.2155, |
|
"step": 77 |
|
}, |
|
{ |
|
"epoch": 1.75, |
|
"grad_norm": 0.4046083688735962, |
|
"learning_rate": 9.30232558139535e-05, |
|
"loss": 0.2121, |
|
"step": 84 |
|
}, |
|
{ |
|
"epoch": 1.8958333333333335, |
|
"grad_norm": 0.41275689005851746, |
|
"learning_rate": 8.217054263565892e-05, |
|
"loss": 0.2015, |
|
"step": 91 |
|
}, |
|
{ |
|
"epoch": 2.0416666666666665, |
|
"grad_norm": 0.42750322818756104, |
|
"learning_rate": 7.131782945736435e-05, |
|
"loss": 0.1849, |
|
"step": 98 |
|
}, |
|
{ |
|
"epoch": 2.1875, |
|
"grad_norm": 0.46662458777427673, |
|
"learning_rate": 6.0465116279069765e-05, |
|
"loss": 0.184, |
|
"step": 105 |
|
}, |
|
{ |
|
"epoch": 2.3333333333333335, |
|
"grad_norm": 0.5476089715957642, |
|
"learning_rate": 4.96124031007752e-05, |
|
"loss": 0.194, |
|
"step": 112 |
|
}, |
|
{ |
|
"epoch": 2.4791666666666665, |
|
"grad_norm": 0.5398187041282654, |
|
"learning_rate": 3.875968992248062e-05, |
|
"loss": 0.1868, |
|
"step": 119 |
|
}, |
|
{ |
|
"epoch": 2.625, |
|
"grad_norm": 0.41189488768577576, |
|
"learning_rate": 2.7906976744186048e-05, |
|
"loss": 0.1741, |
|
"step": 126 |
|
}, |
|
{ |
|
"epoch": 2.7708333333333335, |
|
"grad_norm": 0.8281562328338623, |
|
"learning_rate": 1.7054263565891473e-05, |
|
"loss": 0.1577, |
|
"step": 133 |
|
}, |
|
{ |
|
"epoch": 2.9166666666666665, |
|
"grad_norm": 0.49911385774612427, |
|
"learning_rate": 6.2015503875969e-06, |
|
"loss": 0.1839, |
|
"step": 140 |
|
} |
|
], |
|
"logging_steps": 7, |
|
"max_steps": 144, |
|
"num_input_tokens_seen": 0, |
|
"num_train_epochs": 3, |
|
"save_steps": 500, |
|
"total_flos": 7.5433855942656e+16, |
|
"train_batch_size": 12, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|