|
{ |
|
"best_metric": null, |
|
"best_model_checkpoint": null, |
|
"epoch": 0.17066666666666666, |
|
"eval_steps": 500, |
|
"global_step": 20, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.008533333333333334, |
|
"grad_norm": 250.03163081148352, |
|
"learning_rate": 0.0, |
|
"loss": 9.7972, |
|
"step": 1 |
|
}, |
|
{ |
|
"epoch": 0.017066666666666667, |
|
"grad_norm": 248.51781720582932, |
|
"learning_rate": 3.010299956639811e-07, |
|
"loss": 9.6851, |
|
"step": 2 |
|
}, |
|
{ |
|
"epoch": 0.0256, |
|
"grad_norm": 242.7004728698525, |
|
"learning_rate": 4.771212547196623e-07, |
|
"loss": 9.7332, |
|
"step": 3 |
|
}, |
|
{ |
|
"epoch": 0.034133333333333335, |
|
"grad_norm": 244.87426620614914, |
|
"learning_rate": 6.020599913279622e-07, |
|
"loss": 9.6243, |
|
"step": 4 |
|
}, |
|
{ |
|
"epoch": 0.042666666666666665, |
|
"grad_norm": 243.51473421797294, |
|
"learning_rate": 6.989700043360186e-07, |
|
"loss": 9.6145, |
|
"step": 5 |
|
}, |
|
{ |
|
"epoch": 0.0512, |
|
"grad_norm": 237.0939456470789, |
|
"learning_rate": 7.781512503836435e-07, |
|
"loss": 9.5558, |
|
"step": 6 |
|
}, |
|
{ |
|
"epoch": 0.05973333333333333, |
|
"grad_norm": 246.42426416396174, |
|
"learning_rate": 8.450980400142567e-07, |
|
"loss": 9.5691, |
|
"step": 7 |
|
}, |
|
{ |
|
"epoch": 0.06826666666666667, |
|
"grad_norm": 234.25935480253506, |
|
"learning_rate": 9.030899869919433e-07, |
|
"loss": 9.4209, |
|
"step": 8 |
|
}, |
|
{ |
|
"epoch": 0.0768, |
|
"grad_norm": 239.2983885236171, |
|
"learning_rate": 9.542425094393247e-07, |
|
"loss": 9.4733, |
|
"step": 9 |
|
}, |
|
{ |
|
"epoch": 0.08533333333333333, |
|
"grad_norm": 236.6105466399374, |
|
"learning_rate": 9.999999999999997e-07, |
|
"loss": 9.5095, |
|
"step": 10 |
|
}, |
|
{ |
|
"epoch": 0.09386666666666667, |
|
"grad_norm": 231.46864663491684, |
|
"learning_rate": 1.0413926851582248e-06, |
|
"loss": 9.1118, |
|
"step": 11 |
|
}, |
|
{ |
|
"epoch": 0.1024, |
|
"grad_norm": 231.50741585044312, |
|
"learning_rate": 1.0791812460476246e-06, |
|
"loss": 9.0775, |
|
"step": 12 |
|
}, |
|
{ |
|
"epoch": 0.11093333333333333, |
|
"grad_norm": 232.88580221859812, |
|
"learning_rate": 1.1139433523068364e-06, |
|
"loss": 8.7966, |
|
"step": 13 |
|
}, |
|
{ |
|
"epoch": 0.11946666666666667, |
|
"grad_norm": 227.17208510290166, |
|
"learning_rate": 1.1461280356782378e-06, |
|
"loss": 8.6432, |
|
"step": 14 |
|
}, |
|
{ |
|
"epoch": 0.128, |
|
"grad_norm": 222.61277865106936, |
|
"learning_rate": 1.176091259055681e-06, |
|
"loss": 8.6176, |
|
"step": 15 |
|
}, |
|
{ |
|
"epoch": 0.13653333333333334, |
|
"grad_norm": 216.5108794899231, |
|
"learning_rate": 1.2041199826559244e-06, |
|
"loss": 8.1218, |
|
"step": 16 |
|
}, |
|
{ |
|
"epoch": 0.14506666666666668, |
|
"grad_norm": 219.20955299667028, |
|
"learning_rate": 1.230448921378274e-06, |
|
"loss": 8.0343, |
|
"step": 17 |
|
}, |
|
{ |
|
"epoch": 0.1536, |
|
"grad_norm": 199.72085988949678, |
|
"learning_rate": 1.2552725051033058e-06, |
|
"loss": 7.964, |
|
"step": 18 |
|
}, |
|
{ |
|
"epoch": 0.16213333333333332, |
|
"grad_norm": 200.24268479147997, |
|
"learning_rate": 1.2787536009528286e-06, |
|
"loss": 7.647, |
|
"step": 19 |
|
}, |
|
{ |
|
"epoch": 0.17066666666666666, |
|
"grad_norm": 186.85104361496084, |
|
"learning_rate": 1.301029995663981e-06, |
|
"loss": 7.3774, |
|
"step": 20 |
|
} |
|
], |
|
"logging_steps": 1, |
|
"max_steps": 201, |
|
"num_input_tokens_seen": 0, |
|
"num_train_epochs": 2, |
|
"save_steps": 20, |
|
"stateful_callbacks": { |
|
"TrainerControl": { |
|
"args": { |
|
"should_epoch_stop": false, |
|
"should_evaluate": false, |
|
"should_log": false, |
|
"should_save": true, |
|
"should_training_stop": false |
|
}, |
|
"attributes": {} |
|
} |
|
}, |
|
"total_flos": 3.227827051482317e+17, |
|
"train_batch_size": 16, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|