mehrshadk's picture
Training in progress, step 60000
2de3188
raw history blame
No virus
14.5 kB
{
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 9.402914903620122,
"global_step": 60000,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.08,
"learning_rate": 1.5e-06,
"loss": 2.1842,
"step": 500
},
{
"epoch": 0.16,
"learning_rate": 3e-06,
"loss": 1.9448,
"step": 1000
},
{
"epoch": 0.24,
"learning_rate": 4.5e-06,
"loss": 1.8931,
"step": 1500
},
{
"epoch": 0.31,
"learning_rate": 6e-06,
"loss": 1.8272,
"step": 2000
},
{
"epoch": 0.39,
"learning_rate": 7.5e-06,
"loss": 1.7958,
"step": 2500
},
{
"epoch": 0.47,
"learning_rate": 9e-06,
"loss": 1.7568,
"step": 3000
},
{
"epoch": 0.55,
"learning_rate": 1.05e-05,
"loss": 1.7422,
"step": 3500
},
{
"epoch": 0.63,
"learning_rate": 1.2e-05,
"loss": 1.7167,
"step": 4000
},
{
"epoch": 0.71,
"learning_rate": 1.3500000000000001e-05,
"loss": 1.6993,
"step": 4500
},
{
"epoch": 0.78,
"learning_rate": 1.5e-05,
"loss": 1.68,
"step": 5000
},
{
"epoch": 0.86,
"learning_rate": 1.65e-05,
"loss": 1.6686,
"step": 5500
},
{
"epoch": 0.94,
"learning_rate": 1.8e-05,
"loss": 1.6805,
"step": 6000
},
{
"epoch": 1.02,
"learning_rate": 1.95e-05,
"loss": 1.6662,
"step": 6500
},
{
"epoch": 1.1,
"learning_rate": 2.1e-05,
"loss": 1.6479,
"step": 7000
},
{
"epoch": 1.18,
"learning_rate": 2.25e-05,
"loss": 1.6301,
"step": 7500
},
{
"epoch": 1.25,
"learning_rate": 2.4e-05,
"loss": 1.639,
"step": 8000
},
{
"epoch": 1.33,
"learning_rate": 2.55e-05,
"loss": 1.6367,
"step": 8500
},
{
"epoch": 1.41,
"learning_rate": 2.7000000000000002e-05,
"loss": 1.6264,
"step": 9000
},
{
"epoch": 1.49,
"learning_rate": 2.8499999999999998e-05,
"loss": 1.625,
"step": 9500
},
{
"epoch": 1.57,
"learning_rate": 3e-05,
"loss": 1.6288,
"step": 10000
},
{
"epoch": 1.65,
"learning_rate": 2.9833333333333335e-05,
"loss": 1.6335,
"step": 10500
},
{
"epoch": 1.72,
"learning_rate": 2.966666666666667e-05,
"loss": 1.6283,
"step": 11000
},
{
"epoch": 1.8,
"learning_rate": 2.95e-05,
"loss": 1.6066,
"step": 11500
},
{
"epoch": 1.88,
"learning_rate": 2.9333333333333333e-05,
"loss": 1.6155,
"step": 12000
},
{
"epoch": 1.96,
"learning_rate": 2.9166666666666666e-05,
"loss": 1.598,
"step": 12500
},
{
"epoch": 2.04,
"learning_rate": 2.9e-05,
"loss": 1.5993,
"step": 13000
},
{
"epoch": 2.12,
"learning_rate": 2.8833333333333334e-05,
"loss": 1.5692,
"step": 13500
},
{
"epoch": 2.19,
"learning_rate": 2.8666666666666668e-05,
"loss": 1.5718,
"step": 14000
},
{
"epoch": 2.27,
"learning_rate": 2.8499999999999998e-05,
"loss": 1.5731,
"step": 14500
},
{
"epoch": 2.35,
"learning_rate": 2.8333333333333332e-05,
"loss": 1.5491,
"step": 15000
},
{
"epoch": 2.43,
"learning_rate": 2.8166666666666666e-05,
"loss": 1.5503,
"step": 15500
},
{
"epoch": 2.51,
"learning_rate": 2.8e-05,
"loss": 1.5621,
"step": 16000
},
{
"epoch": 2.59,
"learning_rate": 2.7833333333333337e-05,
"loss": 1.5501,
"step": 16500
},
{
"epoch": 2.66,
"learning_rate": 2.766666666666667e-05,
"loss": 1.5406,
"step": 17000
},
{
"epoch": 2.74,
"learning_rate": 2.75e-05,
"loss": 1.5413,
"step": 17500
},
{
"epoch": 2.82,
"learning_rate": 2.7333333333333335e-05,
"loss": 1.5442,
"step": 18000
},
{
"epoch": 2.9,
"learning_rate": 2.716666666666667e-05,
"loss": 1.5369,
"step": 18500
},
{
"epoch": 2.98,
"learning_rate": 2.7000000000000002e-05,
"loss": 1.5209,
"step": 19000
},
{
"epoch": 3.06,
"learning_rate": 2.6833333333333336e-05,
"loss": 1.5246,
"step": 19500
},
{
"epoch": 3.13,
"learning_rate": 2.6666666666666667e-05,
"loss": 1.5164,
"step": 20000
},
{
"epoch": 3.21,
"learning_rate": 2.65e-05,
"loss": 1.5084,
"step": 20500
},
{
"epoch": 3.29,
"learning_rate": 2.6333333333333334e-05,
"loss": 1.5111,
"step": 21000
},
{
"epoch": 3.37,
"learning_rate": 2.6166666666666668e-05,
"loss": 1.5255,
"step": 21500
},
{
"epoch": 3.45,
"learning_rate": 2.6000000000000002e-05,
"loss": 1.5016,
"step": 22000
},
{
"epoch": 3.53,
"learning_rate": 2.5833333333333336e-05,
"loss": 1.5036,
"step": 22500
},
{
"epoch": 3.6,
"learning_rate": 2.5666666666666666e-05,
"loss": 1.5048,
"step": 23000
},
{
"epoch": 3.68,
"learning_rate": 2.55e-05,
"loss": 1.501,
"step": 23500
},
{
"epoch": 3.76,
"learning_rate": 2.5333333333333334e-05,
"loss": 1.5157,
"step": 24000
},
{
"epoch": 3.84,
"learning_rate": 2.5166666666666667e-05,
"loss": 1.4914,
"step": 24500
},
{
"epoch": 3.92,
"learning_rate": 2.5e-05,
"loss": 1.4933,
"step": 25000
},
{
"epoch": 4.0,
"learning_rate": 2.483333333333333e-05,
"loss": 1.4989,
"step": 25500
},
{
"epoch": 4.07,
"learning_rate": 2.4666666666666665e-05,
"loss": 1.4849,
"step": 26000
},
{
"epoch": 4.15,
"learning_rate": 2.45e-05,
"loss": 1.4722,
"step": 26500
},
{
"epoch": 4.23,
"learning_rate": 2.4333333333333333e-05,
"loss": 1.4765,
"step": 27000
},
{
"epoch": 4.31,
"learning_rate": 2.4166666666666667e-05,
"loss": 1.4743,
"step": 27500
},
{
"epoch": 4.39,
"learning_rate": 2.4e-05,
"loss": 1.4799,
"step": 28000
},
{
"epoch": 4.47,
"learning_rate": 2.383333333333333e-05,
"loss": 1.4717,
"step": 28500
},
{
"epoch": 4.54,
"learning_rate": 2.3666666666666665e-05,
"loss": 1.4763,
"step": 29000
},
{
"epoch": 4.62,
"learning_rate": 2.3500000000000002e-05,
"loss": 1.4742,
"step": 29500
},
{
"epoch": 4.7,
"learning_rate": 2.3333333333333336e-05,
"loss": 1.4749,
"step": 30000
},
{
"epoch": 4.78,
"learning_rate": 2.316666666666667e-05,
"loss": 1.4612,
"step": 30500
},
{
"epoch": 4.86,
"learning_rate": 2.3000000000000003e-05,
"loss": 1.4461,
"step": 31000
},
{
"epoch": 4.94,
"learning_rate": 2.2833333333333334e-05,
"loss": 1.4644,
"step": 31500
},
{
"epoch": 5.01,
"learning_rate": 2.2666666666666668e-05,
"loss": 1.4686,
"step": 32000
},
{
"epoch": 5.09,
"learning_rate": 2.25e-05,
"loss": 1.4357,
"step": 32500
},
{
"epoch": 5.17,
"learning_rate": 2.2333333333333335e-05,
"loss": 1.4432,
"step": 33000
},
{
"epoch": 5.25,
"learning_rate": 2.216666666666667e-05,
"loss": 1.4368,
"step": 33500
},
{
"epoch": 5.33,
"learning_rate": 2.2e-05,
"loss": 1.436,
"step": 34000
},
{
"epoch": 5.41,
"learning_rate": 2.1833333333333333e-05,
"loss": 1.4394,
"step": 34500
},
{
"epoch": 5.49,
"learning_rate": 2.1666666666666667e-05,
"loss": 1.4404,
"step": 35000
},
{
"epoch": 5.56,
"learning_rate": 2.15e-05,
"loss": 1.4375,
"step": 35500
},
{
"epoch": 5.64,
"learning_rate": 2.1333333333333335e-05,
"loss": 1.4208,
"step": 36000
},
{
"epoch": 5.72,
"learning_rate": 2.116666666666667e-05,
"loss": 1.4296,
"step": 36500
},
{
"epoch": 5.8,
"learning_rate": 2.1e-05,
"loss": 1.4248,
"step": 37000
},
{
"epoch": 5.88,
"learning_rate": 2.0833333333333333e-05,
"loss": 1.4394,
"step": 37500
},
{
"epoch": 5.96,
"learning_rate": 2.0666666666666666e-05,
"loss": 1.4378,
"step": 38000
},
{
"epoch": 6.03,
"learning_rate": 2.05e-05,
"loss": 1.4251,
"step": 38500
},
{
"epoch": 6.11,
"learning_rate": 2.0333333333333334e-05,
"loss": 1.407,
"step": 39000
},
{
"epoch": 6.19,
"learning_rate": 2.0166666666666668e-05,
"loss": 1.4208,
"step": 39500
},
{
"epoch": 6.27,
"learning_rate": 1.9999999999999998e-05,
"loss": 1.406,
"step": 40000
},
{
"epoch": 6.35,
"learning_rate": 1.9833333333333332e-05,
"loss": 1.4219,
"step": 40500
},
{
"epoch": 6.43,
"learning_rate": 1.9666666666666666e-05,
"loss": 1.4185,
"step": 41000
},
{
"epoch": 6.5,
"learning_rate": 1.95e-05,
"loss": 1.3882,
"step": 41500
},
{
"epoch": 6.58,
"learning_rate": 1.9333333333333333e-05,
"loss": 1.4047,
"step": 42000
},
{
"epoch": 6.66,
"learning_rate": 1.9166666666666667e-05,
"loss": 1.4155,
"step": 42500
},
{
"epoch": 6.74,
"learning_rate": 1.9e-05,
"loss": 1.396,
"step": 43000
},
{
"epoch": 6.82,
"learning_rate": 1.8833333333333335e-05,
"loss": 1.4016,
"step": 43500
},
{
"epoch": 6.9,
"learning_rate": 1.866666666666667e-05,
"loss": 1.3975,
"step": 44000
},
{
"epoch": 6.97,
"learning_rate": 1.8500000000000002e-05,
"loss": 1.3904,
"step": 44500
},
{
"epoch": 7.05,
"learning_rate": 1.8333333333333336e-05,
"loss": 1.382,
"step": 45000
},
{
"epoch": 7.13,
"learning_rate": 1.8166666666666667e-05,
"loss": 1.3876,
"step": 45500
},
{
"epoch": 7.21,
"learning_rate": 1.8e-05,
"loss": 1.3915,
"step": 46000
},
{
"epoch": 7.29,
"learning_rate": 1.7833333333333334e-05,
"loss": 1.3985,
"step": 46500
},
{
"epoch": 7.37,
"learning_rate": 1.7666666666666668e-05,
"loss": 1.3913,
"step": 47000
},
{
"epoch": 7.44,
"learning_rate": 1.7500000000000002e-05,
"loss": 1.3887,
"step": 47500
},
{
"epoch": 7.52,
"learning_rate": 1.7333333333333332e-05,
"loss": 1.3785,
"step": 48000
},
{
"epoch": 7.6,
"learning_rate": 1.7166666666666666e-05,
"loss": 1.3788,
"step": 48500
},
{
"epoch": 7.68,
"learning_rate": 1.7e-05,
"loss": 1.3923,
"step": 49000
},
{
"epoch": 7.76,
"learning_rate": 1.6833333333333334e-05,
"loss": 1.3796,
"step": 49500
},
{
"epoch": 7.84,
"learning_rate": 1.6666666666666667e-05,
"loss": 1.3696,
"step": 50000
},
{
"epoch": 7.91,
"learning_rate": 1.65e-05,
"loss": 1.376,
"step": 50500
},
{
"epoch": 7.99,
"learning_rate": 1.633333333333333e-05,
"loss": 1.3733,
"step": 51000
},
{
"epoch": 8.07,
"learning_rate": 1.6166666666666665e-05,
"loss": 1.3717,
"step": 51500
},
{
"epoch": 8.15,
"learning_rate": 1.6e-05,
"loss": 1.3463,
"step": 52000
},
{
"epoch": 8.23,
"learning_rate": 1.5833333333333333e-05,
"loss": 1.3553,
"step": 52500
},
{
"epoch": 8.31,
"learning_rate": 1.5666666666666667e-05,
"loss": 1.3568,
"step": 53000
},
{
"epoch": 8.38,
"learning_rate": 1.55e-05,
"loss": 1.3556,
"step": 53500
},
{
"epoch": 8.46,
"learning_rate": 1.533333333333333e-05,
"loss": 1.3572,
"step": 54000
},
{
"epoch": 8.54,
"learning_rate": 1.5166666666666667e-05,
"loss": 1.3572,
"step": 54500
},
{
"epoch": 8.62,
"learning_rate": 1.5e-05,
"loss": 1.3641,
"step": 55000
},
{
"epoch": 8.7,
"learning_rate": 1.4833333333333334e-05,
"loss": 1.3648,
"step": 55500
},
{
"epoch": 8.78,
"learning_rate": 1.4666666666666666e-05,
"loss": 1.3579,
"step": 56000
},
{
"epoch": 8.85,
"learning_rate": 1.45e-05,
"loss": 1.3595,
"step": 56500
},
{
"epoch": 8.93,
"learning_rate": 1.4333333333333334e-05,
"loss": 1.3608,
"step": 57000
},
{
"epoch": 9.01,
"learning_rate": 1.4166666666666666e-05,
"loss": 1.3583,
"step": 57500
},
{
"epoch": 9.09,
"learning_rate": 1.4e-05,
"loss": 1.356,
"step": 58000
},
{
"epoch": 9.17,
"learning_rate": 1.3833333333333335e-05,
"loss": 1.34,
"step": 58500
},
{
"epoch": 9.25,
"learning_rate": 1.3666666666666667e-05,
"loss": 1.342,
"step": 59000
},
{
"epoch": 9.32,
"learning_rate": 1.3500000000000001e-05,
"loss": 1.3387,
"step": 59500
},
{
"epoch": 9.4,
"learning_rate": 1.3333333333333333e-05,
"loss": 1.3407,
"step": 60000
}
],
"max_steps": 100000,
"num_train_epochs": 16,
"total_flos": 7.897815812056896e+16,
"trial_name": null,
"trial_params": null
}