{ "best_metric": null, "best_model_checkpoint": null, "epoch": 9.402914903620122, "global_step": 60000, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.08, "learning_rate": 1.5e-06, "loss": 2.1842, "step": 500 }, { "epoch": 0.16, "learning_rate": 3e-06, "loss": 1.9448, "step": 1000 }, { "epoch": 0.24, "learning_rate": 4.5e-06, "loss": 1.8931, "step": 1500 }, { "epoch": 0.31, "learning_rate": 6e-06, "loss": 1.8272, "step": 2000 }, { "epoch": 0.39, "learning_rate": 7.5e-06, "loss": 1.7958, "step": 2500 }, { "epoch": 0.47, "learning_rate": 9e-06, "loss": 1.7568, "step": 3000 }, { "epoch": 0.55, "learning_rate": 1.05e-05, "loss": 1.7422, "step": 3500 }, { "epoch": 0.63, "learning_rate": 1.2e-05, "loss": 1.7167, "step": 4000 }, { "epoch": 0.71, "learning_rate": 1.3500000000000001e-05, "loss": 1.6993, "step": 4500 }, { "epoch": 0.78, "learning_rate": 1.5e-05, "loss": 1.68, "step": 5000 }, { "epoch": 0.86, "learning_rate": 1.65e-05, "loss": 1.6686, "step": 5500 }, { "epoch": 0.94, "learning_rate": 1.8e-05, "loss": 1.6805, "step": 6000 }, { "epoch": 1.02, "learning_rate": 1.95e-05, "loss": 1.6662, "step": 6500 }, { "epoch": 1.1, "learning_rate": 2.1e-05, "loss": 1.6479, "step": 7000 }, { "epoch": 1.18, "learning_rate": 2.25e-05, "loss": 1.6301, "step": 7500 }, { "epoch": 1.25, "learning_rate": 2.4e-05, "loss": 1.639, "step": 8000 }, { "epoch": 1.33, "learning_rate": 2.55e-05, "loss": 1.6367, "step": 8500 }, { "epoch": 1.41, "learning_rate": 2.7000000000000002e-05, "loss": 1.6264, "step": 9000 }, { "epoch": 1.49, "learning_rate": 2.8499999999999998e-05, "loss": 1.625, "step": 9500 }, { "epoch": 1.57, "learning_rate": 3e-05, "loss": 1.6288, "step": 10000 }, { "epoch": 1.65, "learning_rate": 2.9833333333333335e-05, "loss": 1.6335, "step": 10500 }, { "epoch": 1.72, "learning_rate": 2.966666666666667e-05, "loss": 1.6283, "step": 11000 }, { "epoch": 1.8, "learning_rate": 2.95e-05, "loss": 1.6066, "step": 11500 }, { "epoch": 1.88, "learning_rate": 2.9333333333333333e-05, "loss": 1.6155, "step": 12000 }, { "epoch": 1.96, "learning_rate": 2.9166666666666666e-05, "loss": 1.598, "step": 12500 }, { "epoch": 2.04, "learning_rate": 2.9e-05, "loss": 1.5993, "step": 13000 }, { "epoch": 2.12, "learning_rate": 2.8833333333333334e-05, "loss": 1.5692, "step": 13500 }, { "epoch": 2.19, "learning_rate": 2.8666666666666668e-05, "loss": 1.5718, "step": 14000 }, { "epoch": 2.27, "learning_rate": 2.8499999999999998e-05, "loss": 1.5731, "step": 14500 }, { "epoch": 2.35, "learning_rate": 2.8333333333333332e-05, "loss": 1.5491, "step": 15000 }, { "epoch": 2.43, "learning_rate": 2.8166666666666666e-05, "loss": 1.5503, "step": 15500 }, { "epoch": 2.51, "learning_rate": 2.8e-05, "loss": 1.5621, "step": 16000 }, { "epoch": 2.59, "learning_rate": 2.7833333333333337e-05, "loss": 1.5501, "step": 16500 }, { "epoch": 2.66, "learning_rate": 2.766666666666667e-05, "loss": 1.5406, "step": 17000 }, { "epoch": 2.74, "learning_rate": 2.75e-05, "loss": 1.5413, "step": 17500 }, { "epoch": 2.82, "learning_rate": 2.7333333333333335e-05, "loss": 1.5442, "step": 18000 }, { "epoch": 2.9, "learning_rate": 2.716666666666667e-05, "loss": 1.5369, "step": 18500 }, { "epoch": 2.98, "learning_rate": 2.7000000000000002e-05, "loss": 1.5209, "step": 19000 }, { "epoch": 3.06, "learning_rate": 2.6833333333333336e-05, "loss": 1.5246, "step": 19500 }, { "epoch": 3.13, "learning_rate": 2.6666666666666667e-05, "loss": 1.5164, "step": 20000 }, { "epoch": 3.21, "learning_rate": 2.65e-05, "loss": 1.5084, "step": 20500 }, { "epoch": 3.29, "learning_rate": 2.6333333333333334e-05, "loss": 1.5111, "step": 21000 }, { "epoch": 3.37, "learning_rate": 2.6166666666666668e-05, "loss": 1.5255, "step": 21500 }, { "epoch": 3.45, "learning_rate": 2.6000000000000002e-05, "loss": 1.5016, "step": 22000 }, { "epoch": 3.53, "learning_rate": 2.5833333333333336e-05, "loss": 1.5036, "step": 22500 }, { "epoch": 3.6, "learning_rate": 2.5666666666666666e-05, "loss": 1.5048, "step": 23000 }, { "epoch": 3.68, "learning_rate": 2.55e-05, "loss": 1.501, "step": 23500 }, { "epoch": 3.76, "learning_rate": 2.5333333333333334e-05, "loss": 1.5157, "step": 24000 }, { "epoch": 3.84, "learning_rate": 2.5166666666666667e-05, "loss": 1.4914, "step": 24500 }, { "epoch": 3.92, "learning_rate": 2.5e-05, "loss": 1.4933, "step": 25000 }, { "epoch": 4.0, "learning_rate": 2.483333333333333e-05, "loss": 1.4989, "step": 25500 }, { "epoch": 4.07, "learning_rate": 2.4666666666666665e-05, "loss": 1.4849, "step": 26000 }, { "epoch": 4.15, "learning_rate": 2.45e-05, "loss": 1.4722, "step": 26500 }, { "epoch": 4.23, "learning_rate": 2.4333333333333333e-05, "loss": 1.4765, "step": 27000 }, { "epoch": 4.31, "learning_rate": 2.4166666666666667e-05, "loss": 1.4743, "step": 27500 }, { "epoch": 4.39, "learning_rate": 2.4e-05, "loss": 1.4799, "step": 28000 }, { "epoch": 4.47, "learning_rate": 2.383333333333333e-05, "loss": 1.4717, "step": 28500 }, { "epoch": 4.54, "learning_rate": 2.3666666666666665e-05, "loss": 1.4763, "step": 29000 }, { "epoch": 4.62, "learning_rate": 2.3500000000000002e-05, "loss": 1.4742, "step": 29500 }, { "epoch": 4.7, "learning_rate": 2.3333333333333336e-05, "loss": 1.4749, "step": 30000 }, { "epoch": 4.78, "learning_rate": 2.316666666666667e-05, "loss": 1.4612, "step": 30500 }, { "epoch": 4.86, "learning_rate": 2.3000000000000003e-05, "loss": 1.4461, "step": 31000 }, { "epoch": 4.94, "learning_rate": 2.2833333333333334e-05, "loss": 1.4644, "step": 31500 }, { "epoch": 5.01, "learning_rate": 2.2666666666666668e-05, "loss": 1.4686, "step": 32000 }, { "epoch": 5.09, "learning_rate": 2.25e-05, "loss": 1.4357, "step": 32500 }, { "epoch": 5.17, "learning_rate": 2.2333333333333335e-05, "loss": 1.4432, "step": 33000 }, { "epoch": 5.25, "learning_rate": 2.216666666666667e-05, "loss": 1.4368, "step": 33500 }, { "epoch": 5.33, "learning_rate": 2.2e-05, "loss": 1.436, "step": 34000 }, { "epoch": 5.41, "learning_rate": 2.1833333333333333e-05, "loss": 1.4394, "step": 34500 }, { "epoch": 5.49, "learning_rate": 2.1666666666666667e-05, "loss": 1.4404, "step": 35000 }, { "epoch": 5.56, "learning_rate": 2.15e-05, "loss": 1.4375, "step": 35500 }, { "epoch": 5.64, "learning_rate": 2.1333333333333335e-05, "loss": 1.4208, "step": 36000 }, { "epoch": 5.72, "learning_rate": 2.116666666666667e-05, "loss": 1.4296, "step": 36500 }, { "epoch": 5.8, "learning_rate": 2.1e-05, "loss": 1.4248, "step": 37000 }, { "epoch": 5.88, "learning_rate": 2.0833333333333333e-05, "loss": 1.4394, "step": 37500 }, { "epoch": 5.96, "learning_rate": 2.0666666666666666e-05, "loss": 1.4378, "step": 38000 }, { "epoch": 6.03, "learning_rate": 2.05e-05, "loss": 1.4251, "step": 38500 }, { "epoch": 6.11, "learning_rate": 2.0333333333333334e-05, "loss": 1.407, "step": 39000 }, { "epoch": 6.19, "learning_rate": 2.0166666666666668e-05, "loss": 1.4208, "step": 39500 }, { "epoch": 6.27, "learning_rate": 1.9999999999999998e-05, "loss": 1.406, "step": 40000 }, { "epoch": 6.35, "learning_rate": 1.9833333333333332e-05, "loss": 1.4219, "step": 40500 }, { "epoch": 6.43, "learning_rate": 1.9666666666666666e-05, "loss": 1.4185, "step": 41000 }, { "epoch": 6.5, "learning_rate": 1.95e-05, "loss": 1.3882, "step": 41500 }, { "epoch": 6.58, "learning_rate": 1.9333333333333333e-05, "loss": 1.4047, "step": 42000 }, { "epoch": 6.66, "learning_rate": 1.9166666666666667e-05, "loss": 1.4155, "step": 42500 }, { "epoch": 6.74, "learning_rate": 1.9e-05, "loss": 1.396, "step": 43000 }, { "epoch": 6.82, "learning_rate": 1.8833333333333335e-05, "loss": 1.4016, "step": 43500 }, { "epoch": 6.9, "learning_rate": 1.866666666666667e-05, "loss": 1.3975, "step": 44000 }, { "epoch": 6.97, "learning_rate": 1.8500000000000002e-05, "loss": 1.3904, "step": 44500 }, { "epoch": 7.05, "learning_rate": 1.8333333333333336e-05, "loss": 1.382, "step": 45000 }, { "epoch": 7.13, "learning_rate": 1.8166666666666667e-05, "loss": 1.3876, "step": 45500 }, { "epoch": 7.21, "learning_rate": 1.8e-05, "loss": 1.3915, "step": 46000 }, { "epoch": 7.29, "learning_rate": 1.7833333333333334e-05, "loss": 1.3985, "step": 46500 }, { "epoch": 7.37, "learning_rate": 1.7666666666666668e-05, "loss": 1.3913, "step": 47000 }, { "epoch": 7.44, "learning_rate": 1.7500000000000002e-05, "loss": 1.3887, "step": 47500 }, { "epoch": 7.52, "learning_rate": 1.7333333333333332e-05, "loss": 1.3785, "step": 48000 }, { "epoch": 7.6, "learning_rate": 1.7166666666666666e-05, "loss": 1.3788, "step": 48500 }, { "epoch": 7.68, "learning_rate": 1.7e-05, "loss": 1.3923, "step": 49000 }, { "epoch": 7.76, "learning_rate": 1.6833333333333334e-05, "loss": 1.3796, "step": 49500 }, { "epoch": 7.84, "learning_rate": 1.6666666666666667e-05, "loss": 1.3696, "step": 50000 }, { "epoch": 7.91, "learning_rate": 1.65e-05, "loss": 1.376, "step": 50500 }, { "epoch": 7.99, "learning_rate": 1.633333333333333e-05, "loss": 1.3733, "step": 51000 }, { "epoch": 8.07, "learning_rate": 1.6166666666666665e-05, "loss": 1.3717, "step": 51500 }, { "epoch": 8.15, "learning_rate": 1.6e-05, "loss": 1.3463, "step": 52000 }, { "epoch": 8.23, "learning_rate": 1.5833333333333333e-05, "loss": 1.3553, "step": 52500 }, { "epoch": 8.31, "learning_rate": 1.5666666666666667e-05, "loss": 1.3568, "step": 53000 }, { "epoch": 8.38, "learning_rate": 1.55e-05, "loss": 1.3556, "step": 53500 }, { "epoch": 8.46, "learning_rate": 1.533333333333333e-05, "loss": 1.3572, "step": 54000 }, { "epoch": 8.54, "learning_rate": 1.5166666666666667e-05, "loss": 1.3572, "step": 54500 }, { "epoch": 8.62, "learning_rate": 1.5e-05, "loss": 1.3641, "step": 55000 }, { "epoch": 8.7, "learning_rate": 1.4833333333333334e-05, "loss": 1.3648, "step": 55500 }, { "epoch": 8.78, "learning_rate": 1.4666666666666666e-05, "loss": 1.3579, "step": 56000 }, { "epoch": 8.85, "learning_rate": 1.45e-05, "loss": 1.3595, "step": 56500 }, { "epoch": 8.93, "learning_rate": 1.4333333333333334e-05, "loss": 1.3608, "step": 57000 }, { "epoch": 9.01, "learning_rate": 1.4166666666666666e-05, "loss": 1.3583, "step": 57500 }, { "epoch": 9.09, "learning_rate": 1.4e-05, "loss": 1.356, "step": 58000 }, { "epoch": 9.17, "learning_rate": 1.3833333333333335e-05, "loss": 1.34, "step": 58500 }, { "epoch": 9.25, "learning_rate": 1.3666666666666667e-05, "loss": 1.342, "step": 59000 }, { "epoch": 9.32, "learning_rate": 1.3500000000000001e-05, "loss": 1.3387, "step": 59500 }, { "epoch": 9.4, "learning_rate": 1.3333333333333333e-05, "loss": 1.3407, "step": 60000 } ], "max_steps": 100000, "num_train_epochs": 16, "total_flos": 7.897815812056896e+16, "trial_name": null, "trial_params": null }