|
{ |
|
"best_metric": null, |
|
"best_model_checkpoint": null, |
|
"epoch": 4.0, |
|
"eval_steps": 500, |
|
"global_step": 60000, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.01, |
|
"learning_rate": 4.991666666666667e-05, |
|
"loss": 2.8222, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 0.03, |
|
"learning_rate": 4.9833333333333336e-05, |
|
"loss": 2.5582, |
|
"step": 400 |
|
}, |
|
{ |
|
"epoch": 0.04, |
|
"learning_rate": 4.975e-05, |
|
"loss": 2.4362, |
|
"step": 600 |
|
}, |
|
{ |
|
"epoch": 0.05, |
|
"learning_rate": 4.966666666666667e-05, |
|
"loss": 2.4416, |
|
"step": 800 |
|
}, |
|
{ |
|
"epoch": 0.07, |
|
"learning_rate": 4.958333333333334e-05, |
|
"loss": 2.4125, |
|
"step": 1000 |
|
}, |
|
{ |
|
"epoch": 0.08, |
|
"learning_rate": 4.9500000000000004e-05, |
|
"loss": 2.4168, |
|
"step": 1200 |
|
}, |
|
{ |
|
"epoch": 0.09, |
|
"learning_rate": 4.9416666666666664e-05, |
|
"loss": 2.3243, |
|
"step": 1400 |
|
}, |
|
{ |
|
"epoch": 0.11, |
|
"learning_rate": 4.933333333333334e-05, |
|
"loss": 2.2884, |
|
"step": 1600 |
|
}, |
|
{ |
|
"epoch": 0.12, |
|
"learning_rate": 4.9250000000000004e-05, |
|
"loss": 2.3186, |
|
"step": 1800 |
|
}, |
|
{ |
|
"epoch": 0.13, |
|
"learning_rate": 4.9166666666666665e-05, |
|
"loss": 2.2894, |
|
"step": 2000 |
|
}, |
|
{ |
|
"epoch": 0.15, |
|
"learning_rate": 4.908333333333334e-05, |
|
"loss": 2.2846, |
|
"step": 2200 |
|
}, |
|
{ |
|
"epoch": 0.16, |
|
"learning_rate": 4.9e-05, |
|
"loss": 2.2972, |
|
"step": 2400 |
|
}, |
|
{ |
|
"epoch": 0.17, |
|
"learning_rate": 4.891666666666667e-05, |
|
"loss": 2.2665, |
|
"step": 2600 |
|
}, |
|
{ |
|
"epoch": 0.19, |
|
"learning_rate": 4.883333333333334e-05, |
|
"loss": 2.2968, |
|
"step": 2800 |
|
}, |
|
{ |
|
"epoch": 0.2, |
|
"learning_rate": 4.875e-05, |
|
"loss": 2.2658, |
|
"step": 3000 |
|
}, |
|
{ |
|
"epoch": 0.21, |
|
"learning_rate": 4.866666666666667e-05, |
|
"loss": 2.2017, |
|
"step": 3200 |
|
}, |
|
{ |
|
"epoch": 0.23, |
|
"learning_rate": 4.858333333333333e-05, |
|
"loss": 2.2649, |
|
"step": 3400 |
|
}, |
|
{ |
|
"epoch": 0.24, |
|
"learning_rate": 4.85e-05, |
|
"loss": 2.2387, |
|
"step": 3600 |
|
}, |
|
{ |
|
"epoch": 0.25, |
|
"learning_rate": 4.8416666666666673e-05, |
|
"loss": 2.2108, |
|
"step": 3800 |
|
}, |
|
{ |
|
"epoch": 0.27, |
|
"learning_rate": 4.8333333333333334e-05, |
|
"loss": 2.247, |
|
"step": 4000 |
|
}, |
|
{ |
|
"epoch": 0.28, |
|
"learning_rate": 4.825e-05, |
|
"loss": 2.2149, |
|
"step": 4200 |
|
}, |
|
{ |
|
"epoch": 0.29, |
|
"learning_rate": 4.8166666666666674e-05, |
|
"loss": 2.2278, |
|
"step": 4400 |
|
}, |
|
{ |
|
"epoch": 0.31, |
|
"learning_rate": 4.8083333333333334e-05, |
|
"loss": 2.1772, |
|
"step": 4600 |
|
}, |
|
{ |
|
"epoch": 0.32, |
|
"learning_rate": 4.8e-05, |
|
"loss": 2.1967, |
|
"step": 4800 |
|
}, |
|
{ |
|
"epoch": 0.33, |
|
"learning_rate": 4.791666666666667e-05, |
|
"loss": 2.1831, |
|
"step": 5000 |
|
}, |
|
{ |
|
"epoch": 0.35, |
|
"learning_rate": 4.7833333333333335e-05, |
|
"loss": 2.1761, |
|
"step": 5200 |
|
}, |
|
{ |
|
"epoch": 0.36, |
|
"learning_rate": 4.775e-05, |
|
"loss": 2.1688, |
|
"step": 5400 |
|
}, |
|
{ |
|
"epoch": 0.37, |
|
"learning_rate": 4.766666666666667e-05, |
|
"loss": 2.1721, |
|
"step": 5600 |
|
}, |
|
{ |
|
"epoch": 0.39, |
|
"learning_rate": 4.7583333333333336e-05, |
|
"loss": 2.1762, |
|
"step": 5800 |
|
}, |
|
{ |
|
"epoch": 0.4, |
|
"learning_rate": 4.75e-05, |
|
"loss": 2.187, |
|
"step": 6000 |
|
}, |
|
{ |
|
"epoch": 0.41, |
|
"learning_rate": 4.741666666666667e-05, |
|
"loss": 2.1862, |
|
"step": 6200 |
|
}, |
|
{ |
|
"epoch": 0.43, |
|
"learning_rate": 4.7333333333333336e-05, |
|
"loss": 2.1871, |
|
"step": 6400 |
|
}, |
|
{ |
|
"epoch": 0.44, |
|
"learning_rate": 4.7249999999999997e-05, |
|
"loss": 2.1786, |
|
"step": 6600 |
|
}, |
|
{ |
|
"epoch": 0.45, |
|
"learning_rate": 4.716666666666667e-05, |
|
"loss": 2.1534, |
|
"step": 6800 |
|
}, |
|
{ |
|
"epoch": 0.47, |
|
"learning_rate": 4.708333333333334e-05, |
|
"loss": 2.1687, |
|
"step": 7000 |
|
}, |
|
{ |
|
"epoch": 0.48, |
|
"learning_rate": 4.7e-05, |
|
"loss": 2.15, |
|
"step": 7200 |
|
}, |
|
{ |
|
"epoch": 0.49, |
|
"learning_rate": 4.691666666666667e-05, |
|
"loss": 2.1483, |
|
"step": 7400 |
|
}, |
|
{ |
|
"epoch": 0.51, |
|
"learning_rate": 4.683333333333334e-05, |
|
"loss": 2.1239, |
|
"step": 7600 |
|
}, |
|
{ |
|
"epoch": 0.52, |
|
"learning_rate": 4.6750000000000005e-05, |
|
"loss": 2.1506, |
|
"step": 7800 |
|
}, |
|
{ |
|
"epoch": 0.53, |
|
"learning_rate": 4.666666666666667e-05, |
|
"loss": 2.147, |
|
"step": 8000 |
|
}, |
|
{ |
|
"epoch": 0.55, |
|
"learning_rate": 4.658333333333333e-05, |
|
"loss": 2.1294, |
|
"step": 8200 |
|
}, |
|
{ |
|
"epoch": 0.56, |
|
"learning_rate": 4.6500000000000005e-05, |
|
"loss": 2.1469, |
|
"step": 8400 |
|
}, |
|
{ |
|
"epoch": 0.57, |
|
"learning_rate": 4.641666666666667e-05, |
|
"loss": 2.1251, |
|
"step": 8600 |
|
}, |
|
{ |
|
"epoch": 0.59, |
|
"learning_rate": 4.633333333333333e-05, |
|
"loss": 2.1247, |
|
"step": 8800 |
|
}, |
|
{ |
|
"epoch": 0.6, |
|
"learning_rate": 4.6250000000000006e-05, |
|
"loss": 2.1311, |
|
"step": 9000 |
|
}, |
|
{ |
|
"epoch": 0.61, |
|
"learning_rate": 4.6166666666666666e-05, |
|
"loss": 2.0947, |
|
"step": 9200 |
|
}, |
|
{ |
|
"epoch": 0.63, |
|
"learning_rate": 4.608333333333333e-05, |
|
"loss": 2.1243, |
|
"step": 9400 |
|
}, |
|
{ |
|
"epoch": 0.64, |
|
"learning_rate": 4.600000000000001e-05, |
|
"loss": 2.1192, |
|
"step": 9600 |
|
}, |
|
{ |
|
"epoch": 0.65, |
|
"learning_rate": 4.591666666666667e-05, |
|
"loss": 2.1332, |
|
"step": 9800 |
|
}, |
|
{ |
|
"epoch": 0.67, |
|
"learning_rate": 4.5833333333333334e-05, |
|
"loss": 2.1301, |
|
"step": 10000 |
|
}, |
|
{ |
|
"epoch": 0.68, |
|
"learning_rate": 4.575e-05, |
|
"loss": 2.0833, |
|
"step": 10200 |
|
}, |
|
{ |
|
"epoch": 0.69, |
|
"learning_rate": 4.566666666666667e-05, |
|
"loss": 2.1089, |
|
"step": 10400 |
|
}, |
|
{ |
|
"epoch": 0.71, |
|
"learning_rate": 4.5583333333333335e-05, |
|
"loss": 2.1184, |
|
"step": 10600 |
|
}, |
|
{ |
|
"epoch": 0.72, |
|
"learning_rate": 4.55e-05, |
|
"loss": 2.0741, |
|
"step": 10800 |
|
}, |
|
{ |
|
"epoch": 0.73, |
|
"learning_rate": 4.541666666666667e-05, |
|
"loss": 2.0845, |
|
"step": 11000 |
|
}, |
|
{ |
|
"epoch": 0.75, |
|
"learning_rate": 4.5333333333333335e-05, |
|
"loss": 2.0746, |
|
"step": 11200 |
|
}, |
|
{ |
|
"epoch": 0.76, |
|
"learning_rate": 4.525e-05, |
|
"loss": 2.0762, |
|
"step": 11400 |
|
}, |
|
{ |
|
"epoch": 0.77, |
|
"learning_rate": 4.516666666666667e-05, |
|
"loss": 2.1076, |
|
"step": 11600 |
|
}, |
|
{ |
|
"epoch": 0.79, |
|
"learning_rate": 4.5083333333333336e-05, |
|
"loss": 2.1083, |
|
"step": 11800 |
|
}, |
|
{ |
|
"epoch": 0.8, |
|
"learning_rate": 4.5e-05, |
|
"loss": 2.0773, |
|
"step": 12000 |
|
}, |
|
{ |
|
"epoch": 0.81, |
|
"learning_rate": 4.491666666666667e-05, |
|
"loss": 2.0925, |
|
"step": 12200 |
|
}, |
|
{ |
|
"epoch": 0.83, |
|
"learning_rate": 4.483333333333333e-05, |
|
"loss": 2.0854, |
|
"step": 12400 |
|
}, |
|
{ |
|
"epoch": 0.84, |
|
"learning_rate": 4.4750000000000004e-05, |
|
"loss": 2.0874, |
|
"step": 12600 |
|
}, |
|
{ |
|
"epoch": 0.85, |
|
"learning_rate": 4.466666666666667e-05, |
|
"loss": 2.0647, |
|
"step": 12800 |
|
}, |
|
{ |
|
"epoch": 0.87, |
|
"learning_rate": 4.458333333333334e-05, |
|
"loss": 2.0928, |
|
"step": 13000 |
|
}, |
|
{ |
|
"epoch": 0.88, |
|
"learning_rate": 4.4500000000000004e-05, |
|
"loss": 2.0912, |
|
"step": 13200 |
|
}, |
|
{ |
|
"epoch": 0.89, |
|
"learning_rate": 4.4416666666666664e-05, |
|
"loss": 2.0787, |
|
"step": 13400 |
|
}, |
|
{ |
|
"epoch": 0.91, |
|
"learning_rate": 4.433333333333334e-05, |
|
"loss": 2.1032, |
|
"step": 13600 |
|
}, |
|
{ |
|
"epoch": 0.92, |
|
"learning_rate": 4.4250000000000005e-05, |
|
"loss": 2.0773, |
|
"step": 13800 |
|
}, |
|
{ |
|
"epoch": 0.93, |
|
"learning_rate": 4.4166666666666665e-05, |
|
"loss": 2.0548, |
|
"step": 14000 |
|
}, |
|
{ |
|
"epoch": 0.95, |
|
"learning_rate": 4.408333333333334e-05, |
|
"loss": 2.0986, |
|
"step": 14200 |
|
}, |
|
{ |
|
"epoch": 0.96, |
|
"learning_rate": 4.4000000000000006e-05, |
|
"loss": 2.0655, |
|
"step": 14400 |
|
}, |
|
{ |
|
"epoch": 0.97, |
|
"learning_rate": 4.3916666666666666e-05, |
|
"loss": 2.1006, |
|
"step": 14600 |
|
}, |
|
{ |
|
"epoch": 0.99, |
|
"learning_rate": 4.383333333333334e-05, |
|
"loss": 2.1052, |
|
"step": 14800 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"learning_rate": 4.375e-05, |
|
"loss": 2.0961, |
|
"step": 15000 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"eval_gen_len": 16.256399703679314, |
|
"eval_loss": 2.459820032119751, |
|
"eval_rouge1": 34.3335, |
|
"eval_rouge2": 13.9515, |
|
"eval_rougeL": 30.3941, |
|
"eval_rougeLsum": 30.4421, |
|
"eval_runtime": 3000.7164, |
|
"eval_samples_per_second": 8.097, |
|
"eval_steps_per_second": 2.025, |
|
"step": 15000 |
|
}, |
|
{ |
|
"epoch": 1.01, |
|
"learning_rate": 4.3666666666666666e-05, |
|
"loss": 1.8835, |
|
"step": 15200 |
|
}, |
|
{ |
|
"epoch": 1.03, |
|
"learning_rate": 4.358333333333334e-05, |
|
"loss": 1.8978, |
|
"step": 15400 |
|
}, |
|
{ |
|
"epoch": 1.04, |
|
"learning_rate": 4.35e-05, |
|
"loss": 1.8752, |
|
"step": 15600 |
|
}, |
|
{ |
|
"epoch": 1.05, |
|
"learning_rate": 4.341666666666667e-05, |
|
"loss": 1.8804, |
|
"step": 15800 |
|
}, |
|
{ |
|
"epoch": 1.07, |
|
"learning_rate": 4.3333333333333334e-05, |
|
"loss": 1.8755, |
|
"step": 16000 |
|
}, |
|
{ |
|
"epoch": 1.08, |
|
"learning_rate": 4.325e-05, |
|
"loss": 1.8683, |
|
"step": 16200 |
|
}, |
|
{ |
|
"epoch": 1.09, |
|
"learning_rate": 4.316666666666667e-05, |
|
"loss": 1.8997, |
|
"step": 16400 |
|
}, |
|
{ |
|
"epoch": 1.11, |
|
"learning_rate": 4.3083333333333335e-05, |
|
"loss": 1.9106, |
|
"step": 16600 |
|
}, |
|
{ |
|
"epoch": 1.12, |
|
"learning_rate": 4.3e-05, |
|
"loss": 1.8868, |
|
"step": 16800 |
|
}, |
|
{ |
|
"epoch": 1.13, |
|
"learning_rate": 4.291666666666667e-05, |
|
"loss": 1.8873, |
|
"step": 17000 |
|
}, |
|
{ |
|
"epoch": 1.15, |
|
"learning_rate": 4.2833333333333335e-05, |
|
"loss": 1.8927, |
|
"step": 17200 |
|
}, |
|
{ |
|
"epoch": 1.16, |
|
"learning_rate": 4.275e-05, |
|
"loss": 1.8805, |
|
"step": 17400 |
|
}, |
|
{ |
|
"epoch": 1.17, |
|
"learning_rate": 4.266666666666667e-05, |
|
"loss": 1.8922, |
|
"step": 17600 |
|
}, |
|
{ |
|
"epoch": 1.19, |
|
"learning_rate": 4.2583333333333336e-05, |
|
"loss": 1.9085, |
|
"step": 17800 |
|
}, |
|
{ |
|
"epoch": 1.2, |
|
"learning_rate": 4.25e-05, |
|
"loss": 1.8665, |
|
"step": 18000 |
|
}, |
|
{ |
|
"epoch": 1.21, |
|
"learning_rate": 4.241666666666667e-05, |
|
"loss": 1.8555, |
|
"step": 18200 |
|
}, |
|
{ |
|
"epoch": 1.23, |
|
"learning_rate": 4.233333333333334e-05, |
|
"loss": 1.8853, |
|
"step": 18400 |
|
}, |
|
{ |
|
"epoch": 1.24, |
|
"learning_rate": 4.2250000000000004e-05, |
|
"loss": 1.9071, |
|
"step": 18600 |
|
}, |
|
{ |
|
"epoch": 1.25, |
|
"learning_rate": 4.216666666666667e-05, |
|
"loss": 1.8847, |
|
"step": 18800 |
|
}, |
|
{ |
|
"epoch": 1.27, |
|
"learning_rate": 4.208333333333334e-05, |
|
"loss": 1.9027, |
|
"step": 19000 |
|
}, |
|
{ |
|
"epoch": 1.28, |
|
"learning_rate": 4.2e-05, |
|
"loss": 1.9023, |
|
"step": 19200 |
|
}, |
|
{ |
|
"epoch": 1.29, |
|
"learning_rate": 4.191666666666667e-05, |
|
"loss": 1.9048, |
|
"step": 19400 |
|
}, |
|
{ |
|
"epoch": 1.31, |
|
"learning_rate": 4.183333333333334e-05, |
|
"loss": 1.8979, |
|
"step": 19600 |
|
}, |
|
{ |
|
"epoch": 1.32, |
|
"learning_rate": 4.175e-05, |
|
"loss": 1.8956, |
|
"step": 19800 |
|
}, |
|
{ |
|
"epoch": 1.33, |
|
"learning_rate": 4.166666666666667e-05, |
|
"loss": 1.8993, |
|
"step": 20000 |
|
}, |
|
{ |
|
"epoch": 1.35, |
|
"learning_rate": 4.158333333333333e-05, |
|
"loss": 1.876, |
|
"step": 20200 |
|
}, |
|
{ |
|
"epoch": 1.36, |
|
"learning_rate": 4.15e-05, |
|
"loss": 1.9184, |
|
"step": 20400 |
|
}, |
|
{ |
|
"epoch": 1.37, |
|
"learning_rate": 4.141666666666667e-05, |
|
"loss": 1.9094, |
|
"step": 20600 |
|
}, |
|
{ |
|
"epoch": 1.39, |
|
"learning_rate": 4.133333333333333e-05, |
|
"loss": 1.8598, |
|
"step": 20800 |
|
}, |
|
{ |
|
"epoch": 1.4, |
|
"learning_rate": 4.125e-05, |
|
"loss": 1.8995, |
|
"step": 21000 |
|
}, |
|
{ |
|
"epoch": 1.41, |
|
"learning_rate": 4.116666666666667e-05, |
|
"loss": 1.9186, |
|
"step": 21200 |
|
}, |
|
{ |
|
"epoch": 1.43, |
|
"learning_rate": 4.1083333333333334e-05, |
|
"loss": 1.8976, |
|
"step": 21400 |
|
}, |
|
{ |
|
"epoch": 1.44, |
|
"learning_rate": 4.1e-05, |
|
"loss": 1.8875, |
|
"step": 21600 |
|
}, |
|
{ |
|
"epoch": 1.45, |
|
"learning_rate": 4.091666666666667e-05, |
|
"loss": 1.8815, |
|
"step": 21800 |
|
}, |
|
{ |
|
"epoch": 1.47, |
|
"learning_rate": 4.0833333333333334e-05, |
|
"loss": 1.9261, |
|
"step": 22000 |
|
}, |
|
{ |
|
"epoch": 1.48, |
|
"learning_rate": 4.075e-05, |
|
"loss": 1.8922, |
|
"step": 22200 |
|
}, |
|
{ |
|
"epoch": 1.49, |
|
"learning_rate": 4.066666666666667e-05, |
|
"loss": 1.9051, |
|
"step": 22400 |
|
}, |
|
{ |
|
"epoch": 1.51, |
|
"learning_rate": 4.0583333333333335e-05, |
|
"loss": 1.9048, |
|
"step": 22600 |
|
}, |
|
{ |
|
"epoch": 1.52, |
|
"learning_rate": 4.05e-05, |
|
"loss": 1.8568, |
|
"step": 22800 |
|
}, |
|
{ |
|
"epoch": 1.53, |
|
"learning_rate": 4.041666666666667e-05, |
|
"loss": 1.8862, |
|
"step": 23000 |
|
}, |
|
{ |
|
"epoch": 1.55, |
|
"learning_rate": 4.0333333333333336e-05, |
|
"loss": 1.894, |
|
"step": 23200 |
|
}, |
|
{ |
|
"epoch": 1.56, |
|
"learning_rate": 4.025e-05, |
|
"loss": 1.8952, |
|
"step": 23400 |
|
}, |
|
{ |
|
"epoch": 1.57, |
|
"learning_rate": 4.016666666666667e-05, |
|
"loss": 1.9102, |
|
"step": 23600 |
|
}, |
|
{ |
|
"epoch": 1.59, |
|
"learning_rate": 4.0083333333333336e-05, |
|
"loss": 1.907, |
|
"step": 23800 |
|
}, |
|
{ |
|
"epoch": 1.6, |
|
"learning_rate": 4e-05, |
|
"loss": 1.8813, |
|
"step": 24000 |
|
}, |
|
{ |
|
"epoch": 1.61, |
|
"learning_rate": 3.991666666666667e-05, |
|
"loss": 1.8935, |
|
"step": 24200 |
|
}, |
|
{ |
|
"epoch": 1.63, |
|
"learning_rate": 3.983333333333333e-05, |
|
"loss": 1.9084, |
|
"step": 24400 |
|
}, |
|
{ |
|
"epoch": 1.64, |
|
"learning_rate": 3.9750000000000004e-05, |
|
"loss": 1.9116, |
|
"step": 24600 |
|
}, |
|
{ |
|
"epoch": 1.65, |
|
"learning_rate": 3.966666666666667e-05, |
|
"loss": 1.8936, |
|
"step": 24800 |
|
}, |
|
{ |
|
"epoch": 1.67, |
|
"learning_rate": 3.958333333333333e-05, |
|
"loss": 1.894, |
|
"step": 25000 |
|
}, |
|
{ |
|
"epoch": 1.68, |
|
"learning_rate": 3.9500000000000005e-05, |
|
"loss": 1.8896, |
|
"step": 25200 |
|
}, |
|
{ |
|
"epoch": 1.69, |
|
"learning_rate": 3.941666666666667e-05, |
|
"loss": 1.8851, |
|
"step": 25400 |
|
}, |
|
{ |
|
"epoch": 1.71, |
|
"learning_rate": 3.933333333333333e-05, |
|
"loss": 1.864, |
|
"step": 25600 |
|
}, |
|
{ |
|
"epoch": 1.72, |
|
"learning_rate": 3.9250000000000005e-05, |
|
"loss": 1.8857, |
|
"step": 25800 |
|
}, |
|
{ |
|
"epoch": 1.73, |
|
"learning_rate": 3.9166666666666665e-05, |
|
"loss": 1.9058, |
|
"step": 26000 |
|
}, |
|
{ |
|
"epoch": 1.75, |
|
"learning_rate": 3.908333333333333e-05, |
|
"loss": 1.8951, |
|
"step": 26200 |
|
}, |
|
{ |
|
"epoch": 1.76, |
|
"learning_rate": 3.9000000000000006e-05, |
|
"loss": 1.9076, |
|
"step": 26400 |
|
}, |
|
{ |
|
"epoch": 1.77, |
|
"learning_rate": 3.8916666666666666e-05, |
|
"loss": 1.9021, |
|
"step": 26600 |
|
}, |
|
{ |
|
"epoch": 1.79, |
|
"learning_rate": 3.883333333333333e-05, |
|
"loss": 1.886, |
|
"step": 26800 |
|
}, |
|
{ |
|
"epoch": 1.8, |
|
"learning_rate": 3.875e-05, |
|
"loss": 1.8902, |
|
"step": 27000 |
|
}, |
|
{ |
|
"epoch": 1.81, |
|
"learning_rate": 3.866666666666667e-05, |
|
"loss": 1.8976, |
|
"step": 27200 |
|
}, |
|
{ |
|
"epoch": 1.83, |
|
"learning_rate": 3.8583333333333334e-05, |
|
"loss": 1.8769, |
|
"step": 27400 |
|
}, |
|
{ |
|
"epoch": 1.84, |
|
"learning_rate": 3.85e-05, |
|
"loss": 1.8872, |
|
"step": 27600 |
|
}, |
|
{ |
|
"epoch": 1.85, |
|
"learning_rate": 3.841666666666667e-05, |
|
"loss": 1.8689, |
|
"step": 27800 |
|
}, |
|
{ |
|
"epoch": 1.87, |
|
"learning_rate": 3.8333333333333334e-05, |
|
"loss": 1.8918, |
|
"step": 28000 |
|
}, |
|
{ |
|
"epoch": 1.88, |
|
"learning_rate": 3.825e-05, |
|
"loss": 1.9039, |
|
"step": 28200 |
|
}, |
|
{ |
|
"epoch": 1.89, |
|
"learning_rate": 3.816666666666667e-05, |
|
"loss": 1.9001, |
|
"step": 28400 |
|
}, |
|
{ |
|
"epoch": 1.91, |
|
"learning_rate": 3.8083333333333335e-05, |
|
"loss": 1.8824, |
|
"step": 28600 |
|
}, |
|
{ |
|
"epoch": 1.92, |
|
"learning_rate": 3.8e-05, |
|
"loss": 1.878, |
|
"step": 28800 |
|
}, |
|
{ |
|
"epoch": 1.93, |
|
"learning_rate": 3.791666666666667e-05, |
|
"loss": 1.8754, |
|
"step": 29000 |
|
}, |
|
{ |
|
"epoch": 1.95, |
|
"learning_rate": 3.7833333333333336e-05, |
|
"loss": 1.9031, |
|
"step": 29200 |
|
}, |
|
{ |
|
"epoch": 1.96, |
|
"learning_rate": 3.775e-05, |
|
"loss": 1.9022, |
|
"step": 29400 |
|
}, |
|
{ |
|
"epoch": 1.97, |
|
"learning_rate": 3.766666666666667e-05, |
|
"loss": 1.8882, |
|
"step": 29600 |
|
}, |
|
{ |
|
"epoch": 1.99, |
|
"learning_rate": 3.7583333333333337e-05, |
|
"loss": 1.8874, |
|
"step": 29800 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"learning_rate": 3.7500000000000003e-05, |
|
"loss": 1.8662, |
|
"step": 30000 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"eval_gen_len": 16.345419376080336, |
|
"eval_loss": 2.420915365219116, |
|
"eval_rouge1": 34.9567, |
|
"eval_rouge2": 14.3745, |
|
"eval_rougeL": 30.9434, |
|
"eval_rougeLsum": 31.0002, |
|
"eval_runtime": 2957.1167, |
|
"eval_samples_per_second": 8.217, |
|
"eval_steps_per_second": 2.054, |
|
"step": 30000 |
|
}, |
|
{ |
|
"epoch": 2.01, |
|
"learning_rate": 3.7416666666666664e-05, |
|
"loss": 1.7103, |
|
"step": 30200 |
|
}, |
|
{ |
|
"epoch": 2.03, |
|
"learning_rate": 3.733333333333334e-05, |
|
"loss": 1.6953, |
|
"step": 30400 |
|
}, |
|
{ |
|
"epoch": 2.04, |
|
"learning_rate": 3.7250000000000004e-05, |
|
"loss": 1.6864, |
|
"step": 30600 |
|
}, |
|
{ |
|
"epoch": 2.05, |
|
"learning_rate": 3.7166666666666664e-05, |
|
"loss": 1.7033, |
|
"step": 30800 |
|
}, |
|
{ |
|
"epoch": 2.07, |
|
"learning_rate": 3.708333333333334e-05, |
|
"loss": 1.6926, |
|
"step": 31000 |
|
}, |
|
{ |
|
"epoch": 2.08, |
|
"learning_rate": 3.7e-05, |
|
"loss": 1.6906, |
|
"step": 31200 |
|
}, |
|
{ |
|
"epoch": 2.09, |
|
"learning_rate": 3.6916666666666665e-05, |
|
"loss": 1.7312, |
|
"step": 31400 |
|
}, |
|
{ |
|
"epoch": 2.11, |
|
"learning_rate": 3.683333333333334e-05, |
|
"loss": 1.6923, |
|
"step": 31600 |
|
}, |
|
{ |
|
"epoch": 2.12, |
|
"learning_rate": 3.675e-05, |
|
"loss": 1.7034, |
|
"step": 31800 |
|
}, |
|
{ |
|
"epoch": 2.13, |
|
"learning_rate": 3.6666666666666666e-05, |
|
"loss": 1.7147, |
|
"step": 32000 |
|
}, |
|
{ |
|
"epoch": 2.15, |
|
"learning_rate": 3.658333333333334e-05, |
|
"loss": 1.6976, |
|
"step": 32200 |
|
}, |
|
{ |
|
"epoch": 2.16, |
|
"learning_rate": 3.65e-05, |
|
"loss": 1.6885, |
|
"step": 32400 |
|
}, |
|
{ |
|
"epoch": 2.17, |
|
"learning_rate": 3.641666666666667e-05, |
|
"loss": 1.6925, |
|
"step": 32600 |
|
}, |
|
{ |
|
"epoch": 2.19, |
|
"learning_rate": 3.633333333333333e-05, |
|
"loss": 1.7101, |
|
"step": 32800 |
|
}, |
|
{ |
|
"epoch": 2.2, |
|
"learning_rate": 3.625e-05, |
|
"loss": 1.712, |
|
"step": 33000 |
|
}, |
|
{ |
|
"epoch": 2.21, |
|
"learning_rate": 3.6166666666666674e-05, |
|
"loss": 1.7098, |
|
"step": 33200 |
|
}, |
|
{ |
|
"epoch": 2.23, |
|
"learning_rate": 3.6083333333333334e-05, |
|
"loss": 1.7347, |
|
"step": 33400 |
|
}, |
|
{ |
|
"epoch": 2.24, |
|
"learning_rate": 3.6e-05, |
|
"loss": 1.7177, |
|
"step": 33600 |
|
}, |
|
{ |
|
"epoch": 2.25, |
|
"learning_rate": 3.591666666666667e-05, |
|
"loss": 1.7135, |
|
"step": 33800 |
|
}, |
|
{ |
|
"epoch": 2.27, |
|
"learning_rate": 3.5833333333333335e-05, |
|
"loss": 1.7194, |
|
"step": 34000 |
|
}, |
|
{ |
|
"epoch": 2.28, |
|
"learning_rate": 3.575e-05, |
|
"loss": 1.729, |
|
"step": 34200 |
|
}, |
|
{ |
|
"epoch": 2.29, |
|
"learning_rate": 3.566666666666667e-05, |
|
"loss": 1.7143, |
|
"step": 34400 |
|
}, |
|
{ |
|
"epoch": 2.31, |
|
"learning_rate": 3.5583333333333335e-05, |
|
"loss": 1.7467, |
|
"step": 34600 |
|
}, |
|
{ |
|
"epoch": 2.32, |
|
"learning_rate": 3.55e-05, |
|
"loss": 1.7536, |
|
"step": 34800 |
|
}, |
|
{ |
|
"epoch": 2.33, |
|
"learning_rate": 3.541666666666667e-05, |
|
"loss": 1.6954, |
|
"step": 35000 |
|
}, |
|
{ |
|
"epoch": 2.35, |
|
"learning_rate": 3.5333333333333336e-05, |
|
"loss": 1.7142, |
|
"step": 35200 |
|
}, |
|
{ |
|
"epoch": 2.36, |
|
"learning_rate": 3.525e-05, |
|
"loss": 1.7289, |
|
"step": 35400 |
|
}, |
|
{ |
|
"epoch": 2.37, |
|
"learning_rate": 3.516666666666667e-05, |
|
"loss": 1.728, |
|
"step": 35600 |
|
}, |
|
{ |
|
"epoch": 2.39, |
|
"learning_rate": 3.508333333333334e-05, |
|
"loss": 1.7067, |
|
"step": 35800 |
|
}, |
|
{ |
|
"epoch": 2.4, |
|
"learning_rate": 3.5e-05, |
|
"loss": 1.714, |
|
"step": 36000 |
|
}, |
|
{ |
|
"epoch": 2.41, |
|
"learning_rate": 3.491666666666667e-05, |
|
"loss": 1.7469, |
|
"step": 36200 |
|
}, |
|
{ |
|
"epoch": 2.43, |
|
"learning_rate": 3.483333333333334e-05, |
|
"loss": 1.7323, |
|
"step": 36400 |
|
}, |
|
{ |
|
"epoch": 2.44, |
|
"learning_rate": 3.475e-05, |
|
"loss": 1.722, |
|
"step": 36600 |
|
}, |
|
{ |
|
"epoch": 2.45, |
|
"learning_rate": 3.466666666666667e-05, |
|
"loss": 1.7291, |
|
"step": 36800 |
|
}, |
|
{ |
|
"epoch": 2.47, |
|
"learning_rate": 3.458333333333333e-05, |
|
"loss": 1.724, |
|
"step": 37000 |
|
}, |
|
{ |
|
"epoch": 2.48, |
|
"learning_rate": 3.45e-05, |
|
"loss": 1.7273, |
|
"step": 37200 |
|
}, |
|
{ |
|
"epoch": 2.49, |
|
"learning_rate": 3.441666666666667e-05, |
|
"loss": 1.732, |
|
"step": 37400 |
|
}, |
|
{ |
|
"epoch": 2.51, |
|
"learning_rate": 3.433333333333333e-05, |
|
"loss": 1.7236, |
|
"step": 37600 |
|
}, |
|
{ |
|
"epoch": 2.52, |
|
"learning_rate": 3.4250000000000006e-05, |
|
"loss": 1.7314, |
|
"step": 37800 |
|
}, |
|
{ |
|
"epoch": 2.53, |
|
"learning_rate": 3.4166666666666666e-05, |
|
"loss": 1.7194, |
|
"step": 38000 |
|
}, |
|
{ |
|
"epoch": 2.55, |
|
"learning_rate": 3.408333333333333e-05, |
|
"loss": 1.7184, |
|
"step": 38200 |
|
}, |
|
{ |
|
"epoch": 2.56, |
|
"learning_rate": 3.4000000000000007e-05, |
|
"loss": 1.7056, |
|
"step": 38400 |
|
}, |
|
{ |
|
"epoch": 2.57, |
|
"learning_rate": 3.391666666666667e-05, |
|
"loss": 1.7355, |
|
"step": 38600 |
|
}, |
|
{ |
|
"epoch": 2.59, |
|
"learning_rate": 3.3833333333333334e-05, |
|
"loss": 1.6895, |
|
"step": 38800 |
|
}, |
|
{ |
|
"epoch": 2.6, |
|
"learning_rate": 3.375000000000001e-05, |
|
"loss": 1.7073, |
|
"step": 39000 |
|
}, |
|
{ |
|
"epoch": 2.61, |
|
"learning_rate": 3.366666666666667e-05, |
|
"loss": 1.7167, |
|
"step": 39200 |
|
}, |
|
{ |
|
"epoch": 2.63, |
|
"learning_rate": 3.3583333333333334e-05, |
|
"loss": 1.7446, |
|
"step": 39400 |
|
}, |
|
{ |
|
"epoch": 2.64, |
|
"learning_rate": 3.35e-05, |
|
"loss": 1.7315, |
|
"step": 39600 |
|
}, |
|
{ |
|
"epoch": 2.65, |
|
"learning_rate": 3.341666666666667e-05, |
|
"loss": 1.7296, |
|
"step": 39800 |
|
}, |
|
{ |
|
"epoch": 2.67, |
|
"learning_rate": 3.3333333333333335e-05, |
|
"loss": 1.7334, |
|
"step": 40000 |
|
}, |
|
{ |
|
"epoch": 2.68, |
|
"learning_rate": 3.325e-05, |
|
"loss": 1.7322, |
|
"step": 40200 |
|
}, |
|
{ |
|
"epoch": 2.69, |
|
"learning_rate": 3.316666666666667e-05, |
|
"loss": 1.7052, |
|
"step": 40400 |
|
}, |
|
{ |
|
"epoch": 2.71, |
|
"learning_rate": 3.3083333333333336e-05, |
|
"loss": 1.6923, |
|
"step": 40600 |
|
}, |
|
{ |
|
"epoch": 2.72, |
|
"learning_rate": 3.3e-05, |
|
"loss": 1.7126, |
|
"step": 40800 |
|
}, |
|
{ |
|
"epoch": 2.73, |
|
"learning_rate": 3.291666666666667e-05, |
|
"loss": 1.7291, |
|
"step": 41000 |
|
}, |
|
{ |
|
"epoch": 2.75, |
|
"learning_rate": 3.283333333333333e-05, |
|
"loss": 1.7362, |
|
"step": 41200 |
|
}, |
|
{ |
|
"epoch": 2.76, |
|
"learning_rate": 3.275e-05, |
|
"loss": 1.7288, |
|
"step": 41400 |
|
}, |
|
{ |
|
"epoch": 2.77, |
|
"learning_rate": 3.266666666666667e-05, |
|
"loss": 1.7395, |
|
"step": 41600 |
|
}, |
|
{ |
|
"epoch": 2.79, |
|
"learning_rate": 3.258333333333333e-05, |
|
"loss": 1.731, |
|
"step": 41800 |
|
}, |
|
{ |
|
"epoch": 2.8, |
|
"learning_rate": 3.2500000000000004e-05, |
|
"loss": 1.7145, |
|
"step": 42000 |
|
}, |
|
{ |
|
"epoch": 2.81, |
|
"learning_rate": 3.2416666666666664e-05, |
|
"loss": 1.7243, |
|
"step": 42200 |
|
}, |
|
{ |
|
"epoch": 2.83, |
|
"learning_rate": 3.233333333333333e-05, |
|
"loss": 1.7004, |
|
"step": 42400 |
|
}, |
|
{ |
|
"epoch": 2.84, |
|
"learning_rate": 3.2250000000000005e-05, |
|
"loss": 1.7289, |
|
"step": 42600 |
|
}, |
|
{ |
|
"epoch": 2.85, |
|
"learning_rate": 3.2166666666666665e-05, |
|
"loss": 1.7136, |
|
"step": 42800 |
|
}, |
|
{ |
|
"epoch": 2.87, |
|
"learning_rate": 3.208333333333334e-05, |
|
"loss": 1.7377, |
|
"step": 43000 |
|
}, |
|
{ |
|
"epoch": 2.88, |
|
"learning_rate": 3.2000000000000005e-05, |
|
"loss": 1.7072, |
|
"step": 43200 |
|
}, |
|
{ |
|
"epoch": 2.89, |
|
"learning_rate": 3.1916666666666665e-05, |
|
"loss": 1.732, |
|
"step": 43400 |
|
}, |
|
{ |
|
"epoch": 2.91, |
|
"learning_rate": 3.183333333333334e-05, |
|
"loss": 1.7112, |
|
"step": 43600 |
|
}, |
|
{ |
|
"epoch": 2.92, |
|
"learning_rate": 3.175e-05, |
|
"loss": 1.7237, |
|
"step": 43800 |
|
}, |
|
{ |
|
"epoch": 2.93, |
|
"learning_rate": 3.1666666666666666e-05, |
|
"loss": 1.7536, |
|
"step": 44000 |
|
}, |
|
{ |
|
"epoch": 2.95, |
|
"learning_rate": 3.158333333333334e-05, |
|
"loss": 1.7502, |
|
"step": 44200 |
|
}, |
|
{ |
|
"epoch": 2.96, |
|
"learning_rate": 3.15e-05, |
|
"loss": 1.7317, |
|
"step": 44400 |
|
}, |
|
{ |
|
"epoch": 2.97, |
|
"learning_rate": 3.141666666666667e-05, |
|
"loss": 1.6947, |
|
"step": 44600 |
|
}, |
|
{ |
|
"epoch": 2.99, |
|
"learning_rate": 3.1333333333333334e-05, |
|
"loss": 1.7356, |
|
"step": 44800 |
|
}, |
|
{ |
|
"epoch": 3.0, |
|
"learning_rate": 3.125e-05, |
|
"loss": 1.7539, |
|
"step": 45000 |
|
}, |
|
{ |
|
"epoch": 3.0, |
|
"eval_gen_len": 15.694048892912997, |
|
"eval_loss": 2.414475917816162, |
|
"eval_rouge1": 35.2907, |
|
"eval_rouge2": 14.5204, |
|
"eval_rougeL": 31.3191, |
|
"eval_rougeLsum": 31.3682, |
|
"eval_runtime": 2781.5618, |
|
"eval_samples_per_second": 8.735, |
|
"eval_steps_per_second": 2.184, |
|
"step": 45000 |
|
}, |
|
{ |
|
"epoch": 3.01, |
|
"learning_rate": 3.116666666666667e-05, |
|
"loss": 1.5471, |
|
"step": 45200 |
|
}, |
|
{ |
|
"epoch": 3.03, |
|
"learning_rate": 3.1083333333333334e-05, |
|
"loss": 1.5183, |
|
"step": 45400 |
|
}, |
|
{ |
|
"epoch": 3.04, |
|
"learning_rate": 3.1e-05, |
|
"loss": 1.5497, |
|
"step": 45600 |
|
}, |
|
{ |
|
"epoch": 3.05, |
|
"learning_rate": 3.091666666666667e-05, |
|
"loss": 1.5558, |
|
"step": 45800 |
|
}, |
|
{ |
|
"epoch": 3.07, |
|
"learning_rate": 3.0833333333333335e-05, |
|
"loss": 1.5606, |
|
"step": 46000 |
|
}, |
|
{ |
|
"epoch": 3.08, |
|
"learning_rate": 3.075e-05, |
|
"loss": 1.5754, |
|
"step": 46200 |
|
}, |
|
{ |
|
"epoch": 3.09, |
|
"learning_rate": 3.066666666666667e-05, |
|
"loss": 1.5581, |
|
"step": 46400 |
|
}, |
|
{ |
|
"epoch": 3.11, |
|
"learning_rate": 3.0583333333333336e-05, |
|
"loss": 1.5935, |
|
"step": 46600 |
|
}, |
|
{ |
|
"epoch": 3.12, |
|
"learning_rate": 3.05e-05, |
|
"loss": 1.5591, |
|
"step": 46800 |
|
}, |
|
{ |
|
"epoch": 3.13, |
|
"learning_rate": 3.0416666666666666e-05, |
|
"loss": 1.5604, |
|
"step": 47000 |
|
}, |
|
{ |
|
"epoch": 3.15, |
|
"learning_rate": 3.0333333333333337e-05, |
|
"loss": 1.5786, |
|
"step": 47200 |
|
}, |
|
{ |
|
"epoch": 3.16, |
|
"learning_rate": 3.025e-05, |
|
"loss": 1.5751, |
|
"step": 47400 |
|
}, |
|
{ |
|
"epoch": 3.17, |
|
"learning_rate": 3.016666666666667e-05, |
|
"loss": 1.586, |
|
"step": 47600 |
|
}, |
|
{ |
|
"epoch": 3.19, |
|
"learning_rate": 3.0083333333333337e-05, |
|
"loss": 1.5564, |
|
"step": 47800 |
|
}, |
|
{ |
|
"epoch": 3.2, |
|
"learning_rate": 3e-05, |
|
"loss": 1.5846, |
|
"step": 48000 |
|
}, |
|
{ |
|
"epoch": 3.21, |
|
"learning_rate": 2.991666666666667e-05, |
|
"loss": 1.5887, |
|
"step": 48200 |
|
}, |
|
{ |
|
"epoch": 3.23, |
|
"learning_rate": 2.9833333333333335e-05, |
|
"loss": 1.5738, |
|
"step": 48400 |
|
}, |
|
{ |
|
"epoch": 3.24, |
|
"learning_rate": 2.975e-05, |
|
"loss": 1.5638, |
|
"step": 48600 |
|
}, |
|
{ |
|
"epoch": 3.25, |
|
"learning_rate": 2.9666666666666672e-05, |
|
"loss": 1.5681, |
|
"step": 48800 |
|
}, |
|
{ |
|
"epoch": 3.27, |
|
"learning_rate": 2.9583333333333335e-05, |
|
"loss": 1.5658, |
|
"step": 49000 |
|
}, |
|
{ |
|
"epoch": 3.28, |
|
"learning_rate": 2.95e-05, |
|
"loss": 1.5715, |
|
"step": 49200 |
|
}, |
|
{ |
|
"epoch": 3.29, |
|
"learning_rate": 2.941666666666667e-05, |
|
"loss": 1.5609, |
|
"step": 49400 |
|
}, |
|
{ |
|
"epoch": 3.31, |
|
"learning_rate": 2.9333333333333336e-05, |
|
"loss": 1.5569, |
|
"step": 49600 |
|
}, |
|
{ |
|
"epoch": 3.32, |
|
"learning_rate": 2.925e-05, |
|
"loss": 1.5543, |
|
"step": 49800 |
|
}, |
|
{ |
|
"epoch": 3.33, |
|
"learning_rate": 2.916666666666667e-05, |
|
"loss": 1.5654, |
|
"step": 50000 |
|
}, |
|
{ |
|
"epoch": 3.35, |
|
"learning_rate": 2.9083333333333333e-05, |
|
"loss": 1.5929, |
|
"step": 50200 |
|
}, |
|
{ |
|
"epoch": 3.36, |
|
"learning_rate": 2.9e-05, |
|
"loss": 1.5824, |
|
"step": 50400 |
|
}, |
|
{ |
|
"epoch": 3.37, |
|
"learning_rate": 2.891666666666667e-05, |
|
"loss": 1.5762, |
|
"step": 50600 |
|
}, |
|
{ |
|
"epoch": 3.39, |
|
"learning_rate": 2.8833333333333334e-05, |
|
"loss": 1.5867, |
|
"step": 50800 |
|
}, |
|
{ |
|
"epoch": 3.4, |
|
"learning_rate": 2.8749999999999997e-05, |
|
"loss": 1.5703, |
|
"step": 51000 |
|
}, |
|
{ |
|
"epoch": 3.41, |
|
"learning_rate": 2.8666666666666668e-05, |
|
"loss": 1.5543, |
|
"step": 51200 |
|
}, |
|
{ |
|
"epoch": 3.43, |
|
"learning_rate": 2.8583333333333335e-05, |
|
"loss": 1.5804, |
|
"step": 51400 |
|
}, |
|
{ |
|
"epoch": 3.44, |
|
"learning_rate": 2.8499999999999998e-05, |
|
"loss": 1.5761, |
|
"step": 51600 |
|
}, |
|
{ |
|
"epoch": 3.45, |
|
"learning_rate": 2.841666666666667e-05, |
|
"loss": 1.5831, |
|
"step": 51800 |
|
}, |
|
{ |
|
"epoch": 3.47, |
|
"learning_rate": 2.8333333333333335e-05, |
|
"loss": 1.5707, |
|
"step": 52000 |
|
}, |
|
{ |
|
"epoch": 3.48, |
|
"learning_rate": 2.825e-05, |
|
"loss": 1.5736, |
|
"step": 52200 |
|
}, |
|
{ |
|
"epoch": 3.49, |
|
"learning_rate": 2.816666666666667e-05, |
|
"loss": 1.5797, |
|
"step": 52400 |
|
}, |
|
{ |
|
"epoch": 3.51, |
|
"learning_rate": 2.8083333333333333e-05, |
|
"loss": 1.5755, |
|
"step": 52600 |
|
}, |
|
{ |
|
"epoch": 3.52, |
|
"learning_rate": 2.8000000000000003e-05, |
|
"loss": 1.5871, |
|
"step": 52800 |
|
}, |
|
{ |
|
"epoch": 3.53, |
|
"learning_rate": 2.791666666666667e-05, |
|
"loss": 1.5838, |
|
"step": 53000 |
|
}, |
|
{ |
|
"epoch": 3.55, |
|
"learning_rate": 2.7833333333333333e-05, |
|
"loss": 1.5826, |
|
"step": 53200 |
|
}, |
|
{ |
|
"epoch": 3.56, |
|
"learning_rate": 2.7750000000000004e-05, |
|
"loss": 1.5842, |
|
"step": 53400 |
|
}, |
|
{ |
|
"epoch": 3.57, |
|
"learning_rate": 2.7666666666666667e-05, |
|
"loss": 1.5826, |
|
"step": 53600 |
|
}, |
|
{ |
|
"epoch": 3.59, |
|
"learning_rate": 2.7583333333333334e-05, |
|
"loss": 1.5966, |
|
"step": 53800 |
|
}, |
|
{ |
|
"epoch": 3.6, |
|
"learning_rate": 2.7500000000000004e-05, |
|
"loss": 1.6206, |
|
"step": 54000 |
|
}, |
|
{ |
|
"epoch": 3.61, |
|
"learning_rate": 2.7416666666666668e-05, |
|
"loss": 1.5886, |
|
"step": 54200 |
|
}, |
|
{ |
|
"epoch": 3.63, |
|
"learning_rate": 2.733333333333333e-05, |
|
"loss": 1.5778, |
|
"step": 54400 |
|
}, |
|
{ |
|
"epoch": 3.64, |
|
"learning_rate": 2.725e-05, |
|
"loss": 1.5878, |
|
"step": 54600 |
|
}, |
|
{ |
|
"epoch": 3.65, |
|
"learning_rate": 2.716666666666667e-05, |
|
"loss": 1.5833, |
|
"step": 54800 |
|
}, |
|
{ |
|
"epoch": 3.67, |
|
"learning_rate": 2.7083333333333332e-05, |
|
"loss": 1.6159, |
|
"step": 55000 |
|
}, |
|
{ |
|
"epoch": 3.68, |
|
"learning_rate": 2.7000000000000002e-05, |
|
"loss": 1.5726, |
|
"step": 55200 |
|
}, |
|
{ |
|
"epoch": 3.69, |
|
"learning_rate": 2.691666666666667e-05, |
|
"loss": 1.5931, |
|
"step": 55400 |
|
}, |
|
{ |
|
"epoch": 3.71, |
|
"learning_rate": 2.6833333333333333e-05, |
|
"loss": 1.5752, |
|
"step": 55600 |
|
}, |
|
{ |
|
"epoch": 3.72, |
|
"learning_rate": 2.6750000000000003e-05, |
|
"loss": 1.5766, |
|
"step": 55800 |
|
}, |
|
{ |
|
"epoch": 3.73, |
|
"learning_rate": 2.6666666666666667e-05, |
|
"loss": 1.5845, |
|
"step": 56000 |
|
}, |
|
{ |
|
"epoch": 3.75, |
|
"learning_rate": 2.6583333333333333e-05, |
|
"loss": 1.5978, |
|
"step": 56200 |
|
}, |
|
{ |
|
"epoch": 3.76, |
|
"learning_rate": 2.6500000000000004e-05, |
|
"loss": 1.5731, |
|
"step": 56400 |
|
}, |
|
{ |
|
"epoch": 3.77, |
|
"learning_rate": 2.6416666666666667e-05, |
|
"loss": 1.6023, |
|
"step": 56600 |
|
}, |
|
{ |
|
"epoch": 3.79, |
|
"learning_rate": 2.633333333333333e-05, |
|
"loss": 1.5958, |
|
"step": 56800 |
|
}, |
|
{ |
|
"epoch": 3.8, |
|
"learning_rate": 2.625e-05, |
|
"loss": 1.6087, |
|
"step": 57000 |
|
}, |
|
{ |
|
"epoch": 3.81, |
|
"learning_rate": 2.6166666666666668e-05, |
|
"loss": 1.5875, |
|
"step": 57200 |
|
}, |
|
{ |
|
"epoch": 3.83, |
|
"learning_rate": 2.608333333333333e-05, |
|
"loss": 1.586, |
|
"step": 57400 |
|
}, |
|
{ |
|
"epoch": 3.84, |
|
"learning_rate": 2.6000000000000002e-05, |
|
"loss": 1.5796, |
|
"step": 57600 |
|
}, |
|
{ |
|
"epoch": 3.85, |
|
"learning_rate": 2.5916666666666665e-05, |
|
"loss": 1.6056, |
|
"step": 57800 |
|
}, |
|
{ |
|
"epoch": 3.87, |
|
"learning_rate": 2.5833333333333336e-05, |
|
"loss": 1.6134, |
|
"step": 58000 |
|
}, |
|
{ |
|
"epoch": 3.88, |
|
"learning_rate": 2.5750000000000002e-05, |
|
"loss": 1.6078, |
|
"step": 58200 |
|
}, |
|
{ |
|
"epoch": 3.89, |
|
"learning_rate": 2.5666666666666666e-05, |
|
"loss": 1.5696, |
|
"step": 58400 |
|
}, |
|
{ |
|
"epoch": 3.91, |
|
"learning_rate": 2.5583333333333336e-05, |
|
"loss": 1.572, |
|
"step": 58600 |
|
}, |
|
{ |
|
"epoch": 3.92, |
|
"learning_rate": 2.5500000000000003e-05, |
|
"loss": 1.5844, |
|
"step": 58800 |
|
}, |
|
{ |
|
"epoch": 3.93, |
|
"learning_rate": 2.5416666666666667e-05, |
|
"loss": 1.5971, |
|
"step": 59000 |
|
}, |
|
{ |
|
"epoch": 3.95, |
|
"learning_rate": 2.5333333333333337e-05, |
|
"loss": 1.5975, |
|
"step": 59200 |
|
}, |
|
{ |
|
"epoch": 3.96, |
|
"learning_rate": 2.525e-05, |
|
"loss": 1.5809, |
|
"step": 59400 |
|
}, |
|
{ |
|
"epoch": 3.97, |
|
"learning_rate": 2.5166666666666667e-05, |
|
"loss": 1.6043, |
|
"step": 59600 |
|
}, |
|
{ |
|
"epoch": 3.99, |
|
"learning_rate": 2.5083333333333338e-05, |
|
"loss": 1.5626, |
|
"step": 59800 |
|
}, |
|
{ |
|
"epoch": 4.0, |
|
"learning_rate": 2.5e-05, |
|
"loss": 1.5583, |
|
"step": 60000 |
|
}, |
|
{ |
|
"epoch": 4.0, |
|
"eval_gen_len": 15.81265947814635, |
|
"eval_loss": 2.4550299644470215, |
|
"eval_rouge1": 35.4513, |
|
"eval_rouge2": 14.4535, |
|
"eval_rougeL": 31.3849, |
|
"eval_rougeLsum": 31.433, |
|
"eval_runtime": 2787.1404, |
|
"eval_samples_per_second": 8.718, |
|
"eval_steps_per_second": 2.18, |
|
"step": 60000 |
|
} |
|
], |
|
"logging_steps": 200, |
|
"max_steps": 120000, |
|
"num_input_tokens_seen": 0, |
|
"num_train_epochs": 8, |
|
"save_steps": 500, |
|
"total_flos": 5.050616818581504e+17, |
|
"train_batch_size": 4, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|