|
{ |
|
"best_metric": null, |
|
"best_model_checkpoint": null, |
|
"epoch": 4.0, |
|
"eval_steps": 500, |
|
"global_step": 60000, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.01, |
|
"learning_rate": 4.991666666666667e-05, |
|
"loss": 2.8022, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 0.03, |
|
"learning_rate": 4.9833333333333336e-05, |
|
"loss": 2.516, |
|
"step": 400 |
|
}, |
|
{ |
|
"epoch": 0.04, |
|
"learning_rate": 4.975e-05, |
|
"loss": 2.4557, |
|
"step": 600 |
|
}, |
|
{ |
|
"epoch": 0.05, |
|
"learning_rate": 4.966666666666667e-05, |
|
"loss": 2.4088, |
|
"step": 800 |
|
}, |
|
{ |
|
"epoch": 0.07, |
|
"learning_rate": 4.958333333333334e-05, |
|
"loss": 2.3729, |
|
"step": 1000 |
|
}, |
|
{ |
|
"epoch": 0.08, |
|
"learning_rate": 4.9500000000000004e-05, |
|
"loss": 2.3784, |
|
"step": 1200 |
|
}, |
|
{ |
|
"epoch": 0.09, |
|
"learning_rate": 4.9416666666666664e-05, |
|
"loss": 2.3573, |
|
"step": 1400 |
|
}, |
|
{ |
|
"epoch": 0.11, |
|
"learning_rate": 4.933333333333334e-05, |
|
"loss": 2.3411, |
|
"step": 1600 |
|
}, |
|
{ |
|
"epoch": 0.12, |
|
"learning_rate": 4.9250000000000004e-05, |
|
"loss": 2.2949, |
|
"step": 1800 |
|
}, |
|
{ |
|
"epoch": 0.13, |
|
"learning_rate": 4.9166666666666665e-05, |
|
"loss": 2.2912, |
|
"step": 2000 |
|
}, |
|
{ |
|
"epoch": 0.15, |
|
"learning_rate": 4.908333333333334e-05, |
|
"loss": 2.2367, |
|
"step": 2200 |
|
}, |
|
{ |
|
"epoch": 0.16, |
|
"learning_rate": 4.9e-05, |
|
"loss": 2.2421, |
|
"step": 2400 |
|
}, |
|
{ |
|
"epoch": 0.17, |
|
"learning_rate": 4.891666666666667e-05, |
|
"loss": 2.2875, |
|
"step": 2600 |
|
}, |
|
{ |
|
"epoch": 0.19, |
|
"learning_rate": 4.883333333333334e-05, |
|
"loss": 2.259, |
|
"step": 2800 |
|
}, |
|
{ |
|
"epoch": 0.2, |
|
"learning_rate": 4.875e-05, |
|
"loss": 2.2614, |
|
"step": 3000 |
|
}, |
|
{ |
|
"epoch": 0.21, |
|
"learning_rate": 4.866666666666667e-05, |
|
"loss": 2.2481, |
|
"step": 3200 |
|
}, |
|
{ |
|
"epoch": 0.23, |
|
"learning_rate": 4.858333333333333e-05, |
|
"loss": 2.2769, |
|
"step": 3400 |
|
}, |
|
{ |
|
"epoch": 0.24, |
|
"learning_rate": 4.85e-05, |
|
"loss": 2.2317, |
|
"step": 3600 |
|
}, |
|
{ |
|
"epoch": 0.25, |
|
"learning_rate": 4.8416666666666673e-05, |
|
"loss": 2.2472, |
|
"step": 3800 |
|
}, |
|
{ |
|
"epoch": 0.27, |
|
"learning_rate": 4.8333333333333334e-05, |
|
"loss": 2.209, |
|
"step": 4000 |
|
}, |
|
{ |
|
"epoch": 0.28, |
|
"learning_rate": 4.825e-05, |
|
"loss": 2.225, |
|
"step": 4200 |
|
}, |
|
{ |
|
"epoch": 0.29, |
|
"learning_rate": 4.8166666666666674e-05, |
|
"loss": 2.2069, |
|
"step": 4400 |
|
}, |
|
{ |
|
"epoch": 0.31, |
|
"learning_rate": 4.8083333333333334e-05, |
|
"loss": 2.1974, |
|
"step": 4600 |
|
}, |
|
{ |
|
"epoch": 0.32, |
|
"learning_rate": 4.8e-05, |
|
"loss": 2.1778, |
|
"step": 4800 |
|
}, |
|
{ |
|
"epoch": 0.33, |
|
"learning_rate": 4.791666666666667e-05, |
|
"loss": 2.187, |
|
"step": 5000 |
|
}, |
|
{ |
|
"epoch": 0.35, |
|
"learning_rate": 4.7833333333333335e-05, |
|
"loss": 2.1872, |
|
"step": 5200 |
|
}, |
|
{ |
|
"epoch": 0.36, |
|
"learning_rate": 4.775e-05, |
|
"loss": 2.16, |
|
"step": 5400 |
|
}, |
|
{ |
|
"epoch": 0.37, |
|
"learning_rate": 4.766666666666667e-05, |
|
"loss": 2.1913, |
|
"step": 5600 |
|
}, |
|
{ |
|
"epoch": 0.39, |
|
"learning_rate": 4.7583333333333336e-05, |
|
"loss": 2.1698, |
|
"step": 5800 |
|
}, |
|
{ |
|
"epoch": 0.4, |
|
"learning_rate": 4.75e-05, |
|
"loss": 2.1768, |
|
"step": 6000 |
|
}, |
|
{ |
|
"epoch": 0.41, |
|
"learning_rate": 4.741666666666667e-05, |
|
"loss": 2.1703, |
|
"step": 6200 |
|
}, |
|
{ |
|
"epoch": 0.43, |
|
"learning_rate": 4.7333333333333336e-05, |
|
"loss": 2.1733, |
|
"step": 6400 |
|
}, |
|
{ |
|
"epoch": 0.44, |
|
"learning_rate": 4.7249999999999997e-05, |
|
"loss": 2.1701, |
|
"step": 6600 |
|
}, |
|
{ |
|
"epoch": 0.45, |
|
"learning_rate": 4.716666666666667e-05, |
|
"loss": 2.17, |
|
"step": 6800 |
|
}, |
|
{ |
|
"epoch": 0.47, |
|
"learning_rate": 4.708333333333334e-05, |
|
"loss": 2.1496, |
|
"step": 7000 |
|
}, |
|
{ |
|
"epoch": 0.48, |
|
"learning_rate": 4.7e-05, |
|
"loss": 2.1431, |
|
"step": 7200 |
|
}, |
|
{ |
|
"epoch": 0.49, |
|
"learning_rate": 4.691666666666667e-05, |
|
"loss": 2.1408, |
|
"step": 7400 |
|
}, |
|
{ |
|
"epoch": 0.51, |
|
"learning_rate": 4.683333333333334e-05, |
|
"loss": 2.1732, |
|
"step": 7600 |
|
}, |
|
{ |
|
"epoch": 0.52, |
|
"learning_rate": 4.6750000000000005e-05, |
|
"loss": 2.1479, |
|
"step": 7800 |
|
}, |
|
{ |
|
"epoch": 0.53, |
|
"learning_rate": 4.666666666666667e-05, |
|
"loss": 2.1516, |
|
"step": 8000 |
|
}, |
|
{ |
|
"epoch": 0.55, |
|
"learning_rate": 4.658333333333333e-05, |
|
"loss": 2.1328, |
|
"step": 8200 |
|
}, |
|
{ |
|
"epoch": 0.56, |
|
"learning_rate": 4.6500000000000005e-05, |
|
"loss": 2.153, |
|
"step": 8400 |
|
}, |
|
{ |
|
"epoch": 0.57, |
|
"learning_rate": 4.641666666666667e-05, |
|
"loss": 2.1496, |
|
"step": 8600 |
|
}, |
|
{ |
|
"epoch": 0.59, |
|
"learning_rate": 4.633333333333333e-05, |
|
"loss": 2.1161, |
|
"step": 8800 |
|
}, |
|
{ |
|
"epoch": 0.6, |
|
"learning_rate": 4.6250000000000006e-05, |
|
"loss": 2.1054, |
|
"step": 9000 |
|
}, |
|
{ |
|
"epoch": 0.61, |
|
"learning_rate": 4.6166666666666666e-05, |
|
"loss": 2.1412, |
|
"step": 9200 |
|
}, |
|
{ |
|
"epoch": 0.63, |
|
"learning_rate": 4.608333333333333e-05, |
|
"loss": 2.1059, |
|
"step": 9400 |
|
}, |
|
{ |
|
"epoch": 0.64, |
|
"learning_rate": 4.600000000000001e-05, |
|
"loss": 2.1262, |
|
"step": 9600 |
|
}, |
|
{ |
|
"epoch": 0.65, |
|
"learning_rate": 4.591666666666667e-05, |
|
"loss": 2.1024, |
|
"step": 9800 |
|
}, |
|
{ |
|
"epoch": 0.67, |
|
"learning_rate": 4.5833333333333334e-05, |
|
"loss": 2.1258, |
|
"step": 10000 |
|
}, |
|
{ |
|
"epoch": 0.68, |
|
"learning_rate": 4.575e-05, |
|
"loss": 2.0999, |
|
"step": 10200 |
|
}, |
|
{ |
|
"epoch": 0.69, |
|
"learning_rate": 4.566666666666667e-05, |
|
"loss": 2.1237, |
|
"step": 10400 |
|
}, |
|
{ |
|
"epoch": 0.71, |
|
"learning_rate": 4.5583333333333335e-05, |
|
"loss": 2.1142, |
|
"step": 10600 |
|
}, |
|
{ |
|
"epoch": 0.72, |
|
"learning_rate": 4.55e-05, |
|
"loss": 2.0747, |
|
"step": 10800 |
|
}, |
|
{ |
|
"epoch": 0.73, |
|
"learning_rate": 4.541666666666667e-05, |
|
"loss": 2.0865, |
|
"step": 11000 |
|
}, |
|
{ |
|
"epoch": 0.75, |
|
"learning_rate": 4.5333333333333335e-05, |
|
"loss": 2.1271, |
|
"step": 11200 |
|
}, |
|
{ |
|
"epoch": 0.76, |
|
"learning_rate": 4.525e-05, |
|
"loss": 2.0835, |
|
"step": 11400 |
|
}, |
|
{ |
|
"epoch": 0.77, |
|
"learning_rate": 4.516666666666667e-05, |
|
"loss": 2.0794, |
|
"step": 11600 |
|
}, |
|
{ |
|
"epoch": 0.79, |
|
"learning_rate": 4.5083333333333336e-05, |
|
"loss": 2.1096, |
|
"step": 11800 |
|
}, |
|
{ |
|
"epoch": 0.8, |
|
"learning_rate": 4.5e-05, |
|
"loss": 2.1244, |
|
"step": 12000 |
|
}, |
|
{ |
|
"epoch": 0.81, |
|
"learning_rate": 4.491666666666667e-05, |
|
"loss": 2.0884, |
|
"step": 12200 |
|
}, |
|
{ |
|
"epoch": 0.83, |
|
"learning_rate": 4.483333333333333e-05, |
|
"loss": 2.0929, |
|
"step": 12400 |
|
}, |
|
{ |
|
"epoch": 0.84, |
|
"learning_rate": 4.4750000000000004e-05, |
|
"loss": 2.0652, |
|
"step": 12600 |
|
}, |
|
{ |
|
"epoch": 0.85, |
|
"learning_rate": 4.466666666666667e-05, |
|
"loss": 2.0935, |
|
"step": 12800 |
|
}, |
|
{ |
|
"epoch": 0.87, |
|
"learning_rate": 4.458333333333334e-05, |
|
"loss": 2.0906, |
|
"step": 13000 |
|
}, |
|
{ |
|
"epoch": 0.88, |
|
"learning_rate": 4.4500000000000004e-05, |
|
"loss": 2.0801, |
|
"step": 13200 |
|
}, |
|
{ |
|
"epoch": 0.89, |
|
"learning_rate": 4.4416666666666664e-05, |
|
"loss": 2.0671, |
|
"step": 13400 |
|
}, |
|
{ |
|
"epoch": 0.91, |
|
"learning_rate": 4.433333333333334e-05, |
|
"loss": 2.1327, |
|
"step": 13600 |
|
}, |
|
{ |
|
"epoch": 0.92, |
|
"learning_rate": 4.4250000000000005e-05, |
|
"loss": 2.0867, |
|
"step": 13800 |
|
}, |
|
{ |
|
"epoch": 0.93, |
|
"learning_rate": 4.4166666666666665e-05, |
|
"loss": 2.075, |
|
"step": 14000 |
|
}, |
|
{ |
|
"epoch": 0.95, |
|
"learning_rate": 4.408333333333334e-05, |
|
"loss": 2.1014, |
|
"step": 14200 |
|
}, |
|
{ |
|
"epoch": 0.96, |
|
"learning_rate": 4.4000000000000006e-05, |
|
"loss": 2.0797, |
|
"step": 14400 |
|
}, |
|
{ |
|
"epoch": 0.97, |
|
"learning_rate": 4.3916666666666666e-05, |
|
"loss": 2.0455, |
|
"step": 14600 |
|
}, |
|
{ |
|
"epoch": 0.99, |
|
"learning_rate": 4.383333333333334e-05, |
|
"loss": 2.0765, |
|
"step": 14800 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"learning_rate": 4.375e-05, |
|
"loss": 2.0806, |
|
"step": 15000 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"eval_gen_len": 15.620051033006831, |
|
"eval_loss": 2.459954023361206, |
|
"eval_rouge1": 34.4464, |
|
"eval_rouge2": 13.8945, |
|
"eval_rougeL": 30.5475, |
|
"eval_rougeLsum": 30.6085, |
|
"eval_runtime": 2863.3613, |
|
"eval_samples_per_second": 8.486, |
|
"eval_steps_per_second": 2.122, |
|
"step": 15000 |
|
}, |
|
{ |
|
"epoch": 1.01, |
|
"learning_rate": 4.3666666666666666e-05, |
|
"loss": 1.9174, |
|
"step": 15200 |
|
}, |
|
{ |
|
"epoch": 1.03, |
|
"learning_rate": 4.358333333333334e-05, |
|
"loss": 1.9011, |
|
"step": 15400 |
|
}, |
|
{ |
|
"epoch": 1.04, |
|
"learning_rate": 4.35e-05, |
|
"loss": 1.8711, |
|
"step": 15600 |
|
}, |
|
{ |
|
"epoch": 1.05, |
|
"learning_rate": 4.341666666666667e-05, |
|
"loss": 1.8958, |
|
"step": 15800 |
|
}, |
|
{ |
|
"epoch": 1.07, |
|
"learning_rate": 4.3333333333333334e-05, |
|
"loss": 1.8875, |
|
"step": 16000 |
|
}, |
|
{ |
|
"epoch": 1.08, |
|
"learning_rate": 4.325e-05, |
|
"loss": 1.897, |
|
"step": 16200 |
|
}, |
|
{ |
|
"epoch": 1.09, |
|
"learning_rate": 4.316666666666667e-05, |
|
"loss": 1.8898, |
|
"step": 16400 |
|
}, |
|
{ |
|
"epoch": 1.11, |
|
"learning_rate": 4.3083333333333335e-05, |
|
"loss": 1.8787, |
|
"step": 16600 |
|
}, |
|
{ |
|
"epoch": 1.12, |
|
"learning_rate": 4.3e-05, |
|
"loss": 1.917, |
|
"step": 16800 |
|
}, |
|
{ |
|
"epoch": 1.13, |
|
"learning_rate": 4.291666666666667e-05, |
|
"loss": 1.8803, |
|
"step": 17000 |
|
}, |
|
{ |
|
"epoch": 1.15, |
|
"learning_rate": 4.2833333333333335e-05, |
|
"loss": 1.8789, |
|
"step": 17200 |
|
}, |
|
{ |
|
"epoch": 1.16, |
|
"learning_rate": 4.275e-05, |
|
"loss": 1.8935, |
|
"step": 17400 |
|
}, |
|
{ |
|
"epoch": 1.17, |
|
"learning_rate": 4.266666666666667e-05, |
|
"loss": 1.907, |
|
"step": 17600 |
|
}, |
|
{ |
|
"epoch": 1.19, |
|
"learning_rate": 4.2583333333333336e-05, |
|
"loss": 1.9027, |
|
"step": 17800 |
|
}, |
|
{ |
|
"epoch": 1.2, |
|
"learning_rate": 4.25e-05, |
|
"loss": 1.8984, |
|
"step": 18000 |
|
}, |
|
{ |
|
"epoch": 1.21, |
|
"learning_rate": 4.241666666666667e-05, |
|
"loss": 1.9044, |
|
"step": 18200 |
|
}, |
|
{ |
|
"epoch": 1.23, |
|
"learning_rate": 4.233333333333334e-05, |
|
"loss": 1.8847, |
|
"step": 18400 |
|
}, |
|
{ |
|
"epoch": 1.24, |
|
"learning_rate": 4.2250000000000004e-05, |
|
"loss": 1.9184, |
|
"step": 18600 |
|
}, |
|
{ |
|
"epoch": 1.25, |
|
"learning_rate": 4.216666666666667e-05, |
|
"loss": 1.8882, |
|
"step": 18800 |
|
}, |
|
{ |
|
"epoch": 1.27, |
|
"learning_rate": 4.208333333333334e-05, |
|
"loss": 1.9256, |
|
"step": 19000 |
|
}, |
|
{ |
|
"epoch": 1.28, |
|
"learning_rate": 4.2e-05, |
|
"loss": 1.9158, |
|
"step": 19200 |
|
}, |
|
{ |
|
"epoch": 1.29, |
|
"learning_rate": 4.191666666666667e-05, |
|
"loss": 1.9068, |
|
"step": 19400 |
|
}, |
|
{ |
|
"epoch": 1.31, |
|
"learning_rate": 4.183333333333334e-05, |
|
"loss": 1.8879, |
|
"step": 19600 |
|
}, |
|
{ |
|
"epoch": 1.32, |
|
"learning_rate": 4.175e-05, |
|
"loss": 1.8831, |
|
"step": 19800 |
|
}, |
|
{ |
|
"epoch": 1.33, |
|
"learning_rate": 4.166666666666667e-05, |
|
"loss": 1.9087, |
|
"step": 20000 |
|
}, |
|
{ |
|
"epoch": 1.35, |
|
"learning_rate": 4.158333333333333e-05, |
|
"loss": 1.9149, |
|
"step": 20200 |
|
}, |
|
{ |
|
"epoch": 1.36, |
|
"learning_rate": 4.15e-05, |
|
"loss": 1.9074, |
|
"step": 20400 |
|
}, |
|
{ |
|
"epoch": 1.37, |
|
"learning_rate": 4.141666666666667e-05, |
|
"loss": 1.8769, |
|
"step": 20600 |
|
}, |
|
{ |
|
"epoch": 1.39, |
|
"learning_rate": 4.133333333333333e-05, |
|
"loss": 1.8743, |
|
"step": 20800 |
|
}, |
|
{ |
|
"epoch": 1.4, |
|
"learning_rate": 4.125e-05, |
|
"loss": 1.9055, |
|
"step": 21000 |
|
}, |
|
{ |
|
"epoch": 1.41, |
|
"learning_rate": 4.116666666666667e-05, |
|
"loss": 1.8867, |
|
"step": 21200 |
|
}, |
|
{ |
|
"epoch": 1.43, |
|
"learning_rate": 4.1083333333333334e-05, |
|
"loss": 1.893, |
|
"step": 21400 |
|
}, |
|
{ |
|
"epoch": 1.44, |
|
"learning_rate": 4.1e-05, |
|
"loss": 1.8874, |
|
"step": 21600 |
|
}, |
|
{ |
|
"epoch": 1.45, |
|
"learning_rate": 4.091666666666667e-05, |
|
"loss": 1.9026, |
|
"step": 21800 |
|
}, |
|
{ |
|
"epoch": 1.47, |
|
"learning_rate": 4.0833333333333334e-05, |
|
"loss": 1.8764, |
|
"step": 22000 |
|
}, |
|
{ |
|
"epoch": 1.48, |
|
"learning_rate": 4.075e-05, |
|
"loss": 1.9112, |
|
"step": 22200 |
|
}, |
|
{ |
|
"epoch": 1.49, |
|
"learning_rate": 4.066666666666667e-05, |
|
"loss": 1.9089, |
|
"step": 22400 |
|
}, |
|
{ |
|
"epoch": 1.51, |
|
"learning_rate": 4.0583333333333335e-05, |
|
"loss": 1.8853, |
|
"step": 22600 |
|
}, |
|
{ |
|
"epoch": 1.52, |
|
"learning_rate": 4.05e-05, |
|
"loss": 1.8859, |
|
"step": 22800 |
|
}, |
|
{ |
|
"epoch": 1.53, |
|
"learning_rate": 4.041666666666667e-05, |
|
"loss": 1.9075, |
|
"step": 23000 |
|
}, |
|
{ |
|
"epoch": 1.55, |
|
"learning_rate": 4.0333333333333336e-05, |
|
"loss": 1.8879, |
|
"step": 23200 |
|
}, |
|
{ |
|
"epoch": 1.56, |
|
"learning_rate": 4.025e-05, |
|
"loss": 1.8611, |
|
"step": 23400 |
|
}, |
|
{ |
|
"epoch": 1.57, |
|
"learning_rate": 4.016666666666667e-05, |
|
"loss": 1.8982, |
|
"step": 23600 |
|
}, |
|
{ |
|
"epoch": 1.59, |
|
"learning_rate": 4.0083333333333336e-05, |
|
"loss": 1.9351, |
|
"step": 23800 |
|
}, |
|
{ |
|
"epoch": 1.6, |
|
"learning_rate": 4e-05, |
|
"loss": 1.916, |
|
"step": 24000 |
|
}, |
|
{ |
|
"epoch": 1.61, |
|
"learning_rate": 3.991666666666667e-05, |
|
"loss": 1.9065, |
|
"step": 24200 |
|
}, |
|
{ |
|
"epoch": 1.63, |
|
"learning_rate": 3.983333333333333e-05, |
|
"loss": 1.8713, |
|
"step": 24400 |
|
}, |
|
{ |
|
"epoch": 1.64, |
|
"learning_rate": 3.9750000000000004e-05, |
|
"loss": 1.8929, |
|
"step": 24600 |
|
}, |
|
{ |
|
"epoch": 1.65, |
|
"learning_rate": 3.966666666666667e-05, |
|
"loss": 1.8875, |
|
"step": 24800 |
|
}, |
|
{ |
|
"epoch": 1.67, |
|
"learning_rate": 3.958333333333333e-05, |
|
"loss": 1.9038, |
|
"step": 25000 |
|
}, |
|
{ |
|
"epoch": 1.68, |
|
"learning_rate": 3.9500000000000005e-05, |
|
"loss": 1.9052, |
|
"step": 25200 |
|
}, |
|
{ |
|
"epoch": 1.69, |
|
"learning_rate": 3.941666666666667e-05, |
|
"loss": 1.8826, |
|
"step": 25400 |
|
}, |
|
{ |
|
"epoch": 1.71, |
|
"learning_rate": 3.933333333333333e-05, |
|
"loss": 1.9191, |
|
"step": 25600 |
|
}, |
|
{ |
|
"epoch": 1.72, |
|
"learning_rate": 3.9250000000000005e-05, |
|
"loss": 1.8977, |
|
"step": 25800 |
|
}, |
|
{ |
|
"epoch": 1.73, |
|
"learning_rate": 3.9166666666666665e-05, |
|
"loss": 1.8694, |
|
"step": 26000 |
|
}, |
|
{ |
|
"epoch": 1.75, |
|
"learning_rate": 3.908333333333333e-05, |
|
"loss": 1.9068, |
|
"step": 26200 |
|
}, |
|
{ |
|
"epoch": 1.76, |
|
"learning_rate": 3.9000000000000006e-05, |
|
"loss": 1.8862, |
|
"step": 26400 |
|
}, |
|
{ |
|
"epoch": 1.77, |
|
"learning_rate": 3.8916666666666666e-05, |
|
"loss": 1.8971, |
|
"step": 26600 |
|
}, |
|
{ |
|
"epoch": 1.79, |
|
"learning_rate": 3.883333333333333e-05, |
|
"loss": 1.8722, |
|
"step": 26800 |
|
}, |
|
{ |
|
"epoch": 1.8, |
|
"learning_rate": 3.875e-05, |
|
"loss": 1.8848, |
|
"step": 27000 |
|
}, |
|
{ |
|
"epoch": 1.81, |
|
"learning_rate": 3.866666666666667e-05, |
|
"loss": 1.9101, |
|
"step": 27200 |
|
}, |
|
{ |
|
"epoch": 1.83, |
|
"learning_rate": 3.8583333333333334e-05, |
|
"loss": 1.8644, |
|
"step": 27400 |
|
}, |
|
{ |
|
"epoch": 1.84, |
|
"learning_rate": 3.85e-05, |
|
"loss": 1.8813, |
|
"step": 27600 |
|
}, |
|
{ |
|
"epoch": 1.85, |
|
"learning_rate": 3.841666666666667e-05, |
|
"loss": 1.8664, |
|
"step": 27800 |
|
}, |
|
{ |
|
"epoch": 1.87, |
|
"learning_rate": 3.8333333333333334e-05, |
|
"loss": 1.8755, |
|
"step": 28000 |
|
}, |
|
{ |
|
"epoch": 1.88, |
|
"learning_rate": 3.825e-05, |
|
"loss": 1.8921, |
|
"step": 28200 |
|
}, |
|
{ |
|
"epoch": 1.89, |
|
"learning_rate": 3.816666666666667e-05, |
|
"loss": 1.8937, |
|
"step": 28400 |
|
}, |
|
{ |
|
"epoch": 1.91, |
|
"learning_rate": 3.8083333333333335e-05, |
|
"loss": 1.8644, |
|
"step": 28600 |
|
}, |
|
{ |
|
"epoch": 1.92, |
|
"learning_rate": 3.8e-05, |
|
"loss": 1.8972, |
|
"step": 28800 |
|
}, |
|
{ |
|
"epoch": 1.93, |
|
"learning_rate": 3.791666666666667e-05, |
|
"loss": 1.8875, |
|
"step": 29000 |
|
}, |
|
{ |
|
"epoch": 1.95, |
|
"learning_rate": 3.7833333333333336e-05, |
|
"loss": 1.8615, |
|
"step": 29200 |
|
}, |
|
{ |
|
"epoch": 1.96, |
|
"learning_rate": 3.775e-05, |
|
"loss": 1.9172, |
|
"step": 29400 |
|
}, |
|
{ |
|
"epoch": 1.97, |
|
"learning_rate": 3.766666666666667e-05, |
|
"loss": 1.8913, |
|
"step": 29600 |
|
}, |
|
{ |
|
"epoch": 1.99, |
|
"learning_rate": 3.7583333333333337e-05, |
|
"loss": 1.8904, |
|
"step": 29800 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"learning_rate": 3.7500000000000003e-05, |
|
"loss": 1.9154, |
|
"step": 30000 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"eval_gen_len": 16.043007654951026, |
|
"eval_loss": 2.419179677963257, |
|
"eval_rouge1": 34.5156, |
|
"eval_rouge2": 14.0265, |
|
"eval_rougeL": 30.6272, |
|
"eval_rougeLsum": 30.6921, |
|
"eval_runtime": 2912.5692, |
|
"eval_samples_per_second": 8.342, |
|
"eval_steps_per_second": 2.086, |
|
"step": 30000 |
|
}, |
|
{ |
|
"epoch": 2.01, |
|
"learning_rate": 3.7416666666666664e-05, |
|
"loss": 1.6859, |
|
"step": 30200 |
|
}, |
|
{ |
|
"epoch": 2.03, |
|
"learning_rate": 3.733333333333334e-05, |
|
"loss": 1.714, |
|
"step": 30400 |
|
}, |
|
{ |
|
"epoch": 2.04, |
|
"learning_rate": 3.7250000000000004e-05, |
|
"loss": 1.7231, |
|
"step": 30600 |
|
}, |
|
{ |
|
"epoch": 2.05, |
|
"learning_rate": 3.7166666666666664e-05, |
|
"loss": 1.7206, |
|
"step": 30800 |
|
}, |
|
{ |
|
"epoch": 2.07, |
|
"learning_rate": 3.708333333333334e-05, |
|
"loss": 1.6844, |
|
"step": 31000 |
|
}, |
|
{ |
|
"epoch": 2.08, |
|
"learning_rate": 3.7e-05, |
|
"loss": 1.7092, |
|
"step": 31200 |
|
}, |
|
{ |
|
"epoch": 2.09, |
|
"learning_rate": 3.6916666666666665e-05, |
|
"loss": 1.7228, |
|
"step": 31400 |
|
}, |
|
{ |
|
"epoch": 2.11, |
|
"learning_rate": 3.683333333333334e-05, |
|
"loss": 1.6913, |
|
"step": 31600 |
|
}, |
|
{ |
|
"epoch": 2.12, |
|
"learning_rate": 3.675e-05, |
|
"loss": 1.7009, |
|
"step": 31800 |
|
}, |
|
{ |
|
"epoch": 2.13, |
|
"learning_rate": 3.6666666666666666e-05, |
|
"loss": 1.7045, |
|
"step": 32000 |
|
}, |
|
{ |
|
"epoch": 2.15, |
|
"learning_rate": 3.658333333333334e-05, |
|
"loss": 1.7111, |
|
"step": 32200 |
|
}, |
|
{ |
|
"epoch": 2.16, |
|
"learning_rate": 3.65e-05, |
|
"loss": 1.7166, |
|
"step": 32400 |
|
}, |
|
{ |
|
"epoch": 2.17, |
|
"learning_rate": 3.641666666666667e-05, |
|
"loss": 1.7458, |
|
"step": 32600 |
|
}, |
|
{ |
|
"epoch": 2.19, |
|
"learning_rate": 3.633333333333333e-05, |
|
"loss": 1.7357, |
|
"step": 32800 |
|
}, |
|
{ |
|
"epoch": 2.2, |
|
"learning_rate": 3.625e-05, |
|
"loss": 1.7032, |
|
"step": 33000 |
|
}, |
|
{ |
|
"epoch": 2.21, |
|
"learning_rate": 3.6166666666666674e-05, |
|
"loss": 1.7072, |
|
"step": 33200 |
|
}, |
|
{ |
|
"epoch": 2.23, |
|
"learning_rate": 3.6083333333333334e-05, |
|
"loss": 1.6994, |
|
"step": 33400 |
|
}, |
|
{ |
|
"epoch": 2.24, |
|
"learning_rate": 3.6e-05, |
|
"loss": 1.6992, |
|
"step": 33600 |
|
}, |
|
{ |
|
"epoch": 2.25, |
|
"learning_rate": 3.591666666666667e-05, |
|
"loss": 1.7208, |
|
"step": 33800 |
|
}, |
|
{ |
|
"epoch": 2.27, |
|
"learning_rate": 3.5833333333333335e-05, |
|
"loss": 1.7011, |
|
"step": 34000 |
|
}, |
|
{ |
|
"epoch": 2.28, |
|
"learning_rate": 3.575e-05, |
|
"loss": 1.7278, |
|
"step": 34200 |
|
}, |
|
{ |
|
"epoch": 2.29, |
|
"learning_rate": 3.566666666666667e-05, |
|
"loss": 1.7246, |
|
"step": 34400 |
|
}, |
|
{ |
|
"epoch": 2.31, |
|
"learning_rate": 3.5583333333333335e-05, |
|
"loss": 1.7248, |
|
"step": 34600 |
|
}, |
|
{ |
|
"epoch": 2.32, |
|
"learning_rate": 3.55e-05, |
|
"loss": 1.7244, |
|
"step": 34800 |
|
}, |
|
{ |
|
"epoch": 2.33, |
|
"learning_rate": 3.541666666666667e-05, |
|
"loss": 1.7531, |
|
"step": 35000 |
|
}, |
|
{ |
|
"epoch": 2.35, |
|
"learning_rate": 3.5333333333333336e-05, |
|
"loss": 1.755, |
|
"step": 35200 |
|
}, |
|
{ |
|
"epoch": 2.36, |
|
"learning_rate": 3.525e-05, |
|
"loss": 1.7275, |
|
"step": 35400 |
|
}, |
|
{ |
|
"epoch": 2.37, |
|
"learning_rate": 3.516666666666667e-05, |
|
"loss": 1.7237, |
|
"step": 35600 |
|
}, |
|
{ |
|
"epoch": 2.39, |
|
"learning_rate": 3.508333333333334e-05, |
|
"loss": 1.7379, |
|
"step": 35800 |
|
}, |
|
{ |
|
"epoch": 2.4, |
|
"learning_rate": 3.5e-05, |
|
"loss": 1.7157, |
|
"step": 36000 |
|
}, |
|
{ |
|
"epoch": 2.41, |
|
"learning_rate": 3.491666666666667e-05, |
|
"loss": 1.7413, |
|
"step": 36200 |
|
}, |
|
{ |
|
"epoch": 2.43, |
|
"learning_rate": 3.483333333333334e-05, |
|
"loss": 1.723, |
|
"step": 36400 |
|
}, |
|
{ |
|
"epoch": 2.44, |
|
"learning_rate": 3.475e-05, |
|
"loss": 1.7213, |
|
"step": 36600 |
|
}, |
|
{ |
|
"epoch": 2.45, |
|
"learning_rate": 3.466666666666667e-05, |
|
"loss": 1.7213, |
|
"step": 36800 |
|
}, |
|
{ |
|
"epoch": 2.47, |
|
"learning_rate": 3.458333333333333e-05, |
|
"loss": 1.6957, |
|
"step": 37000 |
|
}, |
|
{ |
|
"epoch": 2.48, |
|
"learning_rate": 3.45e-05, |
|
"loss": 1.7003, |
|
"step": 37200 |
|
}, |
|
{ |
|
"epoch": 2.49, |
|
"learning_rate": 3.441666666666667e-05, |
|
"loss": 1.7397, |
|
"step": 37400 |
|
}, |
|
{ |
|
"epoch": 2.51, |
|
"learning_rate": 3.433333333333333e-05, |
|
"loss": 1.693, |
|
"step": 37600 |
|
}, |
|
{ |
|
"epoch": 2.52, |
|
"learning_rate": 3.4250000000000006e-05, |
|
"loss": 1.7026, |
|
"step": 37800 |
|
}, |
|
{ |
|
"epoch": 2.53, |
|
"learning_rate": 3.4166666666666666e-05, |
|
"loss": 1.7449, |
|
"step": 38000 |
|
}, |
|
{ |
|
"epoch": 2.55, |
|
"learning_rate": 3.408333333333333e-05, |
|
"loss": 1.7425, |
|
"step": 38200 |
|
}, |
|
{ |
|
"epoch": 2.56, |
|
"learning_rate": 3.4000000000000007e-05, |
|
"loss": 1.7533, |
|
"step": 38400 |
|
}, |
|
{ |
|
"epoch": 2.57, |
|
"learning_rate": 3.391666666666667e-05, |
|
"loss": 1.7184, |
|
"step": 38600 |
|
}, |
|
{ |
|
"epoch": 2.59, |
|
"learning_rate": 3.3833333333333334e-05, |
|
"loss": 1.7301, |
|
"step": 38800 |
|
}, |
|
{ |
|
"epoch": 2.6, |
|
"learning_rate": 3.375000000000001e-05, |
|
"loss": 1.7336, |
|
"step": 39000 |
|
}, |
|
{ |
|
"epoch": 2.61, |
|
"learning_rate": 3.366666666666667e-05, |
|
"loss": 1.7344, |
|
"step": 39200 |
|
}, |
|
{ |
|
"epoch": 2.63, |
|
"learning_rate": 3.3583333333333334e-05, |
|
"loss": 1.7127, |
|
"step": 39400 |
|
}, |
|
{ |
|
"epoch": 2.64, |
|
"learning_rate": 3.35e-05, |
|
"loss": 1.7291, |
|
"step": 39600 |
|
}, |
|
{ |
|
"epoch": 2.65, |
|
"learning_rate": 3.341666666666667e-05, |
|
"loss": 1.7096, |
|
"step": 39800 |
|
}, |
|
{ |
|
"epoch": 2.67, |
|
"learning_rate": 3.3333333333333335e-05, |
|
"loss": 1.7135, |
|
"step": 40000 |
|
}, |
|
{ |
|
"epoch": 2.68, |
|
"learning_rate": 3.325e-05, |
|
"loss": 1.7156, |
|
"step": 40200 |
|
}, |
|
{ |
|
"epoch": 2.69, |
|
"learning_rate": 3.316666666666667e-05, |
|
"loss": 1.7434, |
|
"step": 40400 |
|
}, |
|
{ |
|
"epoch": 2.71, |
|
"learning_rate": 3.3083333333333336e-05, |
|
"loss": 1.7479, |
|
"step": 40600 |
|
}, |
|
{ |
|
"epoch": 2.72, |
|
"learning_rate": 3.3e-05, |
|
"loss": 1.7172, |
|
"step": 40800 |
|
}, |
|
{ |
|
"epoch": 2.73, |
|
"learning_rate": 3.291666666666667e-05, |
|
"loss": 1.7347, |
|
"step": 41000 |
|
}, |
|
{ |
|
"epoch": 2.75, |
|
"learning_rate": 3.283333333333333e-05, |
|
"loss": 1.7063, |
|
"step": 41200 |
|
}, |
|
{ |
|
"epoch": 2.76, |
|
"learning_rate": 3.275e-05, |
|
"loss": 1.736, |
|
"step": 41400 |
|
}, |
|
{ |
|
"epoch": 2.77, |
|
"learning_rate": 3.266666666666667e-05, |
|
"loss": 1.7389, |
|
"step": 41600 |
|
}, |
|
{ |
|
"epoch": 2.79, |
|
"learning_rate": 3.258333333333333e-05, |
|
"loss": 1.7315, |
|
"step": 41800 |
|
}, |
|
{ |
|
"epoch": 2.8, |
|
"learning_rate": 3.2500000000000004e-05, |
|
"loss": 1.7162, |
|
"step": 42000 |
|
}, |
|
{ |
|
"epoch": 2.81, |
|
"learning_rate": 3.2416666666666664e-05, |
|
"loss": 1.7181, |
|
"step": 42200 |
|
}, |
|
{ |
|
"epoch": 2.83, |
|
"learning_rate": 3.233333333333333e-05, |
|
"loss": 1.7168, |
|
"step": 42400 |
|
}, |
|
{ |
|
"epoch": 2.84, |
|
"learning_rate": 3.2250000000000005e-05, |
|
"loss": 1.7243, |
|
"step": 42600 |
|
}, |
|
{ |
|
"epoch": 2.85, |
|
"learning_rate": 3.2166666666666665e-05, |
|
"loss": 1.7113, |
|
"step": 42800 |
|
}, |
|
{ |
|
"epoch": 2.87, |
|
"learning_rate": 3.208333333333334e-05, |
|
"loss": 1.7294, |
|
"step": 43000 |
|
}, |
|
{ |
|
"epoch": 2.88, |
|
"learning_rate": 3.2000000000000005e-05, |
|
"loss": 1.7033, |
|
"step": 43200 |
|
}, |
|
{ |
|
"epoch": 2.89, |
|
"learning_rate": 3.1916666666666665e-05, |
|
"loss": 1.7622, |
|
"step": 43400 |
|
}, |
|
{ |
|
"epoch": 2.91, |
|
"learning_rate": 3.183333333333334e-05, |
|
"loss": 1.7233, |
|
"step": 43600 |
|
}, |
|
{ |
|
"epoch": 2.92, |
|
"learning_rate": 3.175e-05, |
|
"loss": 1.7479, |
|
"step": 43800 |
|
}, |
|
{ |
|
"epoch": 2.93, |
|
"learning_rate": 3.1666666666666666e-05, |
|
"loss": 1.7312, |
|
"step": 44000 |
|
}, |
|
{ |
|
"epoch": 2.95, |
|
"learning_rate": 3.158333333333334e-05, |
|
"loss": 1.7526, |
|
"step": 44200 |
|
}, |
|
{ |
|
"epoch": 2.96, |
|
"learning_rate": 3.15e-05, |
|
"loss": 1.7419, |
|
"step": 44400 |
|
}, |
|
{ |
|
"epoch": 2.97, |
|
"learning_rate": 3.141666666666667e-05, |
|
"loss": 1.7287, |
|
"step": 44600 |
|
}, |
|
{ |
|
"epoch": 2.99, |
|
"learning_rate": 3.1333333333333334e-05, |
|
"loss": 1.7304, |
|
"step": 44800 |
|
}, |
|
{ |
|
"epoch": 3.0, |
|
"learning_rate": 3.125e-05, |
|
"loss": 1.7863, |
|
"step": 45000 |
|
}, |
|
{ |
|
"epoch": 3.0, |
|
"eval_gen_len": 15.681784509013088, |
|
"eval_loss": 2.4119651317596436, |
|
"eval_rouge1": 35.0684, |
|
"eval_rouge2": 14.2092, |
|
"eval_rougeL": 31.0091, |
|
"eval_rougeLsum": 31.0765, |
|
"eval_runtime": 2851.736, |
|
"eval_samples_per_second": 8.52, |
|
"eval_steps_per_second": 2.13, |
|
"step": 45000 |
|
}, |
|
{ |
|
"epoch": 3.01, |
|
"learning_rate": 3.116666666666667e-05, |
|
"loss": 1.555, |
|
"step": 45200 |
|
}, |
|
{ |
|
"epoch": 3.03, |
|
"learning_rate": 3.1083333333333334e-05, |
|
"loss": 1.5511, |
|
"step": 45400 |
|
}, |
|
{ |
|
"epoch": 3.04, |
|
"learning_rate": 3.1e-05, |
|
"loss": 1.5533, |
|
"step": 45600 |
|
}, |
|
{ |
|
"epoch": 3.05, |
|
"learning_rate": 3.091666666666667e-05, |
|
"loss": 1.5438, |
|
"step": 45800 |
|
}, |
|
{ |
|
"epoch": 3.07, |
|
"learning_rate": 3.0833333333333335e-05, |
|
"loss": 1.5714, |
|
"step": 46000 |
|
}, |
|
{ |
|
"epoch": 3.08, |
|
"learning_rate": 3.075e-05, |
|
"loss": 1.5633, |
|
"step": 46200 |
|
}, |
|
{ |
|
"epoch": 3.09, |
|
"learning_rate": 3.066666666666667e-05, |
|
"loss": 1.574, |
|
"step": 46400 |
|
}, |
|
{ |
|
"epoch": 3.11, |
|
"learning_rate": 3.0583333333333336e-05, |
|
"loss": 1.5698, |
|
"step": 46600 |
|
}, |
|
{ |
|
"epoch": 3.12, |
|
"learning_rate": 3.05e-05, |
|
"loss": 1.5819, |
|
"step": 46800 |
|
}, |
|
{ |
|
"epoch": 3.13, |
|
"learning_rate": 3.0416666666666666e-05, |
|
"loss": 1.5745, |
|
"step": 47000 |
|
}, |
|
{ |
|
"epoch": 3.15, |
|
"learning_rate": 3.0333333333333337e-05, |
|
"loss": 1.5622, |
|
"step": 47200 |
|
}, |
|
{ |
|
"epoch": 3.16, |
|
"learning_rate": 3.025e-05, |
|
"loss": 1.5747, |
|
"step": 47400 |
|
}, |
|
{ |
|
"epoch": 3.17, |
|
"learning_rate": 3.016666666666667e-05, |
|
"loss": 1.5793, |
|
"step": 47600 |
|
}, |
|
{ |
|
"epoch": 3.19, |
|
"learning_rate": 3.0083333333333337e-05, |
|
"loss": 1.5884, |
|
"step": 47800 |
|
}, |
|
{ |
|
"epoch": 3.2, |
|
"learning_rate": 3e-05, |
|
"loss": 1.5729, |
|
"step": 48000 |
|
}, |
|
{ |
|
"epoch": 3.21, |
|
"learning_rate": 2.991666666666667e-05, |
|
"loss": 1.5944, |
|
"step": 48200 |
|
}, |
|
{ |
|
"epoch": 3.23, |
|
"learning_rate": 2.9833333333333335e-05, |
|
"loss": 1.5829, |
|
"step": 48400 |
|
}, |
|
{ |
|
"epoch": 3.24, |
|
"learning_rate": 2.975e-05, |
|
"loss": 1.588, |
|
"step": 48600 |
|
}, |
|
{ |
|
"epoch": 3.25, |
|
"learning_rate": 2.9666666666666672e-05, |
|
"loss": 1.5519, |
|
"step": 48800 |
|
}, |
|
{ |
|
"epoch": 3.27, |
|
"learning_rate": 2.9583333333333335e-05, |
|
"loss": 1.6017, |
|
"step": 49000 |
|
}, |
|
{ |
|
"epoch": 3.28, |
|
"learning_rate": 2.95e-05, |
|
"loss": 1.5851, |
|
"step": 49200 |
|
}, |
|
{ |
|
"epoch": 3.29, |
|
"learning_rate": 2.941666666666667e-05, |
|
"loss": 1.5738, |
|
"step": 49400 |
|
}, |
|
{ |
|
"epoch": 3.31, |
|
"learning_rate": 2.9333333333333336e-05, |
|
"loss": 1.5922, |
|
"step": 49600 |
|
}, |
|
{ |
|
"epoch": 3.32, |
|
"learning_rate": 2.925e-05, |
|
"loss": 1.5425, |
|
"step": 49800 |
|
}, |
|
{ |
|
"epoch": 3.33, |
|
"learning_rate": 2.916666666666667e-05, |
|
"loss": 1.5725, |
|
"step": 50000 |
|
}, |
|
{ |
|
"epoch": 3.35, |
|
"learning_rate": 2.9083333333333333e-05, |
|
"loss": 1.5734, |
|
"step": 50200 |
|
}, |
|
{ |
|
"epoch": 3.36, |
|
"learning_rate": 2.9e-05, |
|
"loss": 1.5821, |
|
"step": 50400 |
|
}, |
|
{ |
|
"epoch": 3.37, |
|
"learning_rate": 2.891666666666667e-05, |
|
"loss": 1.5822, |
|
"step": 50600 |
|
}, |
|
{ |
|
"epoch": 3.39, |
|
"learning_rate": 2.8833333333333334e-05, |
|
"loss": 1.5777, |
|
"step": 50800 |
|
}, |
|
{ |
|
"epoch": 3.4, |
|
"learning_rate": 2.8749999999999997e-05, |
|
"loss": 1.6048, |
|
"step": 51000 |
|
}, |
|
{ |
|
"epoch": 3.41, |
|
"learning_rate": 2.8666666666666668e-05, |
|
"loss": 1.5623, |
|
"step": 51200 |
|
}, |
|
{ |
|
"epoch": 3.43, |
|
"learning_rate": 2.8583333333333335e-05, |
|
"loss": 1.6099, |
|
"step": 51400 |
|
}, |
|
{ |
|
"epoch": 3.44, |
|
"learning_rate": 2.8499999999999998e-05, |
|
"loss": 1.5932, |
|
"step": 51600 |
|
}, |
|
{ |
|
"epoch": 3.45, |
|
"learning_rate": 2.841666666666667e-05, |
|
"loss": 1.5597, |
|
"step": 51800 |
|
}, |
|
{ |
|
"epoch": 3.47, |
|
"learning_rate": 2.8333333333333335e-05, |
|
"loss": 1.583, |
|
"step": 52000 |
|
}, |
|
{ |
|
"epoch": 3.48, |
|
"learning_rate": 2.825e-05, |
|
"loss": 1.5846, |
|
"step": 52200 |
|
}, |
|
{ |
|
"epoch": 3.49, |
|
"learning_rate": 2.816666666666667e-05, |
|
"loss": 1.5996, |
|
"step": 52400 |
|
}, |
|
{ |
|
"epoch": 3.51, |
|
"learning_rate": 2.8083333333333333e-05, |
|
"loss": 1.5999, |
|
"step": 52600 |
|
}, |
|
{ |
|
"epoch": 3.52, |
|
"learning_rate": 2.8000000000000003e-05, |
|
"loss": 1.605, |
|
"step": 52800 |
|
}, |
|
{ |
|
"epoch": 3.53, |
|
"learning_rate": 2.791666666666667e-05, |
|
"loss": 1.5995, |
|
"step": 53000 |
|
}, |
|
{ |
|
"epoch": 3.55, |
|
"learning_rate": 2.7833333333333333e-05, |
|
"loss": 1.6058, |
|
"step": 53200 |
|
}, |
|
{ |
|
"epoch": 3.56, |
|
"learning_rate": 2.7750000000000004e-05, |
|
"loss": 1.59, |
|
"step": 53400 |
|
}, |
|
{ |
|
"epoch": 3.57, |
|
"learning_rate": 2.7666666666666667e-05, |
|
"loss": 1.5918, |
|
"step": 53600 |
|
}, |
|
{ |
|
"epoch": 3.59, |
|
"learning_rate": 2.7583333333333334e-05, |
|
"loss": 1.5833, |
|
"step": 53800 |
|
}, |
|
{ |
|
"epoch": 3.6, |
|
"learning_rate": 2.7500000000000004e-05, |
|
"loss": 1.6004, |
|
"step": 54000 |
|
}, |
|
{ |
|
"epoch": 3.61, |
|
"learning_rate": 2.7416666666666668e-05, |
|
"loss": 1.5726, |
|
"step": 54200 |
|
}, |
|
{ |
|
"epoch": 3.63, |
|
"learning_rate": 2.733333333333333e-05, |
|
"loss": 1.6005, |
|
"step": 54400 |
|
}, |
|
{ |
|
"epoch": 3.64, |
|
"learning_rate": 2.725e-05, |
|
"loss": 1.5796, |
|
"step": 54600 |
|
}, |
|
{ |
|
"epoch": 3.65, |
|
"learning_rate": 2.716666666666667e-05, |
|
"loss": 1.5759, |
|
"step": 54800 |
|
}, |
|
{ |
|
"epoch": 3.67, |
|
"learning_rate": 2.7083333333333332e-05, |
|
"loss": 1.5836, |
|
"step": 55000 |
|
}, |
|
{ |
|
"epoch": 3.68, |
|
"learning_rate": 2.7000000000000002e-05, |
|
"loss": 1.614, |
|
"step": 55200 |
|
}, |
|
{ |
|
"epoch": 3.69, |
|
"learning_rate": 2.691666666666667e-05, |
|
"loss": 1.5921, |
|
"step": 55400 |
|
}, |
|
{ |
|
"epoch": 3.71, |
|
"learning_rate": 2.6833333333333333e-05, |
|
"loss": 1.5859, |
|
"step": 55600 |
|
}, |
|
{ |
|
"epoch": 3.72, |
|
"learning_rate": 2.6750000000000003e-05, |
|
"loss": 1.5914, |
|
"step": 55800 |
|
}, |
|
{ |
|
"epoch": 3.73, |
|
"learning_rate": 2.6666666666666667e-05, |
|
"loss": 1.5979, |
|
"step": 56000 |
|
}, |
|
{ |
|
"epoch": 3.75, |
|
"learning_rate": 2.6583333333333333e-05, |
|
"loss": 1.6103, |
|
"step": 56200 |
|
}, |
|
{ |
|
"epoch": 3.76, |
|
"learning_rate": 2.6500000000000004e-05, |
|
"loss": 1.5848, |
|
"step": 56400 |
|
}, |
|
{ |
|
"epoch": 3.77, |
|
"learning_rate": 2.6416666666666667e-05, |
|
"loss": 1.583, |
|
"step": 56600 |
|
}, |
|
{ |
|
"epoch": 3.79, |
|
"learning_rate": 2.633333333333333e-05, |
|
"loss": 1.6103, |
|
"step": 56800 |
|
}, |
|
{ |
|
"epoch": 3.8, |
|
"learning_rate": 2.625e-05, |
|
"loss": 1.5873, |
|
"step": 57000 |
|
}, |
|
{ |
|
"epoch": 3.81, |
|
"learning_rate": 2.6166666666666668e-05, |
|
"loss": 1.5808, |
|
"step": 57200 |
|
}, |
|
{ |
|
"epoch": 3.83, |
|
"learning_rate": 2.608333333333333e-05, |
|
"loss": 1.5985, |
|
"step": 57400 |
|
}, |
|
{ |
|
"epoch": 3.84, |
|
"learning_rate": 2.6000000000000002e-05, |
|
"loss": 1.6133, |
|
"step": 57600 |
|
}, |
|
{ |
|
"epoch": 3.85, |
|
"learning_rate": 2.5916666666666665e-05, |
|
"loss": 1.5778, |
|
"step": 57800 |
|
}, |
|
{ |
|
"epoch": 3.87, |
|
"learning_rate": 2.5833333333333336e-05, |
|
"loss": 1.5961, |
|
"step": 58000 |
|
}, |
|
{ |
|
"epoch": 3.88, |
|
"learning_rate": 2.5750000000000002e-05, |
|
"loss": 1.5924, |
|
"step": 58200 |
|
}, |
|
{ |
|
"epoch": 3.89, |
|
"learning_rate": 2.5666666666666666e-05, |
|
"loss": 1.5834, |
|
"step": 58400 |
|
}, |
|
{ |
|
"epoch": 3.91, |
|
"learning_rate": 2.5583333333333336e-05, |
|
"loss": 1.5845, |
|
"step": 58600 |
|
}, |
|
{ |
|
"epoch": 3.92, |
|
"learning_rate": 2.5500000000000003e-05, |
|
"loss": 1.6207, |
|
"step": 58800 |
|
}, |
|
{ |
|
"epoch": 3.93, |
|
"learning_rate": 2.5416666666666667e-05, |
|
"loss": 1.5935, |
|
"step": 59000 |
|
}, |
|
{ |
|
"epoch": 3.95, |
|
"learning_rate": 2.5333333333333337e-05, |
|
"loss": 1.5847, |
|
"step": 59200 |
|
}, |
|
{ |
|
"epoch": 3.96, |
|
"learning_rate": 2.525e-05, |
|
"loss": 1.5708, |
|
"step": 59400 |
|
}, |
|
{ |
|
"epoch": 3.97, |
|
"learning_rate": 2.5166666666666667e-05, |
|
"loss": 1.582, |
|
"step": 59600 |
|
}, |
|
{ |
|
"epoch": 3.99, |
|
"learning_rate": 2.5083333333333338e-05, |
|
"loss": 1.6068, |
|
"step": 59800 |
|
}, |
|
{ |
|
"epoch": 4.0, |
|
"learning_rate": 2.5e-05, |
|
"loss": 1.5749, |
|
"step": 60000 |
|
}, |
|
{ |
|
"epoch": 4.0, |
|
"eval_gen_len": 15.67746316569265, |
|
"eval_loss": 2.43806529045105, |
|
"eval_rouge1": 35.3459, |
|
"eval_rouge2": 14.4892, |
|
"eval_rougeL": 31.2887, |
|
"eval_rougeLsum": 31.3513, |
|
"eval_runtime": 3189.3267, |
|
"eval_samples_per_second": 7.619, |
|
"eval_steps_per_second": 1.905, |
|
"step": 60000 |
|
} |
|
], |
|
"logging_steps": 200, |
|
"max_steps": 120000, |
|
"num_input_tokens_seen": 0, |
|
"num_train_epochs": 8, |
|
"save_steps": 500, |
|
"total_flos": 5.064159661468877e+17, |
|
"train_batch_size": 4, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|