|
{ |
|
"best_metric": null, |
|
"best_model_checkpoint": null, |
|
"epoch": 2.831858407079646, |
|
"eval_steps": 500, |
|
"global_step": 800, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.0, |
|
"learning_rate": 1.4083333333333335e-05, |
|
"loss": 3.5534, |
|
"step": 1 |
|
}, |
|
{ |
|
"epoch": 0.01, |
|
"learning_rate": 1.4066666666666667e-05, |
|
"loss": 3.7127, |
|
"step": 2 |
|
}, |
|
{ |
|
"epoch": 0.01, |
|
"learning_rate": 1.4050000000000001e-05, |
|
"loss": 4.2623, |
|
"step": 3 |
|
}, |
|
{ |
|
"epoch": 0.01, |
|
"learning_rate": 1.4033333333333333e-05, |
|
"loss": 3.7368, |
|
"step": 4 |
|
}, |
|
{ |
|
"epoch": 0.02, |
|
"learning_rate": 1.4016666666666667e-05, |
|
"loss": 4.161, |
|
"step": 5 |
|
}, |
|
{ |
|
"epoch": 0.02, |
|
"learning_rate": 1.4e-05, |
|
"loss": 3.6681, |
|
"step": 6 |
|
}, |
|
{ |
|
"epoch": 0.02, |
|
"learning_rate": 1.3983333333333334e-05, |
|
"loss": 3.9844, |
|
"step": 7 |
|
}, |
|
{ |
|
"epoch": 0.03, |
|
"learning_rate": 1.3966666666666666e-05, |
|
"loss": 3.8629, |
|
"step": 8 |
|
}, |
|
{ |
|
"epoch": 0.03, |
|
"learning_rate": 1.395e-05, |
|
"loss": 3.5326, |
|
"step": 9 |
|
}, |
|
{ |
|
"epoch": 0.04, |
|
"learning_rate": 1.3933333333333334e-05, |
|
"loss": 4.133, |
|
"step": 10 |
|
}, |
|
{ |
|
"epoch": 0.04, |
|
"learning_rate": 1.3916666666666668e-05, |
|
"loss": 3.4204, |
|
"step": 11 |
|
}, |
|
{ |
|
"epoch": 0.04, |
|
"learning_rate": 1.39e-05, |
|
"loss": 3.8807, |
|
"step": 12 |
|
}, |
|
{ |
|
"epoch": 0.05, |
|
"learning_rate": 1.3883333333333335e-05, |
|
"loss": 3.0356, |
|
"step": 13 |
|
}, |
|
{ |
|
"epoch": 0.05, |
|
"learning_rate": 1.3866666666666667e-05, |
|
"loss": 4.1021, |
|
"step": 14 |
|
}, |
|
{ |
|
"epoch": 0.05, |
|
"learning_rate": 1.3850000000000001e-05, |
|
"loss": 3.601, |
|
"step": 15 |
|
}, |
|
{ |
|
"epoch": 0.06, |
|
"learning_rate": 1.3833333333333334e-05, |
|
"loss": 3.9449, |
|
"step": 16 |
|
}, |
|
{ |
|
"epoch": 0.06, |
|
"learning_rate": 1.3816666666666668e-05, |
|
"loss": 3.5298, |
|
"step": 17 |
|
}, |
|
{ |
|
"epoch": 0.06, |
|
"learning_rate": 1.38e-05, |
|
"loss": 4.0018, |
|
"step": 18 |
|
}, |
|
{ |
|
"epoch": 0.07, |
|
"learning_rate": 1.3783333333333334e-05, |
|
"loss": 3.9118, |
|
"step": 19 |
|
}, |
|
{ |
|
"epoch": 0.07, |
|
"learning_rate": 1.3766666666666666e-05, |
|
"loss": 3.4263, |
|
"step": 20 |
|
}, |
|
{ |
|
"epoch": 0.07, |
|
"learning_rate": 1.375e-05, |
|
"loss": 3.6932, |
|
"step": 21 |
|
}, |
|
{ |
|
"epoch": 0.08, |
|
"learning_rate": 1.3733333333333333e-05, |
|
"loss": 3.635, |
|
"step": 22 |
|
}, |
|
{ |
|
"epoch": 0.08, |
|
"learning_rate": 1.3716666666666667e-05, |
|
"loss": 3.4161, |
|
"step": 23 |
|
}, |
|
{ |
|
"epoch": 0.08, |
|
"learning_rate": 1.37e-05, |
|
"loss": 3.7193, |
|
"step": 24 |
|
}, |
|
{ |
|
"epoch": 0.09, |
|
"learning_rate": 1.3683333333333333e-05, |
|
"loss": 3.4549, |
|
"step": 25 |
|
}, |
|
{ |
|
"epoch": 0.09, |
|
"learning_rate": 1.3666666666666667e-05, |
|
"loss": 4.1942, |
|
"step": 26 |
|
}, |
|
{ |
|
"epoch": 0.1, |
|
"learning_rate": 1.3650000000000001e-05, |
|
"loss": 3.3606, |
|
"step": 27 |
|
}, |
|
{ |
|
"epoch": 0.1, |
|
"learning_rate": 1.3633333333333334e-05, |
|
"loss": 3.3916, |
|
"step": 28 |
|
}, |
|
{ |
|
"epoch": 0.1, |
|
"learning_rate": 1.3616666666666668e-05, |
|
"loss": 3.8369, |
|
"step": 29 |
|
}, |
|
{ |
|
"epoch": 0.11, |
|
"learning_rate": 1.36e-05, |
|
"loss": 4.0893, |
|
"step": 30 |
|
}, |
|
{ |
|
"epoch": 0.11, |
|
"learning_rate": 1.3583333333333334e-05, |
|
"loss": 3.4825, |
|
"step": 31 |
|
}, |
|
{ |
|
"epoch": 0.11, |
|
"learning_rate": 1.3566666666666667e-05, |
|
"loss": 3.6664, |
|
"step": 32 |
|
}, |
|
{ |
|
"epoch": 0.12, |
|
"learning_rate": 1.355e-05, |
|
"loss": 3.6649, |
|
"step": 33 |
|
}, |
|
{ |
|
"epoch": 0.12, |
|
"learning_rate": 1.3533333333333335e-05, |
|
"loss": 2.7988, |
|
"step": 34 |
|
}, |
|
{ |
|
"epoch": 0.12, |
|
"learning_rate": 1.3516666666666667e-05, |
|
"loss": 3.8814, |
|
"step": 35 |
|
}, |
|
{ |
|
"epoch": 0.13, |
|
"learning_rate": 1.3500000000000001e-05, |
|
"loss": 3.3368, |
|
"step": 36 |
|
}, |
|
{ |
|
"epoch": 0.13, |
|
"learning_rate": 1.3483333333333334e-05, |
|
"loss": 3.8391, |
|
"step": 37 |
|
}, |
|
{ |
|
"epoch": 0.13, |
|
"learning_rate": 1.3466666666666668e-05, |
|
"loss": 3.4131, |
|
"step": 38 |
|
}, |
|
{ |
|
"epoch": 0.14, |
|
"learning_rate": 1.345e-05, |
|
"loss": 3.8337, |
|
"step": 39 |
|
}, |
|
{ |
|
"epoch": 0.14, |
|
"learning_rate": 1.3433333333333334e-05, |
|
"loss": 3.7387, |
|
"step": 40 |
|
}, |
|
{ |
|
"epoch": 0.15, |
|
"learning_rate": 1.3416666666666666e-05, |
|
"loss": 3.5366, |
|
"step": 41 |
|
}, |
|
{ |
|
"epoch": 0.15, |
|
"learning_rate": 1.34e-05, |
|
"loss": 3.4234, |
|
"step": 42 |
|
}, |
|
{ |
|
"epoch": 0.15, |
|
"learning_rate": 1.3383333333333333e-05, |
|
"loss": 3.9778, |
|
"step": 43 |
|
}, |
|
{ |
|
"epoch": 0.16, |
|
"learning_rate": 1.3366666666666667e-05, |
|
"loss": 3.3433, |
|
"step": 44 |
|
}, |
|
{ |
|
"epoch": 0.16, |
|
"learning_rate": 1.3350000000000001e-05, |
|
"loss": 3.5675, |
|
"step": 45 |
|
}, |
|
{ |
|
"epoch": 0.16, |
|
"learning_rate": 1.3333333333333335e-05, |
|
"loss": 3.6335, |
|
"step": 46 |
|
}, |
|
{ |
|
"epoch": 0.17, |
|
"learning_rate": 1.3316666666666667e-05, |
|
"loss": 3.864, |
|
"step": 47 |
|
}, |
|
{ |
|
"epoch": 0.17, |
|
"learning_rate": 1.3300000000000001e-05, |
|
"loss": 3.6632, |
|
"step": 48 |
|
}, |
|
{ |
|
"epoch": 0.17, |
|
"learning_rate": 1.3283333333333334e-05, |
|
"loss": 4.4024, |
|
"step": 49 |
|
}, |
|
{ |
|
"epoch": 0.18, |
|
"learning_rate": 1.3266666666666668e-05, |
|
"loss": 3.1513, |
|
"step": 50 |
|
}, |
|
{ |
|
"epoch": 0.18, |
|
"learning_rate": 1.325e-05, |
|
"loss": 2.8684, |
|
"step": 51 |
|
}, |
|
{ |
|
"epoch": 0.18, |
|
"learning_rate": 1.3233333333333334e-05, |
|
"loss": 3.3777, |
|
"step": 52 |
|
}, |
|
{ |
|
"epoch": 0.19, |
|
"learning_rate": 1.3216666666666667e-05, |
|
"loss": 3.2801, |
|
"step": 53 |
|
}, |
|
{ |
|
"epoch": 0.19, |
|
"learning_rate": 1.32e-05, |
|
"loss": 3.5396, |
|
"step": 54 |
|
}, |
|
{ |
|
"epoch": 0.19, |
|
"learning_rate": 1.3183333333333333e-05, |
|
"loss": 3.7721, |
|
"step": 55 |
|
}, |
|
{ |
|
"epoch": 0.2, |
|
"learning_rate": 1.3166666666666667e-05, |
|
"loss": 3.7046, |
|
"step": 56 |
|
}, |
|
{ |
|
"epoch": 0.2, |
|
"learning_rate": 1.315e-05, |
|
"loss": 3.5611, |
|
"step": 57 |
|
}, |
|
{ |
|
"epoch": 0.21, |
|
"learning_rate": 1.3133333333333334e-05, |
|
"loss": 4.0658, |
|
"step": 58 |
|
}, |
|
{ |
|
"epoch": 0.21, |
|
"learning_rate": 1.3116666666666666e-05, |
|
"loss": 3.1316, |
|
"step": 59 |
|
}, |
|
{ |
|
"epoch": 0.21, |
|
"learning_rate": 1.31e-05, |
|
"loss": 3.4185, |
|
"step": 60 |
|
}, |
|
{ |
|
"epoch": 0.22, |
|
"learning_rate": 1.3083333333333332e-05, |
|
"loss": 3.438, |
|
"step": 61 |
|
}, |
|
{ |
|
"epoch": 0.22, |
|
"learning_rate": 1.3066666666666668e-05, |
|
"loss": 3.2125, |
|
"step": 62 |
|
}, |
|
{ |
|
"epoch": 0.22, |
|
"learning_rate": 1.305e-05, |
|
"loss": 3.2451, |
|
"step": 63 |
|
}, |
|
{ |
|
"epoch": 0.23, |
|
"learning_rate": 1.3033333333333334e-05, |
|
"loss": 3.3465, |
|
"step": 64 |
|
}, |
|
{ |
|
"epoch": 0.23, |
|
"learning_rate": 1.3016666666666667e-05, |
|
"loss": 3.3044, |
|
"step": 65 |
|
}, |
|
{ |
|
"epoch": 0.23, |
|
"learning_rate": 1.3000000000000001e-05, |
|
"loss": 3.6976, |
|
"step": 66 |
|
}, |
|
{ |
|
"epoch": 0.24, |
|
"learning_rate": 1.2983333333333335e-05, |
|
"loss": 3.649, |
|
"step": 67 |
|
}, |
|
{ |
|
"epoch": 0.24, |
|
"learning_rate": 1.2966666666666667e-05, |
|
"loss": 3.428, |
|
"step": 68 |
|
}, |
|
{ |
|
"epoch": 0.24, |
|
"learning_rate": 1.2950000000000001e-05, |
|
"loss": 3.2451, |
|
"step": 69 |
|
}, |
|
{ |
|
"epoch": 0.25, |
|
"learning_rate": 1.2933333333333334e-05, |
|
"loss": 3.1329, |
|
"step": 70 |
|
}, |
|
{ |
|
"epoch": 0.25, |
|
"learning_rate": 1.2916666666666668e-05, |
|
"loss": 3.0509, |
|
"step": 71 |
|
}, |
|
{ |
|
"epoch": 0.25, |
|
"learning_rate": 1.29e-05, |
|
"loss": 3.2347, |
|
"step": 72 |
|
}, |
|
{ |
|
"epoch": 0.26, |
|
"learning_rate": 1.2883333333333334e-05, |
|
"loss": 3.1726, |
|
"step": 73 |
|
}, |
|
{ |
|
"epoch": 0.26, |
|
"learning_rate": 1.2866666666666667e-05, |
|
"loss": 3.7461, |
|
"step": 74 |
|
}, |
|
{ |
|
"epoch": 0.27, |
|
"learning_rate": 1.285e-05, |
|
"loss": 3.3563, |
|
"step": 75 |
|
}, |
|
{ |
|
"epoch": 0.27, |
|
"learning_rate": 1.2833333333333333e-05, |
|
"loss": 3.4234, |
|
"step": 76 |
|
}, |
|
{ |
|
"epoch": 0.27, |
|
"learning_rate": 1.2816666666666667e-05, |
|
"loss": 3.1188, |
|
"step": 77 |
|
}, |
|
{ |
|
"epoch": 0.28, |
|
"learning_rate": 1.28e-05, |
|
"loss": 3.384, |
|
"step": 78 |
|
}, |
|
{ |
|
"epoch": 0.28, |
|
"learning_rate": 1.2783333333333333e-05, |
|
"loss": 3.4152, |
|
"step": 79 |
|
}, |
|
{ |
|
"epoch": 0.28, |
|
"learning_rate": 1.2766666666666668e-05, |
|
"loss": 3.6954, |
|
"step": 80 |
|
}, |
|
{ |
|
"epoch": 0.29, |
|
"learning_rate": 1.2750000000000002e-05, |
|
"loss": 3.6661, |
|
"step": 81 |
|
}, |
|
{ |
|
"epoch": 0.29, |
|
"learning_rate": 1.2733333333333334e-05, |
|
"loss": 3.9602, |
|
"step": 82 |
|
}, |
|
{ |
|
"epoch": 0.29, |
|
"learning_rate": 1.2716666666666668e-05, |
|
"loss": 3.2385, |
|
"step": 83 |
|
}, |
|
{ |
|
"epoch": 0.3, |
|
"learning_rate": 1.27e-05, |
|
"loss": 3.0475, |
|
"step": 84 |
|
}, |
|
{ |
|
"epoch": 0.3, |
|
"learning_rate": 1.2683333333333334e-05, |
|
"loss": 3.6019, |
|
"step": 85 |
|
}, |
|
{ |
|
"epoch": 0.3, |
|
"learning_rate": 1.2666666666666667e-05, |
|
"loss": 3.4866, |
|
"step": 86 |
|
}, |
|
{ |
|
"epoch": 0.31, |
|
"learning_rate": 1.2650000000000001e-05, |
|
"loss": 3.53, |
|
"step": 87 |
|
}, |
|
{ |
|
"epoch": 0.31, |
|
"learning_rate": 1.2633333333333333e-05, |
|
"loss": 3.2146, |
|
"step": 88 |
|
}, |
|
{ |
|
"epoch": 0.32, |
|
"learning_rate": 1.2616666666666667e-05, |
|
"loss": 3.0397, |
|
"step": 89 |
|
}, |
|
{ |
|
"epoch": 0.32, |
|
"learning_rate": 1.26e-05, |
|
"loss": 3.917, |
|
"step": 90 |
|
}, |
|
{ |
|
"epoch": 0.32, |
|
"learning_rate": 1.2583333333333334e-05, |
|
"loss": 3.1018, |
|
"step": 91 |
|
}, |
|
{ |
|
"epoch": 0.33, |
|
"learning_rate": 1.2566666666666666e-05, |
|
"loss": 3.3793, |
|
"step": 92 |
|
}, |
|
{ |
|
"epoch": 0.33, |
|
"learning_rate": 1.255e-05, |
|
"loss": 3.3385, |
|
"step": 93 |
|
}, |
|
{ |
|
"epoch": 0.33, |
|
"learning_rate": 1.2533333333333332e-05, |
|
"loss": 2.6842, |
|
"step": 94 |
|
}, |
|
{ |
|
"epoch": 0.34, |
|
"learning_rate": 1.2516666666666667e-05, |
|
"loss": 3.2845, |
|
"step": 95 |
|
}, |
|
{ |
|
"epoch": 0.34, |
|
"learning_rate": 1.2499999999999999e-05, |
|
"loss": 3.6947, |
|
"step": 96 |
|
}, |
|
{ |
|
"epoch": 0.34, |
|
"learning_rate": 1.2483333333333335e-05, |
|
"loss": 2.8063, |
|
"step": 97 |
|
}, |
|
{ |
|
"epoch": 0.35, |
|
"learning_rate": 1.2466666666666669e-05, |
|
"loss": 3.316, |
|
"step": 98 |
|
}, |
|
{ |
|
"epoch": 0.35, |
|
"learning_rate": 1.2450000000000001e-05, |
|
"loss": 3.1536, |
|
"step": 99 |
|
}, |
|
{ |
|
"epoch": 0.35, |
|
"learning_rate": 1.2433333333333335e-05, |
|
"loss": 3.4605, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 0.36, |
|
"learning_rate": 1.2416666666666667e-05, |
|
"loss": 3.2677, |
|
"step": 101 |
|
}, |
|
{ |
|
"epoch": 0.36, |
|
"learning_rate": 1.2400000000000002e-05, |
|
"loss": 2.9653, |
|
"step": 102 |
|
}, |
|
{ |
|
"epoch": 0.36, |
|
"learning_rate": 1.2383333333333334e-05, |
|
"loss": 3.3598, |
|
"step": 103 |
|
}, |
|
{ |
|
"epoch": 0.37, |
|
"learning_rate": 1.2366666666666668e-05, |
|
"loss": 3.4419, |
|
"step": 104 |
|
}, |
|
{ |
|
"epoch": 0.37, |
|
"learning_rate": 1.235e-05, |
|
"loss": 3.3684, |
|
"step": 105 |
|
}, |
|
{ |
|
"epoch": 0.38, |
|
"learning_rate": 1.2333333333333334e-05, |
|
"loss": 2.8683, |
|
"step": 106 |
|
}, |
|
{ |
|
"epoch": 0.38, |
|
"learning_rate": 1.2316666666666667e-05, |
|
"loss": 2.8454, |
|
"step": 107 |
|
}, |
|
{ |
|
"epoch": 0.38, |
|
"learning_rate": 1.23e-05, |
|
"loss": 3.4689, |
|
"step": 108 |
|
}, |
|
{ |
|
"epoch": 0.39, |
|
"learning_rate": 1.2283333333333333e-05, |
|
"loss": 3.0329, |
|
"step": 109 |
|
}, |
|
{ |
|
"epoch": 0.39, |
|
"learning_rate": 1.2266666666666667e-05, |
|
"loss": 3.0946, |
|
"step": 110 |
|
}, |
|
{ |
|
"epoch": 0.39, |
|
"learning_rate": 1.225e-05, |
|
"loss": 3.4267, |
|
"step": 111 |
|
}, |
|
{ |
|
"epoch": 0.4, |
|
"learning_rate": 1.2233333333333334e-05, |
|
"loss": 2.6103, |
|
"step": 112 |
|
}, |
|
{ |
|
"epoch": 0.4, |
|
"learning_rate": 1.2216666666666666e-05, |
|
"loss": 3.4916, |
|
"step": 113 |
|
}, |
|
{ |
|
"epoch": 0.4, |
|
"learning_rate": 1.22e-05, |
|
"loss": 2.8278, |
|
"step": 114 |
|
}, |
|
{ |
|
"epoch": 0.41, |
|
"learning_rate": 1.2183333333333334e-05, |
|
"loss": 3.4184, |
|
"step": 115 |
|
}, |
|
{ |
|
"epoch": 0.41, |
|
"learning_rate": 1.2166666666666668e-05, |
|
"loss": 3.2575, |
|
"step": 116 |
|
}, |
|
{ |
|
"epoch": 0.41, |
|
"learning_rate": 1.215e-05, |
|
"loss": 3.1622, |
|
"step": 117 |
|
}, |
|
{ |
|
"epoch": 0.42, |
|
"learning_rate": 1.2133333333333335e-05, |
|
"loss": 3.2256, |
|
"step": 118 |
|
}, |
|
{ |
|
"epoch": 0.42, |
|
"learning_rate": 1.2116666666666667e-05, |
|
"loss": 2.8456, |
|
"step": 119 |
|
}, |
|
{ |
|
"epoch": 0.42, |
|
"learning_rate": 1.2100000000000001e-05, |
|
"loss": 3.6248, |
|
"step": 120 |
|
}, |
|
{ |
|
"epoch": 0.43, |
|
"learning_rate": 1.2083333333333333e-05, |
|
"loss": 3.2128, |
|
"step": 121 |
|
}, |
|
{ |
|
"epoch": 0.43, |
|
"learning_rate": 1.2066666666666667e-05, |
|
"loss": 3.0852, |
|
"step": 122 |
|
}, |
|
{ |
|
"epoch": 0.44, |
|
"learning_rate": 1.205e-05, |
|
"loss": 3.2686, |
|
"step": 123 |
|
}, |
|
{ |
|
"epoch": 0.44, |
|
"learning_rate": 1.2033333333333334e-05, |
|
"loss": 3.4366, |
|
"step": 124 |
|
}, |
|
{ |
|
"epoch": 0.44, |
|
"learning_rate": 1.2016666666666666e-05, |
|
"loss": 3.2794, |
|
"step": 125 |
|
}, |
|
{ |
|
"epoch": 0.45, |
|
"learning_rate": 1.2e-05, |
|
"loss": 2.689, |
|
"step": 126 |
|
}, |
|
{ |
|
"epoch": 0.45, |
|
"learning_rate": 1.1983333333333333e-05, |
|
"loss": 3.3091, |
|
"step": 127 |
|
}, |
|
{ |
|
"epoch": 0.45, |
|
"learning_rate": 1.1966666666666667e-05, |
|
"loss": 3.1924, |
|
"step": 128 |
|
}, |
|
{ |
|
"epoch": 0.46, |
|
"learning_rate": 1.1949999999999999e-05, |
|
"loss": 3.0588, |
|
"step": 129 |
|
}, |
|
{ |
|
"epoch": 0.46, |
|
"learning_rate": 1.1933333333333333e-05, |
|
"loss": 2.9421, |
|
"step": 130 |
|
}, |
|
{ |
|
"epoch": 0.46, |
|
"learning_rate": 1.1916666666666667e-05, |
|
"loss": 2.5453, |
|
"step": 131 |
|
}, |
|
{ |
|
"epoch": 0.47, |
|
"learning_rate": 1.19e-05, |
|
"loss": 2.8745, |
|
"step": 132 |
|
}, |
|
{ |
|
"epoch": 0.47, |
|
"learning_rate": 1.1883333333333335e-05, |
|
"loss": 3.0359, |
|
"step": 133 |
|
}, |
|
{ |
|
"epoch": 0.47, |
|
"learning_rate": 1.1866666666666668e-05, |
|
"loss": 3.6153, |
|
"step": 134 |
|
}, |
|
{ |
|
"epoch": 0.48, |
|
"learning_rate": 1.1850000000000002e-05, |
|
"loss": 2.8771, |
|
"step": 135 |
|
}, |
|
{ |
|
"epoch": 0.48, |
|
"learning_rate": 1.1833333333333334e-05, |
|
"loss": 3.4124, |
|
"step": 136 |
|
}, |
|
{ |
|
"epoch": 0.48, |
|
"learning_rate": 1.1816666666666668e-05, |
|
"loss": 2.8208, |
|
"step": 137 |
|
}, |
|
{ |
|
"epoch": 0.49, |
|
"learning_rate": 1.18e-05, |
|
"loss": 2.8201, |
|
"step": 138 |
|
}, |
|
{ |
|
"epoch": 0.49, |
|
"learning_rate": 1.1783333333333335e-05, |
|
"loss": 3.1083, |
|
"step": 139 |
|
}, |
|
{ |
|
"epoch": 0.5, |
|
"learning_rate": 1.1766666666666667e-05, |
|
"loss": 3.0364, |
|
"step": 140 |
|
}, |
|
{ |
|
"epoch": 0.5, |
|
"learning_rate": 1.1750000000000001e-05, |
|
"loss": 3.4302, |
|
"step": 141 |
|
}, |
|
{ |
|
"epoch": 0.5, |
|
"learning_rate": 1.1733333333333333e-05, |
|
"loss": 3.0199, |
|
"step": 142 |
|
}, |
|
{ |
|
"epoch": 0.51, |
|
"learning_rate": 1.1716666666666667e-05, |
|
"loss": 2.6112, |
|
"step": 143 |
|
}, |
|
{ |
|
"epoch": 0.51, |
|
"learning_rate": 1.17e-05, |
|
"loss": 3.4851, |
|
"step": 144 |
|
}, |
|
{ |
|
"epoch": 0.51, |
|
"learning_rate": 1.1683333333333334e-05, |
|
"loss": 3.1424, |
|
"step": 145 |
|
}, |
|
{ |
|
"epoch": 0.52, |
|
"learning_rate": 1.1666666666666666e-05, |
|
"loss": 2.573, |
|
"step": 146 |
|
}, |
|
{ |
|
"epoch": 0.52, |
|
"learning_rate": 1.165e-05, |
|
"loss": 2.4603, |
|
"step": 147 |
|
}, |
|
{ |
|
"epoch": 0.52, |
|
"learning_rate": 1.1633333333333333e-05, |
|
"loss": 3.1464, |
|
"step": 148 |
|
}, |
|
{ |
|
"epoch": 0.53, |
|
"learning_rate": 1.1616666666666667e-05, |
|
"loss": 3.1204, |
|
"step": 149 |
|
}, |
|
{ |
|
"epoch": 0.53, |
|
"learning_rate": 1.16e-05, |
|
"loss": 3.4997, |
|
"step": 150 |
|
}, |
|
{ |
|
"epoch": 0.53, |
|
"learning_rate": 1.1583333333333335e-05, |
|
"loss": 2.9463, |
|
"step": 151 |
|
}, |
|
{ |
|
"epoch": 0.54, |
|
"learning_rate": 1.1566666666666667e-05, |
|
"loss": 2.8627, |
|
"step": 152 |
|
}, |
|
{ |
|
"epoch": 0.54, |
|
"learning_rate": 1.1550000000000001e-05, |
|
"loss": 2.7335, |
|
"step": 153 |
|
}, |
|
{ |
|
"epoch": 0.55, |
|
"learning_rate": 1.1533333333333334e-05, |
|
"loss": 2.7139, |
|
"step": 154 |
|
}, |
|
{ |
|
"epoch": 0.55, |
|
"learning_rate": 1.1516666666666668e-05, |
|
"loss": 2.7061, |
|
"step": 155 |
|
}, |
|
{ |
|
"epoch": 0.55, |
|
"learning_rate": 1.15e-05, |
|
"loss": 2.8651, |
|
"step": 156 |
|
}, |
|
{ |
|
"epoch": 0.56, |
|
"learning_rate": 1.1483333333333334e-05, |
|
"loss": 2.4994, |
|
"step": 157 |
|
}, |
|
{ |
|
"epoch": 0.56, |
|
"learning_rate": 1.1466666666666666e-05, |
|
"loss": 2.8261, |
|
"step": 158 |
|
}, |
|
{ |
|
"epoch": 0.56, |
|
"learning_rate": 1.145e-05, |
|
"loss": 3.1136, |
|
"step": 159 |
|
}, |
|
{ |
|
"epoch": 0.57, |
|
"learning_rate": 1.1433333333333333e-05, |
|
"loss": 2.6774, |
|
"step": 160 |
|
}, |
|
{ |
|
"epoch": 0.57, |
|
"learning_rate": 1.1416666666666667e-05, |
|
"loss": 2.6297, |
|
"step": 161 |
|
}, |
|
{ |
|
"epoch": 0.57, |
|
"learning_rate": 1.14e-05, |
|
"loss": 2.6361, |
|
"step": 162 |
|
}, |
|
{ |
|
"epoch": 0.58, |
|
"learning_rate": 1.1383333333333333e-05, |
|
"loss": 3.0204, |
|
"step": 163 |
|
}, |
|
{ |
|
"epoch": 0.58, |
|
"learning_rate": 1.1366666666666667e-05, |
|
"loss": 2.5647, |
|
"step": 164 |
|
}, |
|
{ |
|
"epoch": 0.58, |
|
"learning_rate": 1.135e-05, |
|
"loss": 2.97, |
|
"step": 165 |
|
}, |
|
{ |
|
"epoch": 0.59, |
|
"learning_rate": 1.1333333333333334e-05, |
|
"loss": 3.5092, |
|
"step": 166 |
|
}, |
|
{ |
|
"epoch": 0.59, |
|
"learning_rate": 1.1316666666666666e-05, |
|
"loss": 2.9867, |
|
"step": 167 |
|
}, |
|
{ |
|
"epoch": 0.59, |
|
"learning_rate": 1.1300000000000002e-05, |
|
"loss": 2.8355, |
|
"step": 168 |
|
}, |
|
{ |
|
"epoch": 0.6, |
|
"learning_rate": 1.1283333333333334e-05, |
|
"loss": 2.9096, |
|
"step": 169 |
|
}, |
|
{ |
|
"epoch": 0.6, |
|
"learning_rate": 1.1266666666666668e-05, |
|
"loss": 3.1279, |
|
"step": 170 |
|
}, |
|
{ |
|
"epoch": 0.61, |
|
"learning_rate": 1.125e-05, |
|
"loss": 3.0572, |
|
"step": 171 |
|
}, |
|
{ |
|
"epoch": 0.61, |
|
"learning_rate": 1.1233333333333335e-05, |
|
"loss": 2.5392, |
|
"step": 172 |
|
}, |
|
{ |
|
"epoch": 0.61, |
|
"learning_rate": 1.1216666666666667e-05, |
|
"loss": 2.4664, |
|
"step": 173 |
|
}, |
|
{ |
|
"epoch": 0.62, |
|
"learning_rate": 1.1200000000000001e-05, |
|
"loss": 2.6093, |
|
"step": 174 |
|
}, |
|
{ |
|
"epoch": 0.62, |
|
"learning_rate": 1.1183333333333334e-05, |
|
"loss": 3.079, |
|
"step": 175 |
|
}, |
|
{ |
|
"epoch": 0.62, |
|
"learning_rate": 1.1166666666666668e-05, |
|
"loss": 2.8751, |
|
"step": 176 |
|
}, |
|
{ |
|
"epoch": 0.63, |
|
"learning_rate": 1.115e-05, |
|
"loss": 2.7902, |
|
"step": 177 |
|
}, |
|
{ |
|
"epoch": 0.63, |
|
"learning_rate": 1.1133333333333334e-05, |
|
"loss": 3.1718, |
|
"step": 178 |
|
}, |
|
{ |
|
"epoch": 0.63, |
|
"learning_rate": 1.1116666666666666e-05, |
|
"loss": 2.6779, |
|
"step": 179 |
|
}, |
|
{ |
|
"epoch": 0.64, |
|
"learning_rate": 1.11e-05, |
|
"loss": 2.4181, |
|
"step": 180 |
|
}, |
|
{ |
|
"epoch": 0.64, |
|
"learning_rate": 1.1083333333333333e-05, |
|
"loss": 2.4039, |
|
"step": 181 |
|
}, |
|
{ |
|
"epoch": 0.64, |
|
"learning_rate": 1.1066666666666667e-05, |
|
"loss": 2.7477, |
|
"step": 182 |
|
}, |
|
{ |
|
"epoch": 0.65, |
|
"learning_rate": 1.105e-05, |
|
"loss": 2.735, |
|
"step": 183 |
|
}, |
|
{ |
|
"epoch": 0.65, |
|
"learning_rate": 1.1033333333333333e-05, |
|
"loss": 2.7146, |
|
"step": 184 |
|
}, |
|
{ |
|
"epoch": 0.65, |
|
"learning_rate": 1.1016666666666667e-05, |
|
"loss": 3.0662, |
|
"step": 185 |
|
}, |
|
{ |
|
"epoch": 0.66, |
|
"learning_rate": 1.1000000000000001e-05, |
|
"loss": 2.6315, |
|
"step": 186 |
|
}, |
|
{ |
|
"epoch": 0.66, |
|
"learning_rate": 1.0983333333333334e-05, |
|
"loss": 2.9027, |
|
"step": 187 |
|
}, |
|
{ |
|
"epoch": 0.67, |
|
"learning_rate": 1.0966666666666668e-05, |
|
"loss": 2.562, |
|
"step": 188 |
|
}, |
|
{ |
|
"epoch": 0.67, |
|
"learning_rate": 1.095e-05, |
|
"loss": 2.6313, |
|
"step": 189 |
|
}, |
|
{ |
|
"epoch": 0.67, |
|
"learning_rate": 1.0933333333333334e-05, |
|
"loss": 3.1161, |
|
"step": 190 |
|
}, |
|
{ |
|
"epoch": 0.68, |
|
"learning_rate": 1.0916666666666667e-05, |
|
"loss": 2.9275, |
|
"step": 191 |
|
}, |
|
{ |
|
"epoch": 0.68, |
|
"learning_rate": 1.09e-05, |
|
"loss": 2.7675, |
|
"step": 192 |
|
}, |
|
{ |
|
"epoch": 0.68, |
|
"learning_rate": 1.0883333333333333e-05, |
|
"loss": 2.4813, |
|
"step": 193 |
|
}, |
|
{ |
|
"epoch": 0.69, |
|
"learning_rate": 1.0866666666666667e-05, |
|
"loss": 2.0931, |
|
"step": 194 |
|
}, |
|
{ |
|
"epoch": 0.69, |
|
"learning_rate": 1.085e-05, |
|
"loss": 2.8068, |
|
"step": 195 |
|
}, |
|
{ |
|
"epoch": 0.69, |
|
"learning_rate": 1.0833333333333334e-05, |
|
"loss": 2.6955, |
|
"step": 196 |
|
}, |
|
{ |
|
"epoch": 0.7, |
|
"learning_rate": 1.0816666666666668e-05, |
|
"loss": 2.5237, |
|
"step": 197 |
|
}, |
|
{ |
|
"epoch": 0.7, |
|
"learning_rate": 1.08e-05, |
|
"loss": 3.1954, |
|
"step": 198 |
|
}, |
|
{ |
|
"epoch": 0.7, |
|
"learning_rate": 1.0783333333333334e-05, |
|
"loss": 2.6511, |
|
"step": 199 |
|
}, |
|
{ |
|
"epoch": 0.71, |
|
"learning_rate": 1.0766666666666666e-05, |
|
"loss": 2.7927, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 0.71, |
|
"learning_rate": 1.075e-05, |
|
"loss": 2.8265, |
|
"step": 201 |
|
}, |
|
{ |
|
"epoch": 0.72, |
|
"learning_rate": 1.0733333333333333e-05, |
|
"loss": 2.597, |
|
"step": 202 |
|
}, |
|
{ |
|
"epoch": 0.72, |
|
"learning_rate": 1.0716666666666667e-05, |
|
"loss": 2.7998, |
|
"step": 203 |
|
}, |
|
{ |
|
"epoch": 0.72, |
|
"learning_rate": 1.0700000000000001e-05, |
|
"loss": 2.5692, |
|
"step": 204 |
|
}, |
|
{ |
|
"epoch": 0.73, |
|
"learning_rate": 1.0683333333333335e-05, |
|
"loss": 3.0348, |
|
"step": 205 |
|
}, |
|
{ |
|
"epoch": 0.73, |
|
"learning_rate": 1.0666666666666667e-05, |
|
"loss": 2.5194, |
|
"step": 206 |
|
}, |
|
{ |
|
"epoch": 0.73, |
|
"learning_rate": 1.0650000000000001e-05, |
|
"loss": 2.1352, |
|
"step": 207 |
|
}, |
|
{ |
|
"epoch": 0.74, |
|
"learning_rate": 1.0633333333333334e-05, |
|
"loss": 2.8129, |
|
"step": 208 |
|
}, |
|
{ |
|
"epoch": 0.74, |
|
"learning_rate": 1.0616666666666668e-05, |
|
"loss": 2.9273, |
|
"step": 209 |
|
}, |
|
{ |
|
"epoch": 0.74, |
|
"learning_rate": 1.06e-05, |
|
"loss": 2.5239, |
|
"step": 210 |
|
}, |
|
{ |
|
"epoch": 0.75, |
|
"learning_rate": 1.0583333333333334e-05, |
|
"loss": 2.4111, |
|
"step": 211 |
|
}, |
|
{ |
|
"epoch": 0.75, |
|
"learning_rate": 1.0566666666666667e-05, |
|
"loss": 2.8051, |
|
"step": 212 |
|
}, |
|
{ |
|
"epoch": 0.75, |
|
"learning_rate": 1.055e-05, |
|
"loss": 2.6244, |
|
"step": 213 |
|
}, |
|
{ |
|
"epoch": 0.76, |
|
"learning_rate": 1.0533333333333333e-05, |
|
"loss": 2.5855, |
|
"step": 214 |
|
}, |
|
{ |
|
"epoch": 0.76, |
|
"learning_rate": 1.0516666666666667e-05, |
|
"loss": 2.2785, |
|
"step": 215 |
|
}, |
|
{ |
|
"epoch": 0.76, |
|
"learning_rate": 1.05e-05, |
|
"loss": 2.513, |
|
"step": 216 |
|
}, |
|
{ |
|
"epoch": 0.77, |
|
"learning_rate": 1.0483333333333333e-05, |
|
"loss": 2.3334, |
|
"step": 217 |
|
}, |
|
{ |
|
"epoch": 0.77, |
|
"learning_rate": 1.0466666666666666e-05, |
|
"loss": 2.6753, |
|
"step": 218 |
|
}, |
|
{ |
|
"epoch": 0.78, |
|
"learning_rate": 1.045e-05, |
|
"loss": 2.6898, |
|
"step": 219 |
|
}, |
|
{ |
|
"epoch": 0.78, |
|
"learning_rate": 1.0433333333333334e-05, |
|
"loss": 2.2708, |
|
"step": 220 |
|
}, |
|
{ |
|
"epoch": 0.78, |
|
"learning_rate": 1.0416666666666668e-05, |
|
"loss": 2.5367, |
|
"step": 221 |
|
}, |
|
{ |
|
"epoch": 0.79, |
|
"learning_rate": 1.04e-05, |
|
"loss": 2.3048, |
|
"step": 222 |
|
}, |
|
{ |
|
"epoch": 0.79, |
|
"learning_rate": 1.0383333333333334e-05, |
|
"loss": 2.3902, |
|
"step": 223 |
|
}, |
|
{ |
|
"epoch": 0.79, |
|
"learning_rate": 1.0366666666666667e-05, |
|
"loss": 2.5877, |
|
"step": 224 |
|
}, |
|
{ |
|
"epoch": 0.8, |
|
"learning_rate": 1.0350000000000001e-05, |
|
"loss": 2.2711, |
|
"step": 225 |
|
}, |
|
{ |
|
"epoch": 0.8, |
|
"learning_rate": 1.0333333333333333e-05, |
|
"loss": 2.302, |
|
"step": 226 |
|
}, |
|
{ |
|
"epoch": 0.8, |
|
"learning_rate": 1.0316666666666667e-05, |
|
"loss": 2.2721, |
|
"step": 227 |
|
}, |
|
{ |
|
"epoch": 0.81, |
|
"learning_rate": 1.0300000000000001e-05, |
|
"loss": 2.1461, |
|
"step": 228 |
|
}, |
|
{ |
|
"epoch": 0.81, |
|
"learning_rate": 1.0283333333333334e-05, |
|
"loss": 2.9819, |
|
"step": 229 |
|
}, |
|
{ |
|
"epoch": 0.81, |
|
"learning_rate": 1.0266666666666668e-05, |
|
"loss": 2.9391, |
|
"step": 230 |
|
}, |
|
{ |
|
"epoch": 0.82, |
|
"learning_rate": 1.025e-05, |
|
"loss": 2.4014, |
|
"step": 231 |
|
}, |
|
{ |
|
"epoch": 0.82, |
|
"learning_rate": 1.0233333333333334e-05, |
|
"loss": 2.4434, |
|
"step": 232 |
|
}, |
|
{ |
|
"epoch": 0.82, |
|
"learning_rate": 1.0216666666666667e-05, |
|
"loss": 2.4963, |
|
"step": 233 |
|
}, |
|
{ |
|
"epoch": 0.83, |
|
"learning_rate": 1.02e-05, |
|
"loss": 2.3932, |
|
"step": 234 |
|
}, |
|
{ |
|
"epoch": 0.83, |
|
"learning_rate": 1.0183333333333333e-05, |
|
"loss": 2.2718, |
|
"step": 235 |
|
}, |
|
{ |
|
"epoch": 0.84, |
|
"learning_rate": 1.0166666666666667e-05, |
|
"loss": 2.4886, |
|
"step": 236 |
|
}, |
|
{ |
|
"epoch": 0.84, |
|
"learning_rate": 1.015e-05, |
|
"loss": 2.5038, |
|
"step": 237 |
|
}, |
|
{ |
|
"epoch": 0.84, |
|
"learning_rate": 1.0133333333333333e-05, |
|
"loss": 2.1806, |
|
"step": 238 |
|
}, |
|
{ |
|
"epoch": 0.85, |
|
"learning_rate": 1.0116666666666667e-05, |
|
"loss": 2.6506, |
|
"step": 239 |
|
}, |
|
{ |
|
"epoch": 0.85, |
|
"learning_rate": 1.0100000000000002e-05, |
|
"loss": 2.8027, |
|
"step": 240 |
|
}, |
|
{ |
|
"epoch": 0.85, |
|
"learning_rate": 1.0083333333333334e-05, |
|
"loss": 2.3358, |
|
"step": 241 |
|
}, |
|
{ |
|
"epoch": 0.86, |
|
"learning_rate": 1.0066666666666668e-05, |
|
"loss": 2.4161, |
|
"step": 242 |
|
}, |
|
{ |
|
"epoch": 0.86, |
|
"learning_rate": 1.005e-05, |
|
"loss": 2.7473, |
|
"step": 243 |
|
}, |
|
{ |
|
"epoch": 0.86, |
|
"learning_rate": 1.0033333333333334e-05, |
|
"loss": 2.7238, |
|
"step": 244 |
|
}, |
|
{ |
|
"epoch": 0.87, |
|
"learning_rate": 1.0016666666666667e-05, |
|
"loss": 2.0967, |
|
"step": 245 |
|
}, |
|
{ |
|
"epoch": 0.87, |
|
"learning_rate": 1e-05, |
|
"loss": 2.5356, |
|
"step": 246 |
|
}, |
|
{ |
|
"epoch": 0.87, |
|
"learning_rate": 9.983333333333333e-06, |
|
"loss": 3.6256, |
|
"step": 247 |
|
}, |
|
{ |
|
"epoch": 0.88, |
|
"learning_rate": 9.966666666666667e-06, |
|
"loss": 2.5669, |
|
"step": 248 |
|
}, |
|
{ |
|
"epoch": 0.88, |
|
"learning_rate": 9.95e-06, |
|
"loss": 2.1026, |
|
"step": 249 |
|
}, |
|
{ |
|
"epoch": 0.88, |
|
"learning_rate": 9.933333333333334e-06, |
|
"loss": 2.5952, |
|
"step": 250 |
|
}, |
|
{ |
|
"epoch": 0.89, |
|
"learning_rate": 9.916666666666666e-06, |
|
"loss": 2.6405, |
|
"step": 251 |
|
}, |
|
{ |
|
"epoch": 0.89, |
|
"learning_rate": 9.9e-06, |
|
"loss": 2.2321, |
|
"step": 252 |
|
}, |
|
{ |
|
"epoch": 0.9, |
|
"learning_rate": 9.883333333333332e-06, |
|
"loss": 1.9216, |
|
"step": 253 |
|
}, |
|
{ |
|
"epoch": 0.9, |
|
"learning_rate": 9.866666666666667e-06, |
|
"loss": 2.5763, |
|
"step": 254 |
|
}, |
|
{ |
|
"epoch": 0.9, |
|
"learning_rate": 9.849999999999999e-06, |
|
"loss": 2.0074, |
|
"step": 255 |
|
}, |
|
{ |
|
"epoch": 0.91, |
|
"learning_rate": 9.833333333333335e-06, |
|
"loss": 2.1526, |
|
"step": 256 |
|
}, |
|
{ |
|
"epoch": 0.91, |
|
"learning_rate": 9.816666666666667e-06, |
|
"loss": 2.5531, |
|
"step": 257 |
|
}, |
|
{ |
|
"epoch": 0.91, |
|
"learning_rate": 9.800000000000001e-06, |
|
"loss": 2.587, |
|
"step": 258 |
|
}, |
|
{ |
|
"epoch": 0.92, |
|
"learning_rate": 9.783333333333333e-06, |
|
"loss": 2.4205, |
|
"step": 259 |
|
}, |
|
{ |
|
"epoch": 0.92, |
|
"learning_rate": 9.766666666666667e-06, |
|
"loss": 2.3445, |
|
"step": 260 |
|
}, |
|
{ |
|
"epoch": 0.92, |
|
"learning_rate": 9.750000000000002e-06, |
|
"loss": 2.5855, |
|
"step": 261 |
|
}, |
|
{ |
|
"epoch": 0.93, |
|
"learning_rate": 9.733333333333334e-06, |
|
"loss": 2.4643, |
|
"step": 262 |
|
}, |
|
{ |
|
"epoch": 0.93, |
|
"learning_rate": 9.716666666666668e-06, |
|
"loss": 2.3635, |
|
"step": 263 |
|
}, |
|
{ |
|
"epoch": 0.93, |
|
"learning_rate": 9.7e-06, |
|
"loss": 3.1577, |
|
"step": 264 |
|
}, |
|
{ |
|
"epoch": 0.94, |
|
"learning_rate": 9.683333333333334e-06, |
|
"loss": 2.2978, |
|
"step": 265 |
|
}, |
|
{ |
|
"epoch": 0.94, |
|
"learning_rate": 9.666666666666667e-06, |
|
"loss": 2.5625, |
|
"step": 266 |
|
}, |
|
{ |
|
"epoch": 0.95, |
|
"learning_rate": 9.65e-06, |
|
"loss": 2.3358, |
|
"step": 267 |
|
}, |
|
{ |
|
"epoch": 0.95, |
|
"learning_rate": 9.633333333333333e-06, |
|
"loss": 2.2733, |
|
"step": 268 |
|
}, |
|
{ |
|
"epoch": 0.95, |
|
"learning_rate": 9.616666666666667e-06, |
|
"loss": 2.4363, |
|
"step": 269 |
|
}, |
|
{ |
|
"epoch": 0.96, |
|
"learning_rate": 9.6e-06, |
|
"loss": 2.1198, |
|
"step": 270 |
|
}, |
|
{ |
|
"epoch": 0.96, |
|
"learning_rate": 9.583333333333334e-06, |
|
"loss": 2.1966, |
|
"step": 271 |
|
}, |
|
{ |
|
"epoch": 0.96, |
|
"learning_rate": 9.566666666666666e-06, |
|
"loss": 2.7228, |
|
"step": 272 |
|
}, |
|
{ |
|
"epoch": 0.97, |
|
"learning_rate": 9.55e-06, |
|
"loss": 2.2895, |
|
"step": 273 |
|
}, |
|
{ |
|
"epoch": 0.97, |
|
"learning_rate": 9.533333333333334e-06, |
|
"loss": 2.3256, |
|
"step": 274 |
|
}, |
|
{ |
|
"epoch": 0.97, |
|
"learning_rate": 9.516666666666668e-06, |
|
"loss": 2.1448, |
|
"step": 275 |
|
}, |
|
{ |
|
"epoch": 0.98, |
|
"learning_rate": 9.5e-06, |
|
"loss": 2.5787, |
|
"step": 276 |
|
}, |
|
{ |
|
"epoch": 0.98, |
|
"learning_rate": 9.483333333333335e-06, |
|
"loss": 2.5775, |
|
"step": 277 |
|
}, |
|
{ |
|
"epoch": 0.98, |
|
"learning_rate": 9.466666666666667e-06, |
|
"loss": 2.3464, |
|
"step": 278 |
|
}, |
|
{ |
|
"epoch": 0.99, |
|
"learning_rate": 9.450000000000001e-06, |
|
"loss": 3.5566, |
|
"step": 279 |
|
}, |
|
{ |
|
"epoch": 0.99, |
|
"learning_rate": 9.433333333333333e-06, |
|
"loss": 2.0576, |
|
"step": 280 |
|
}, |
|
{ |
|
"epoch": 0.99, |
|
"learning_rate": 9.416666666666667e-06, |
|
"loss": 2.4648, |
|
"step": 281 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"learning_rate": 9.4e-06, |
|
"loss": 2.2977, |
|
"step": 282 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"learning_rate": 9.383333333333334e-06, |
|
"loss": 2.6571, |
|
"step": 283 |
|
}, |
|
{ |
|
"epoch": 1.01, |
|
"learning_rate": 9.366666666666666e-06, |
|
"loss": 2.0575, |
|
"step": 284 |
|
}, |
|
{ |
|
"epoch": 1.01, |
|
"learning_rate": 9.35e-06, |
|
"loss": 2.1135, |
|
"step": 285 |
|
}, |
|
{ |
|
"epoch": 1.01, |
|
"learning_rate": 9.333333333333333e-06, |
|
"loss": 2.3019, |
|
"step": 286 |
|
}, |
|
{ |
|
"epoch": 1.02, |
|
"learning_rate": 9.316666666666667e-06, |
|
"loss": 2.1004, |
|
"step": 287 |
|
}, |
|
{ |
|
"epoch": 1.02, |
|
"learning_rate": 9.299999999999999e-06, |
|
"loss": 2.5826, |
|
"step": 288 |
|
}, |
|
{ |
|
"epoch": 1.02, |
|
"learning_rate": 9.283333333333333e-06, |
|
"loss": 2.5141, |
|
"step": 289 |
|
}, |
|
{ |
|
"epoch": 1.03, |
|
"learning_rate": 9.266666666666665e-06, |
|
"loss": 2.4473, |
|
"step": 290 |
|
}, |
|
{ |
|
"epoch": 1.03, |
|
"learning_rate": 9.250000000000001e-06, |
|
"loss": 2.1056, |
|
"step": 291 |
|
}, |
|
{ |
|
"epoch": 1.03, |
|
"learning_rate": 9.233333333333334e-06, |
|
"loss": 2.3514, |
|
"step": 292 |
|
}, |
|
{ |
|
"epoch": 1.04, |
|
"learning_rate": 9.216666666666668e-06, |
|
"loss": 2.0145, |
|
"step": 293 |
|
}, |
|
{ |
|
"epoch": 1.04, |
|
"learning_rate": 9.200000000000002e-06, |
|
"loss": 1.9094, |
|
"step": 294 |
|
}, |
|
{ |
|
"epoch": 1.04, |
|
"learning_rate": 9.183333333333334e-06, |
|
"loss": 2.2845, |
|
"step": 295 |
|
}, |
|
{ |
|
"epoch": 1.05, |
|
"learning_rate": 9.166666666666668e-06, |
|
"loss": 2.3477, |
|
"step": 296 |
|
}, |
|
{ |
|
"epoch": 1.05, |
|
"learning_rate": 9.15e-06, |
|
"loss": 2.3361, |
|
"step": 297 |
|
}, |
|
{ |
|
"epoch": 1.05, |
|
"learning_rate": 9.133333333333335e-06, |
|
"loss": 2.6051, |
|
"step": 298 |
|
}, |
|
{ |
|
"epoch": 1.06, |
|
"learning_rate": 9.116666666666667e-06, |
|
"loss": 2.5384, |
|
"step": 299 |
|
}, |
|
{ |
|
"epoch": 1.06, |
|
"learning_rate": 9.100000000000001e-06, |
|
"loss": 2.2708, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 1.07, |
|
"learning_rate": 9.083333333333333e-06, |
|
"loss": 2.4243, |
|
"step": 301 |
|
}, |
|
{ |
|
"epoch": 1.07, |
|
"learning_rate": 9.066666666666667e-06, |
|
"loss": 2.3339, |
|
"step": 302 |
|
}, |
|
{ |
|
"epoch": 1.07, |
|
"learning_rate": 9.05e-06, |
|
"loss": 2.4625, |
|
"step": 303 |
|
}, |
|
{ |
|
"epoch": 1.08, |
|
"learning_rate": 9.033333333333334e-06, |
|
"loss": 3.0608, |
|
"step": 304 |
|
}, |
|
{ |
|
"epoch": 1.08, |
|
"learning_rate": 9.016666666666666e-06, |
|
"loss": 2.7946, |
|
"step": 305 |
|
}, |
|
{ |
|
"epoch": 1.08, |
|
"learning_rate": 9e-06, |
|
"loss": 2.3791, |
|
"step": 306 |
|
}, |
|
{ |
|
"epoch": 1.09, |
|
"learning_rate": 8.983333333333333e-06, |
|
"loss": 2.4048, |
|
"step": 307 |
|
}, |
|
{ |
|
"epoch": 1.09, |
|
"learning_rate": 8.966666666666667e-06, |
|
"loss": 2.4804, |
|
"step": 308 |
|
}, |
|
{ |
|
"epoch": 1.09, |
|
"learning_rate": 8.95e-06, |
|
"loss": 2.0581, |
|
"step": 309 |
|
}, |
|
{ |
|
"epoch": 1.1, |
|
"learning_rate": 8.933333333333335e-06, |
|
"loss": 2.5319, |
|
"step": 310 |
|
}, |
|
{ |
|
"epoch": 1.1, |
|
"learning_rate": 8.916666666666667e-06, |
|
"loss": 2.2584, |
|
"step": 311 |
|
}, |
|
{ |
|
"epoch": 1.1, |
|
"learning_rate": 8.900000000000001e-06, |
|
"loss": 2.3523, |
|
"step": 312 |
|
}, |
|
{ |
|
"epoch": 1.11, |
|
"learning_rate": 8.883333333333334e-06, |
|
"loss": 2.4676, |
|
"step": 313 |
|
}, |
|
{ |
|
"epoch": 1.11, |
|
"learning_rate": 8.866666666666668e-06, |
|
"loss": 1.934, |
|
"step": 314 |
|
}, |
|
{ |
|
"epoch": 1.12, |
|
"learning_rate": 8.85e-06, |
|
"loss": 2.2951, |
|
"step": 315 |
|
}, |
|
{ |
|
"epoch": 1.12, |
|
"learning_rate": 8.833333333333334e-06, |
|
"loss": 2.1022, |
|
"step": 316 |
|
}, |
|
{ |
|
"epoch": 1.12, |
|
"learning_rate": 8.816666666666666e-06, |
|
"loss": 2.196, |
|
"step": 317 |
|
}, |
|
{ |
|
"epoch": 1.13, |
|
"learning_rate": 8.8e-06, |
|
"loss": 1.9917, |
|
"step": 318 |
|
}, |
|
{ |
|
"epoch": 1.13, |
|
"learning_rate": 8.783333333333333e-06, |
|
"loss": 2.4259, |
|
"step": 319 |
|
}, |
|
{ |
|
"epoch": 1.13, |
|
"learning_rate": 8.766666666666667e-06, |
|
"loss": 2.1644, |
|
"step": 320 |
|
}, |
|
{ |
|
"epoch": 1.14, |
|
"learning_rate": 8.75e-06, |
|
"loss": 2.6005, |
|
"step": 321 |
|
}, |
|
{ |
|
"epoch": 1.14, |
|
"learning_rate": 8.733333333333333e-06, |
|
"loss": 2.7394, |
|
"step": 322 |
|
}, |
|
{ |
|
"epoch": 1.14, |
|
"learning_rate": 8.716666666666666e-06, |
|
"loss": 2.4944, |
|
"step": 323 |
|
}, |
|
{ |
|
"epoch": 1.15, |
|
"learning_rate": 8.7e-06, |
|
"loss": 2.3124, |
|
"step": 324 |
|
}, |
|
{ |
|
"epoch": 1.15, |
|
"learning_rate": 8.683333333333332e-06, |
|
"loss": 2.5351, |
|
"step": 325 |
|
}, |
|
{ |
|
"epoch": 1.15, |
|
"learning_rate": 8.666666666666666e-06, |
|
"loss": 2.2796, |
|
"step": 326 |
|
}, |
|
{ |
|
"epoch": 1.16, |
|
"learning_rate": 8.650000000000002e-06, |
|
"loss": 2.4701, |
|
"step": 327 |
|
}, |
|
{ |
|
"epoch": 1.16, |
|
"learning_rate": 8.633333333333334e-06, |
|
"loss": 2.6057, |
|
"step": 328 |
|
}, |
|
{ |
|
"epoch": 1.16, |
|
"learning_rate": 8.616666666666668e-06, |
|
"loss": 2.2283, |
|
"step": 329 |
|
}, |
|
{ |
|
"epoch": 1.17, |
|
"learning_rate": 8.6e-06, |
|
"loss": 2.5177, |
|
"step": 330 |
|
}, |
|
{ |
|
"epoch": 1.17, |
|
"learning_rate": 8.583333333333335e-06, |
|
"loss": 2.7006, |
|
"step": 331 |
|
}, |
|
{ |
|
"epoch": 1.18, |
|
"learning_rate": 8.566666666666667e-06, |
|
"loss": 2.043, |
|
"step": 332 |
|
}, |
|
{ |
|
"epoch": 1.18, |
|
"learning_rate": 8.550000000000001e-06, |
|
"loss": 2.2546, |
|
"step": 333 |
|
}, |
|
{ |
|
"epoch": 1.18, |
|
"learning_rate": 8.533333333333334e-06, |
|
"loss": 2.2464, |
|
"step": 334 |
|
}, |
|
{ |
|
"epoch": 1.19, |
|
"learning_rate": 8.516666666666668e-06, |
|
"loss": 2.6201, |
|
"step": 335 |
|
}, |
|
{ |
|
"epoch": 1.19, |
|
"learning_rate": 8.5e-06, |
|
"loss": 2.2799, |
|
"step": 336 |
|
}, |
|
{ |
|
"epoch": 1.19, |
|
"learning_rate": 8.483333333333334e-06, |
|
"loss": 2.7274, |
|
"step": 337 |
|
}, |
|
{ |
|
"epoch": 1.2, |
|
"learning_rate": 8.466666666666666e-06, |
|
"loss": 2.1455, |
|
"step": 338 |
|
}, |
|
{ |
|
"epoch": 1.2, |
|
"learning_rate": 8.45e-06, |
|
"loss": 2.061, |
|
"step": 339 |
|
}, |
|
{ |
|
"epoch": 1.2, |
|
"learning_rate": 8.433333333333333e-06, |
|
"loss": 2.2954, |
|
"step": 340 |
|
}, |
|
{ |
|
"epoch": 1.21, |
|
"learning_rate": 8.416666666666667e-06, |
|
"loss": 2.1072, |
|
"step": 341 |
|
}, |
|
{ |
|
"epoch": 1.21, |
|
"learning_rate": 8.4e-06, |
|
"loss": 2.3253, |
|
"step": 342 |
|
}, |
|
{ |
|
"epoch": 1.21, |
|
"learning_rate": 8.383333333333333e-06, |
|
"loss": 2.5172, |
|
"step": 343 |
|
}, |
|
{ |
|
"epoch": 1.22, |
|
"learning_rate": 8.366666666666667e-06, |
|
"loss": 1.9553, |
|
"step": 344 |
|
}, |
|
{ |
|
"epoch": 1.22, |
|
"learning_rate": 8.350000000000001e-06, |
|
"loss": 2.3876, |
|
"step": 345 |
|
}, |
|
{ |
|
"epoch": 1.22, |
|
"learning_rate": 8.333333333333334e-06, |
|
"loss": 2.1276, |
|
"step": 346 |
|
}, |
|
{ |
|
"epoch": 1.23, |
|
"learning_rate": 8.316666666666668e-06, |
|
"loss": 1.8129, |
|
"step": 347 |
|
}, |
|
{ |
|
"epoch": 1.23, |
|
"learning_rate": 8.3e-06, |
|
"loss": 2.7334, |
|
"step": 348 |
|
}, |
|
{ |
|
"epoch": 1.24, |
|
"learning_rate": 8.283333333333334e-06, |
|
"loss": 2.1216, |
|
"step": 349 |
|
}, |
|
{ |
|
"epoch": 1.24, |
|
"learning_rate": 8.266666666666667e-06, |
|
"loss": 2.105, |
|
"step": 350 |
|
}, |
|
{ |
|
"epoch": 1.24, |
|
"learning_rate": 8.25e-06, |
|
"loss": 2.0334, |
|
"step": 351 |
|
}, |
|
{ |
|
"epoch": 1.25, |
|
"learning_rate": 8.233333333333333e-06, |
|
"loss": 2.543, |
|
"step": 352 |
|
}, |
|
{ |
|
"epoch": 1.25, |
|
"learning_rate": 8.216666666666667e-06, |
|
"loss": 2.442, |
|
"step": 353 |
|
}, |
|
{ |
|
"epoch": 1.25, |
|
"learning_rate": 8.2e-06, |
|
"loss": 2.7382, |
|
"step": 354 |
|
}, |
|
{ |
|
"epoch": 1.26, |
|
"learning_rate": 8.183333333333333e-06, |
|
"loss": 2.1001, |
|
"step": 355 |
|
}, |
|
{ |
|
"epoch": 1.26, |
|
"learning_rate": 8.166666666666666e-06, |
|
"loss": 2.3215, |
|
"step": 356 |
|
}, |
|
{ |
|
"epoch": 1.26, |
|
"learning_rate": 8.15e-06, |
|
"loss": 1.6964, |
|
"step": 357 |
|
}, |
|
{ |
|
"epoch": 1.27, |
|
"learning_rate": 8.133333333333334e-06, |
|
"loss": 2.3512, |
|
"step": 358 |
|
}, |
|
{ |
|
"epoch": 1.27, |
|
"learning_rate": 8.116666666666666e-06, |
|
"loss": 2.2935, |
|
"step": 359 |
|
}, |
|
{ |
|
"epoch": 1.27, |
|
"learning_rate": 8.1e-06, |
|
"loss": 1.8758, |
|
"step": 360 |
|
}, |
|
{ |
|
"epoch": 1.28, |
|
"learning_rate": 8.083333333333333e-06, |
|
"loss": 2.8091, |
|
"step": 361 |
|
}, |
|
{ |
|
"epoch": 1.28, |
|
"learning_rate": 8.066666666666668e-06, |
|
"loss": 2.1441, |
|
"step": 362 |
|
}, |
|
{ |
|
"epoch": 1.28, |
|
"learning_rate": 8.050000000000001e-06, |
|
"loss": 2.2469, |
|
"step": 363 |
|
}, |
|
{ |
|
"epoch": 1.29, |
|
"learning_rate": 8.033333333333335e-06, |
|
"loss": 2.2527, |
|
"step": 364 |
|
}, |
|
{ |
|
"epoch": 1.29, |
|
"learning_rate": 8.016666666666667e-06, |
|
"loss": 1.882, |
|
"step": 365 |
|
}, |
|
{ |
|
"epoch": 1.3, |
|
"learning_rate": 8.000000000000001e-06, |
|
"loss": 2.1768, |
|
"step": 366 |
|
}, |
|
{ |
|
"epoch": 1.3, |
|
"learning_rate": 7.983333333333334e-06, |
|
"loss": 1.8079, |
|
"step": 367 |
|
}, |
|
{ |
|
"epoch": 1.3, |
|
"learning_rate": 7.966666666666668e-06, |
|
"loss": 2.3561, |
|
"step": 368 |
|
}, |
|
{ |
|
"epoch": 1.31, |
|
"learning_rate": 7.95e-06, |
|
"loss": 2.052, |
|
"step": 369 |
|
}, |
|
{ |
|
"epoch": 1.31, |
|
"learning_rate": 7.933333333333334e-06, |
|
"loss": 2.2526, |
|
"step": 370 |
|
}, |
|
{ |
|
"epoch": 1.31, |
|
"learning_rate": 7.916666666666667e-06, |
|
"loss": 1.8913, |
|
"step": 371 |
|
}, |
|
{ |
|
"epoch": 1.32, |
|
"learning_rate": 7.9e-06, |
|
"loss": 1.775, |
|
"step": 372 |
|
}, |
|
{ |
|
"epoch": 1.32, |
|
"learning_rate": 7.883333333333333e-06, |
|
"loss": 2.2531, |
|
"step": 373 |
|
}, |
|
{ |
|
"epoch": 1.32, |
|
"learning_rate": 7.866666666666667e-06, |
|
"loss": 2.1137, |
|
"step": 374 |
|
}, |
|
{ |
|
"epoch": 1.33, |
|
"learning_rate": 7.85e-06, |
|
"loss": 2.1488, |
|
"step": 375 |
|
}, |
|
{ |
|
"epoch": 1.33, |
|
"learning_rate": 7.833333333333333e-06, |
|
"loss": 2.042, |
|
"step": 376 |
|
}, |
|
{ |
|
"epoch": 1.33, |
|
"learning_rate": 7.816666666666666e-06, |
|
"loss": 2.1525, |
|
"step": 377 |
|
}, |
|
{ |
|
"epoch": 1.34, |
|
"learning_rate": 7.8e-06, |
|
"loss": 2.4628, |
|
"step": 378 |
|
}, |
|
{ |
|
"epoch": 1.34, |
|
"learning_rate": 7.783333333333334e-06, |
|
"loss": 2.2925, |
|
"step": 379 |
|
}, |
|
{ |
|
"epoch": 1.35, |
|
"learning_rate": 7.766666666666668e-06, |
|
"loss": 2.3381, |
|
"step": 380 |
|
}, |
|
{ |
|
"epoch": 1.35, |
|
"learning_rate": 7.75e-06, |
|
"loss": 2.0939, |
|
"step": 381 |
|
}, |
|
{ |
|
"epoch": 1.35, |
|
"learning_rate": 7.733333333333334e-06, |
|
"loss": 2.2002, |
|
"step": 382 |
|
}, |
|
{ |
|
"epoch": 1.36, |
|
"learning_rate": 7.716666666666667e-06, |
|
"loss": 2.0547, |
|
"step": 383 |
|
}, |
|
{ |
|
"epoch": 1.36, |
|
"learning_rate": 7.7e-06, |
|
"loss": 1.5672, |
|
"step": 384 |
|
}, |
|
{ |
|
"epoch": 1.36, |
|
"learning_rate": 7.683333333333333e-06, |
|
"loss": 2.0091, |
|
"step": 385 |
|
}, |
|
{ |
|
"epoch": 1.37, |
|
"learning_rate": 7.666666666666667e-06, |
|
"loss": 1.877, |
|
"step": 386 |
|
}, |
|
{ |
|
"epoch": 1.37, |
|
"learning_rate": 7.65e-06, |
|
"loss": 2.4509, |
|
"step": 387 |
|
}, |
|
{ |
|
"epoch": 1.37, |
|
"learning_rate": 7.633333333333334e-06, |
|
"loss": 2.1108, |
|
"step": 388 |
|
}, |
|
{ |
|
"epoch": 1.38, |
|
"learning_rate": 7.616666666666666e-06, |
|
"loss": 1.9918, |
|
"step": 389 |
|
}, |
|
{ |
|
"epoch": 1.38, |
|
"learning_rate": 7.6e-06, |
|
"loss": 2.2434, |
|
"step": 390 |
|
}, |
|
{ |
|
"epoch": 1.38, |
|
"learning_rate": 7.583333333333334e-06, |
|
"loss": 2.0259, |
|
"step": 391 |
|
}, |
|
{ |
|
"epoch": 1.39, |
|
"learning_rate": 7.5666666666666665e-06, |
|
"loss": 2.1511, |
|
"step": 392 |
|
}, |
|
{ |
|
"epoch": 1.39, |
|
"learning_rate": 7.550000000000001e-06, |
|
"loss": 2.0569, |
|
"step": 393 |
|
}, |
|
{ |
|
"epoch": 1.39, |
|
"learning_rate": 7.533333333333334e-06, |
|
"loss": 2.6273, |
|
"step": 394 |
|
}, |
|
{ |
|
"epoch": 1.4, |
|
"learning_rate": 7.516666666666668e-06, |
|
"loss": 2.2768, |
|
"step": 395 |
|
}, |
|
{ |
|
"epoch": 1.4, |
|
"learning_rate": 7.5e-06, |
|
"loss": 2.1123, |
|
"step": 396 |
|
}, |
|
{ |
|
"epoch": 1.41, |
|
"learning_rate": 7.483333333333334e-06, |
|
"loss": 1.866, |
|
"step": 397 |
|
}, |
|
{ |
|
"epoch": 1.41, |
|
"learning_rate": 7.466666666666667e-06, |
|
"loss": 2.7522, |
|
"step": 398 |
|
}, |
|
{ |
|
"epoch": 1.41, |
|
"learning_rate": 7.450000000000001e-06, |
|
"loss": 2.0204, |
|
"step": 399 |
|
}, |
|
{ |
|
"epoch": 1.42, |
|
"learning_rate": 7.433333333333333e-06, |
|
"loss": 2.2434, |
|
"step": 400 |
|
}, |
|
{ |
|
"epoch": 1.42, |
|
"learning_rate": 7.416666666666667e-06, |
|
"loss": 2.0103, |
|
"step": 401 |
|
}, |
|
{ |
|
"epoch": 1.42, |
|
"learning_rate": 7.4e-06, |
|
"loss": 1.8887, |
|
"step": 402 |
|
}, |
|
{ |
|
"epoch": 1.43, |
|
"learning_rate": 7.383333333333334e-06, |
|
"loss": 1.7229, |
|
"step": 403 |
|
}, |
|
{ |
|
"epoch": 1.43, |
|
"learning_rate": 7.366666666666667e-06, |
|
"loss": 2.4125, |
|
"step": 404 |
|
}, |
|
{ |
|
"epoch": 1.43, |
|
"learning_rate": 7.350000000000001e-06, |
|
"loss": 1.7796, |
|
"step": 405 |
|
}, |
|
{ |
|
"epoch": 1.44, |
|
"learning_rate": 7.333333333333333e-06, |
|
"loss": 2.0742, |
|
"step": 406 |
|
}, |
|
{ |
|
"epoch": 1.44, |
|
"learning_rate": 7.316666666666667e-06, |
|
"loss": 1.8491, |
|
"step": 407 |
|
}, |
|
{ |
|
"epoch": 1.44, |
|
"learning_rate": 7.2999999999999996e-06, |
|
"loss": 1.782, |
|
"step": 408 |
|
}, |
|
{ |
|
"epoch": 1.45, |
|
"learning_rate": 7.283333333333334e-06, |
|
"loss": 2.1942, |
|
"step": 409 |
|
}, |
|
{ |
|
"epoch": 1.45, |
|
"learning_rate": 7.266666666666667e-06, |
|
"loss": 2.0228, |
|
"step": 410 |
|
}, |
|
{ |
|
"epoch": 1.45, |
|
"learning_rate": 7.250000000000001e-06, |
|
"loss": 1.9769, |
|
"step": 411 |
|
}, |
|
{ |
|
"epoch": 1.46, |
|
"learning_rate": 7.233333333333333e-06, |
|
"loss": 2.193, |
|
"step": 412 |
|
}, |
|
{ |
|
"epoch": 1.46, |
|
"learning_rate": 7.216666666666667e-06, |
|
"loss": 2.8836, |
|
"step": 413 |
|
}, |
|
{ |
|
"epoch": 1.47, |
|
"learning_rate": 7.2e-06, |
|
"loss": 1.6365, |
|
"step": 414 |
|
}, |
|
{ |
|
"epoch": 1.47, |
|
"learning_rate": 7.183333333333334e-06, |
|
"loss": 1.7117, |
|
"step": 415 |
|
}, |
|
{ |
|
"epoch": 1.47, |
|
"learning_rate": 7.166666666666666e-06, |
|
"loss": 1.8388, |
|
"step": 416 |
|
}, |
|
{ |
|
"epoch": 1.48, |
|
"learning_rate": 7.15e-06, |
|
"loss": 1.9475, |
|
"step": 417 |
|
}, |
|
{ |
|
"epoch": 1.48, |
|
"learning_rate": 7.1333333333333325e-06, |
|
"loss": 1.6076, |
|
"step": 418 |
|
}, |
|
{ |
|
"epoch": 1.48, |
|
"learning_rate": 7.116666666666667e-06, |
|
"loss": 1.9698, |
|
"step": 419 |
|
}, |
|
{ |
|
"epoch": 1.49, |
|
"learning_rate": 7.1e-06, |
|
"loss": 1.8908, |
|
"step": 420 |
|
}, |
|
{ |
|
"epoch": 1.49, |
|
"learning_rate": 7.083333333333334e-06, |
|
"loss": 2.7488, |
|
"step": 421 |
|
}, |
|
{ |
|
"epoch": 1.49, |
|
"learning_rate": 7.066666666666666e-06, |
|
"loss": 2.6028, |
|
"step": 422 |
|
}, |
|
{ |
|
"epoch": 1.5, |
|
"learning_rate": 7.05e-06, |
|
"loss": 1.8937, |
|
"step": 423 |
|
}, |
|
{ |
|
"epoch": 1.5, |
|
"learning_rate": 7.0333333333333335e-06, |
|
"loss": 2.2546, |
|
"step": 424 |
|
}, |
|
{ |
|
"epoch": 1.5, |
|
"learning_rate": 7.016666666666667e-06, |
|
"loss": 1.9959, |
|
"step": 425 |
|
}, |
|
{ |
|
"epoch": 1.51, |
|
"learning_rate": 7e-06, |
|
"loss": 2.0024, |
|
"step": 426 |
|
}, |
|
{ |
|
"epoch": 1.51, |
|
"learning_rate": 6.983333333333333e-06, |
|
"loss": 1.8089, |
|
"step": 427 |
|
}, |
|
{ |
|
"epoch": 1.52, |
|
"learning_rate": 6.966666666666667e-06, |
|
"loss": 2.0134, |
|
"step": 428 |
|
}, |
|
{ |
|
"epoch": 1.52, |
|
"learning_rate": 6.95e-06, |
|
"loss": 1.8978, |
|
"step": 429 |
|
}, |
|
{ |
|
"epoch": 1.52, |
|
"learning_rate": 6.933333333333334e-06, |
|
"loss": 2.1701, |
|
"step": 430 |
|
}, |
|
{ |
|
"epoch": 1.53, |
|
"learning_rate": 6.916666666666667e-06, |
|
"loss": 1.938, |
|
"step": 431 |
|
}, |
|
{ |
|
"epoch": 1.53, |
|
"learning_rate": 6.9e-06, |
|
"loss": 2.0614, |
|
"step": 432 |
|
}, |
|
{ |
|
"epoch": 1.53, |
|
"learning_rate": 6.883333333333333e-06, |
|
"loss": 2.0333, |
|
"step": 433 |
|
}, |
|
{ |
|
"epoch": 1.54, |
|
"learning_rate": 6.8666666666666664e-06, |
|
"loss": 2.0934, |
|
"step": 434 |
|
}, |
|
{ |
|
"epoch": 1.54, |
|
"learning_rate": 6.85e-06, |
|
"loss": 2.2378, |
|
"step": 435 |
|
}, |
|
{ |
|
"epoch": 1.54, |
|
"learning_rate": 6.833333333333334e-06, |
|
"loss": 1.8197, |
|
"step": 436 |
|
}, |
|
{ |
|
"epoch": 1.55, |
|
"learning_rate": 6.816666666666667e-06, |
|
"loss": 2.288, |
|
"step": 437 |
|
}, |
|
{ |
|
"epoch": 1.55, |
|
"learning_rate": 6.8e-06, |
|
"loss": 2.0156, |
|
"step": 438 |
|
}, |
|
{ |
|
"epoch": 1.55, |
|
"learning_rate": 6.783333333333333e-06, |
|
"loss": 1.7502, |
|
"step": 439 |
|
}, |
|
{ |
|
"epoch": 1.56, |
|
"learning_rate": 6.766666666666667e-06, |
|
"loss": 1.8708, |
|
"step": 440 |
|
}, |
|
{ |
|
"epoch": 1.56, |
|
"learning_rate": 6.750000000000001e-06, |
|
"loss": 1.8773, |
|
"step": 441 |
|
}, |
|
{ |
|
"epoch": 1.56, |
|
"learning_rate": 6.733333333333334e-06, |
|
"loss": 2.3301, |
|
"step": 442 |
|
}, |
|
{ |
|
"epoch": 1.57, |
|
"learning_rate": 6.716666666666667e-06, |
|
"loss": 1.8617, |
|
"step": 443 |
|
}, |
|
{ |
|
"epoch": 1.57, |
|
"learning_rate": 6.7e-06, |
|
"loss": 2.2864, |
|
"step": 444 |
|
}, |
|
{ |
|
"epoch": 1.58, |
|
"learning_rate": 6.6833333333333334e-06, |
|
"loss": 2.1388, |
|
"step": 445 |
|
}, |
|
{ |
|
"epoch": 1.58, |
|
"learning_rate": 6.6666666666666675e-06, |
|
"loss": 2.1441, |
|
"step": 446 |
|
}, |
|
{ |
|
"epoch": 1.58, |
|
"learning_rate": 6.650000000000001e-06, |
|
"loss": 2.0044, |
|
"step": 447 |
|
}, |
|
{ |
|
"epoch": 1.59, |
|
"learning_rate": 6.633333333333334e-06, |
|
"loss": 2.0552, |
|
"step": 448 |
|
}, |
|
{ |
|
"epoch": 1.59, |
|
"learning_rate": 6.616666666666667e-06, |
|
"loss": 2.7169, |
|
"step": 449 |
|
}, |
|
{ |
|
"epoch": 1.59, |
|
"learning_rate": 6.6e-06, |
|
"loss": 2.0534, |
|
"step": 450 |
|
}, |
|
{ |
|
"epoch": 1.6, |
|
"learning_rate": 6.5833333333333335e-06, |
|
"loss": 2.6256, |
|
"step": 451 |
|
}, |
|
{ |
|
"epoch": 1.6, |
|
"learning_rate": 6.566666666666667e-06, |
|
"loss": 1.708, |
|
"step": 452 |
|
}, |
|
{ |
|
"epoch": 1.6, |
|
"learning_rate": 6.55e-06, |
|
"loss": 1.6666, |
|
"step": 453 |
|
}, |
|
{ |
|
"epoch": 1.61, |
|
"learning_rate": 6.533333333333334e-06, |
|
"loss": 1.8826, |
|
"step": 454 |
|
}, |
|
{ |
|
"epoch": 1.61, |
|
"learning_rate": 6.516666666666667e-06, |
|
"loss": 2.0468, |
|
"step": 455 |
|
}, |
|
{ |
|
"epoch": 1.61, |
|
"learning_rate": 6.5000000000000004e-06, |
|
"loss": 1.8946, |
|
"step": 456 |
|
}, |
|
{ |
|
"epoch": 1.62, |
|
"learning_rate": 6.483333333333334e-06, |
|
"loss": 1.9627, |
|
"step": 457 |
|
}, |
|
{ |
|
"epoch": 1.62, |
|
"learning_rate": 6.466666666666667e-06, |
|
"loss": 1.6227, |
|
"step": 458 |
|
}, |
|
{ |
|
"epoch": 1.62, |
|
"learning_rate": 6.45e-06, |
|
"loss": 1.5653, |
|
"step": 459 |
|
}, |
|
{ |
|
"epoch": 1.63, |
|
"learning_rate": 6.433333333333333e-06, |
|
"loss": 2.322, |
|
"step": 460 |
|
}, |
|
{ |
|
"epoch": 1.63, |
|
"learning_rate": 6.4166666666666665e-06, |
|
"loss": 1.8263, |
|
"step": 461 |
|
}, |
|
{ |
|
"epoch": 1.64, |
|
"learning_rate": 6.4e-06, |
|
"loss": 2.0904, |
|
"step": 462 |
|
}, |
|
{ |
|
"epoch": 1.64, |
|
"learning_rate": 6.383333333333334e-06, |
|
"loss": 2.2124, |
|
"step": 463 |
|
}, |
|
{ |
|
"epoch": 1.64, |
|
"learning_rate": 6.366666666666667e-06, |
|
"loss": 1.6825, |
|
"step": 464 |
|
}, |
|
{ |
|
"epoch": 1.65, |
|
"learning_rate": 6.35e-06, |
|
"loss": 2.4541, |
|
"step": 465 |
|
}, |
|
{ |
|
"epoch": 1.65, |
|
"learning_rate": 6.333333333333333e-06, |
|
"loss": 1.8772, |
|
"step": 466 |
|
}, |
|
{ |
|
"epoch": 1.65, |
|
"learning_rate": 6.316666666666667e-06, |
|
"loss": 2.1587, |
|
"step": 467 |
|
}, |
|
{ |
|
"epoch": 1.66, |
|
"learning_rate": 6.3e-06, |
|
"loss": 1.6308, |
|
"step": 468 |
|
}, |
|
{ |
|
"epoch": 1.66, |
|
"learning_rate": 6.283333333333333e-06, |
|
"loss": 2.2768, |
|
"step": 469 |
|
}, |
|
{ |
|
"epoch": 1.66, |
|
"learning_rate": 6.266666666666666e-06, |
|
"loss": 2.5158, |
|
"step": 470 |
|
}, |
|
{ |
|
"epoch": 1.67, |
|
"learning_rate": 6.2499999999999995e-06, |
|
"loss": 2.0805, |
|
"step": 471 |
|
}, |
|
{ |
|
"epoch": 1.67, |
|
"learning_rate": 6.233333333333334e-06, |
|
"loss": 2.2667, |
|
"step": 472 |
|
}, |
|
{ |
|
"epoch": 1.67, |
|
"learning_rate": 6.2166666666666676e-06, |
|
"loss": 2.1562, |
|
"step": 473 |
|
}, |
|
{ |
|
"epoch": 1.68, |
|
"learning_rate": 6.200000000000001e-06, |
|
"loss": 1.5447, |
|
"step": 474 |
|
}, |
|
{ |
|
"epoch": 1.68, |
|
"learning_rate": 6.183333333333334e-06, |
|
"loss": 1.7005, |
|
"step": 475 |
|
}, |
|
{ |
|
"epoch": 1.68, |
|
"learning_rate": 6.166666666666667e-06, |
|
"loss": 1.7643, |
|
"step": 476 |
|
}, |
|
{ |
|
"epoch": 1.69, |
|
"learning_rate": 6.15e-06, |
|
"loss": 2.0555, |
|
"step": 477 |
|
}, |
|
{ |
|
"epoch": 1.69, |
|
"learning_rate": 6.133333333333334e-06, |
|
"loss": 1.9625, |
|
"step": 478 |
|
}, |
|
{ |
|
"epoch": 1.7, |
|
"learning_rate": 6.116666666666667e-06, |
|
"loss": 1.7895, |
|
"step": 479 |
|
}, |
|
{ |
|
"epoch": 1.7, |
|
"learning_rate": 6.1e-06, |
|
"loss": 1.639, |
|
"step": 480 |
|
}, |
|
{ |
|
"epoch": 1.7, |
|
"learning_rate": 6.083333333333334e-06, |
|
"loss": 2.5297, |
|
"step": 481 |
|
}, |
|
{ |
|
"epoch": 1.71, |
|
"learning_rate": 6.066666666666667e-06, |
|
"loss": 2.2585, |
|
"step": 482 |
|
}, |
|
{ |
|
"epoch": 1.71, |
|
"learning_rate": 6.0500000000000005e-06, |
|
"loss": 1.4327, |
|
"step": 483 |
|
}, |
|
{ |
|
"epoch": 1.71, |
|
"learning_rate": 6.033333333333334e-06, |
|
"loss": 2.0874, |
|
"step": 484 |
|
}, |
|
{ |
|
"epoch": 1.72, |
|
"learning_rate": 6.016666666666667e-06, |
|
"loss": 2.0918, |
|
"step": 485 |
|
}, |
|
{ |
|
"epoch": 1.72, |
|
"learning_rate": 6e-06, |
|
"loss": 1.7217, |
|
"step": 486 |
|
}, |
|
{ |
|
"epoch": 1.72, |
|
"learning_rate": 5.983333333333333e-06, |
|
"loss": 2.0343, |
|
"step": 487 |
|
}, |
|
{ |
|
"epoch": 1.73, |
|
"learning_rate": 5.9666666666666666e-06, |
|
"loss": 1.665, |
|
"step": 488 |
|
}, |
|
{ |
|
"epoch": 1.73, |
|
"learning_rate": 5.95e-06, |
|
"loss": 2.2781, |
|
"step": 489 |
|
}, |
|
{ |
|
"epoch": 1.73, |
|
"learning_rate": 5.933333333333334e-06, |
|
"loss": 1.5968, |
|
"step": 490 |
|
}, |
|
{ |
|
"epoch": 1.74, |
|
"learning_rate": 5.916666666666667e-06, |
|
"loss": 1.7439, |
|
"step": 491 |
|
}, |
|
{ |
|
"epoch": 1.74, |
|
"learning_rate": 5.9e-06, |
|
"loss": 1.9319, |
|
"step": 492 |
|
}, |
|
{ |
|
"epoch": 1.75, |
|
"learning_rate": 5.8833333333333335e-06, |
|
"loss": 1.99, |
|
"step": 493 |
|
}, |
|
{ |
|
"epoch": 1.75, |
|
"learning_rate": 5.866666666666667e-06, |
|
"loss": 2.0466, |
|
"step": 494 |
|
}, |
|
{ |
|
"epoch": 1.75, |
|
"learning_rate": 5.85e-06, |
|
"loss": 1.8852, |
|
"step": 495 |
|
}, |
|
{ |
|
"epoch": 1.76, |
|
"learning_rate": 5.833333333333333e-06, |
|
"loss": 2.1925, |
|
"step": 496 |
|
}, |
|
{ |
|
"epoch": 1.76, |
|
"learning_rate": 5.816666666666666e-06, |
|
"loss": 2.0557, |
|
"step": 497 |
|
}, |
|
{ |
|
"epoch": 1.76, |
|
"learning_rate": 5.8e-06, |
|
"loss": 2.1862, |
|
"step": 498 |
|
}, |
|
{ |
|
"epoch": 1.77, |
|
"learning_rate": 5.783333333333334e-06, |
|
"loss": 1.8172, |
|
"step": 499 |
|
}, |
|
{ |
|
"epoch": 1.77, |
|
"learning_rate": 5.766666666666667e-06, |
|
"loss": 2.1167, |
|
"step": 500 |
|
}, |
|
{ |
|
"epoch": 1.77, |
|
"learning_rate": 5.75e-06, |
|
"loss": 1.8688, |
|
"step": 501 |
|
}, |
|
{ |
|
"epoch": 1.78, |
|
"learning_rate": 5.733333333333333e-06, |
|
"loss": 1.5411, |
|
"step": 502 |
|
}, |
|
{ |
|
"epoch": 1.78, |
|
"learning_rate": 5.7166666666666664e-06, |
|
"loss": 1.9669, |
|
"step": 503 |
|
}, |
|
{ |
|
"epoch": 1.78, |
|
"learning_rate": 5.7e-06, |
|
"loss": 2.0954, |
|
"step": 504 |
|
}, |
|
{ |
|
"epoch": 1.79, |
|
"learning_rate": 5.683333333333334e-06, |
|
"loss": 1.844, |
|
"step": 505 |
|
}, |
|
{ |
|
"epoch": 1.79, |
|
"learning_rate": 5.666666666666667e-06, |
|
"loss": 1.944, |
|
"step": 506 |
|
}, |
|
{ |
|
"epoch": 1.79, |
|
"learning_rate": 5.650000000000001e-06, |
|
"loss": 2.173, |
|
"step": 507 |
|
}, |
|
{ |
|
"epoch": 1.8, |
|
"learning_rate": 5.633333333333334e-06, |
|
"loss": 1.9445, |
|
"step": 508 |
|
}, |
|
{ |
|
"epoch": 1.8, |
|
"learning_rate": 5.616666666666667e-06, |
|
"loss": 1.7651, |
|
"step": 509 |
|
}, |
|
{ |
|
"epoch": 1.81, |
|
"learning_rate": 5.600000000000001e-06, |
|
"loss": 2.1161, |
|
"step": 510 |
|
}, |
|
{ |
|
"epoch": 1.81, |
|
"learning_rate": 5.583333333333334e-06, |
|
"loss": 1.8995, |
|
"step": 511 |
|
}, |
|
{ |
|
"epoch": 1.81, |
|
"learning_rate": 5.566666666666667e-06, |
|
"loss": 1.4637, |
|
"step": 512 |
|
}, |
|
{ |
|
"epoch": 1.82, |
|
"learning_rate": 5.55e-06, |
|
"loss": 1.832, |
|
"step": 513 |
|
}, |
|
{ |
|
"epoch": 1.82, |
|
"learning_rate": 5.5333333333333334e-06, |
|
"loss": 1.7488, |
|
"step": 514 |
|
}, |
|
{ |
|
"epoch": 1.82, |
|
"learning_rate": 5.516666666666667e-06, |
|
"loss": 1.6972, |
|
"step": 515 |
|
}, |
|
{ |
|
"epoch": 1.83, |
|
"learning_rate": 5.500000000000001e-06, |
|
"loss": 1.5484, |
|
"step": 516 |
|
}, |
|
{ |
|
"epoch": 1.83, |
|
"learning_rate": 5.483333333333334e-06, |
|
"loss": 1.7718, |
|
"step": 517 |
|
}, |
|
{ |
|
"epoch": 1.83, |
|
"learning_rate": 5.466666666666667e-06, |
|
"loss": 1.9143, |
|
"step": 518 |
|
}, |
|
{ |
|
"epoch": 1.84, |
|
"learning_rate": 5.45e-06, |
|
"loss": 2.6563, |
|
"step": 519 |
|
}, |
|
{ |
|
"epoch": 1.84, |
|
"learning_rate": 5.4333333333333335e-06, |
|
"loss": 1.8396, |
|
"step": 520 |
|
}, |
|
{ |
|
"epoch": 1.84, |
|
"learning_rate": 5.416666666666667e-06, |
|
"loss": 1.8025, |
|
"step": 521 |
|
}, |
|
{ |
|
"epoch": 1.85, |
|
"learning_rate": 5.4e-06, |
|
"loss": 1.4878, |
|
"step": 522 |
|
}, |
|
{ |
|
"epoch": 1.85, |
|
"learning_rate": 5.383333333333333e-06, |
|
"loss": 2.2763, |
|
"step": 523 |
|
}, |
|
{ |
|
"epoch": 1.85, |
|
"learning_rate": 5.366666666666666e-06, |
|
"loss": 2.3049, |
|
"step": 524 |
|
}, |
|
{ |
|
"epoch": 1.86, |
|
"learning_rate": 5.3500000000000004e-06, |
|
"loss": 2.0945, |
|
"step": 525 |
|
}, |
|
{ |
|
"epoch": 1.86, |
|
"learning_rate": 5.333333333333334e-06, |
|
"loss": 1.7488, |
|
"step": 526 |
|
}, |
|
{ |
|
"epoch": 1.87, |
|
"learning_rate": 5.316666666666667e-06, |
|
"loss": 1.4571, |
|
"step": 527 |
|
}, |
|
{ |
|
"epoch": 1.87, |
|
"learning_rate": 5.3e-06, |
|
"loss": 1.263, |
|
"step": 528 |
|
}, |
|
{ |
|
"epoch": 1.87, |
|
"learning_rate": 5.283333333333333e-06, |
|
"loss": 1.9355, |
|
"step": 529 |
|
}, |
|
{ |
|
"epoch": 1.88, |
|
"learning_rate": 5.2666666666666665e-06, |
|
"loss": 1.7801, |
|
"step": 530 |
|
}, |
|
{ |
|
"epoch": 1.88, |
|
"learning_rate": 5.25e-06, |
|
"loss": 1.59, |
|
"step": 531 |
|
}, |
|
{ |
|
"epoch": 1.88, |
|
"learning_rate": 5.233333333333333e-06, |
|
"loss": 1.7096, |
|
"step": 532 |
|
}, |
|
{ |
|
"epoch": 1.89, |
|
"learning_rate": 5.216666666666667e-06, |
|
"loss": 1.9777, |
|
"step": 533 |
|
}, |
|
{ |
|
"epoch": 1.89, |
|
"learning_rate": 5.2e-06, |
|
"loss": 1.4654, |
|
"step": 534 |
|
}, |
|
{ |
|
"epoch": 1.89, |
|
"learning_rate": 5.183333333333333e-06, |
|
"loss": 1.823, |
|
"step": 535 |
|
}, |
|
{ |
|
"epoch": 1.9, |
|
"learning_rate": 5.166666666666667e-06, |
|
"loss": 2.3739, |
|
"step": 536 |
|
}, |
|
{ |
|
"epoch": 1.9, |
|
"learning_rate": 5.150000000000001e-06, |
|
"loss": 1.7833, |
|
"step": 537 |
|
}, |
|
{ |
|
"epoch": 1.9, |
|
"learning_rate": 5.133333333333334e-06, |
|
"loss": 1.3966, |
|
"step": 538 |
|
}, |
|
{ |
|
"epoch": 1.91, |
|
"learning_rate": 5.116666666666667e-06, |
|
"loss": 2.3943, |
|
"step": 539 |
|
}, |
|
{ |
|
"epoch": 1.91, |
|
"learning_rate": 5.1e-06, |
|
"loss": 1.9073, |
|
"step": 540 |
|
}, |
|
{ |
|
"epoch": 1.92, |
|
"learning_rate": 5.0833333333333335e-06, |
|
"loss": 1.8204, |
|
"step": 541 |
|
}, |
|
{ |
|
"epoch": 1.92, |
|
"learning_rate": 5.066666666666667e-06, |
|
"loss": 2.2046, |
|
"step": 542 |
|
}, |
|
{ |
|
"epoch": 1.92, |
|
"learning_rate": 5.050000000000001e-06, |
|
"loss": 1.5424, |
|
"step": 543 |
|
}, |
|
{ |
|
"epoch": 1.93, |
|
"learning_rate": 5.033333333333334e-06, |
|
"loss": 2.233, |
|
"step": 544 |
|
}, |
|
{ |
|
"epoch": 1.93, |
|
"learning_rate": 5.016666666666667e-06, |
|
"loss": 2.2058, |
|
"step": 545 |
|
}, |
|
{ |
|
"epoch": 1.93, |
|
"learning_rate": 5e-06, |
|
"loss": 1.9585, |
|
"step": 546 |
|
}, |
|
{ |
|
"epoch": 1.94, |
|
"learning_rate": 4.983333333333334e-06, |
|
"loss": 1.981, |
|
"step": 547 |
|
}, |
|
{ |
|
"epoch": 1.94, |
|
"learning_rate": 4.966666666666667e-06, |
|
"loss": 1.5996, |
|
"step": 548 |
|
}, |
|
{ |
|
"epoch": 1.94, |
|
"learning_rate": 4.95e-06, |
|
"loss": 1.4464, |
|
"step": 549 |
|
}, |
|
{ |
|
"epoch": 1.95, |
|
"learning_rate": 4.933333333333333e-06, |
|
"loss": 1.8939, |
|
"step": 550 |
|
}, |
|
{ |
|
"epoch": 1.95, |
|
"learning_rate": 4.916666666666667e-06, |
|
"loss": 1.3632, |
|
"step": 551 |
|
}, |
|
{ |
|
"epoch": 1.95, |
|
"learning_rate": 4.9000000000000005e-06, |
|
"loss": 1.7554, |
|
"step": 552 |
|
}, |
|
{ |
|
"epoch": 1.96, |
|
"learning_rate": 4.883333333333334e-06, |
|
"loss": 1.9266, |
|
"step": 553 |
|
}, |
|
{ |
|
"epoch": 1.96, |
|
"learning_rate": 4.866666666666667e-06, |
|
"loss": 2.2149, |
|
"step": 554 |
|
}, |
|
{ |
|
"epoch": 1.96, |
|
"learning_rate": 4.85e-06, |
|
"loss": 1.5173, |
|
"step": 555 |
|
}, |
|
{ |
|
"epoch": 1.97, |
|
"learning_rate": 4.833333333333333e-06, |
|
"loss": 1.6481, |
|
"step": 556 |
|
}, |
|
{ |
|
"epoch": 1.97, |
|
"learning_rate": 4.8166666666666666e-06, |
|
"loss": 1.4039, |
|
"step": 557 |
|
}, |
|
{ |
|
"epoch": 1.98, |
|
"learning_rate": 4.8e-06, |
|
"loss": 1.6102, |
|
"step": 558 |
|
}, |
|
{ |
|
"epoch": 1.98, |
|
"learning_rate": 4.783333333333333e-06, |
|
"loss": 1.8314, |
|
"step": 559 |
|
}, |
|
{ |
|
"epoch": 1.98, |
|
"learning_rate": 4.766666666666667e-06, |
|
"loss": 1.7224, |
|
"step": 560 |
|
}, |
|
{ |
|
"epoch": 1.99, |
|
"learning_rate": 4.75e-06, |
|
"loss": 2.7194, |
|
"step": 561 |
|
}, |
|
{ |
|
"epoch": 1.99, |
|
"learning_rate": 4.7333333333333335e-06, |
|
"loss": 1.7464, |
|
"step": 562 |
|
}, |
|
{ |
|
"epoch": 1.99, |
|
"learning_rate": 4.716666666666667e-06, |
|
"loss": 1.469, |
|
"step": 563 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"learning_rate": 4.7e-06, |
|
"loss": 1.7507, |
|
"step": 564 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"learning_rate": 4.683333333333333e-06, |
|
"loss": 2.2129, |
|
"step": 565 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"learning_rate": 4.666666666666666e-06, |
|
"loss": 2.7364, |
|
"step": 566 |
|
}, |
|
{ |
|
"epoch": 2.01, |
|
"learning_rate": 4.6499999999999995e-06, |
|
"loss": 2.2495, |
|
"step": 567 |
|
}, |
|
{ |
|
"epoch": 2.01, |
|
"learning_rate": 4.633333333333333e-06, |
|
"loss": 1.7625, |
|
"step": 568 |
|
}, |
|
{ |
|
"epoch": 2.01, |
|
"learning_rate": 4.616666666666667e-06, |
|
"loss": 2.3311, |
|
"step": 569 |
|
}, |
|
{ |
|
"epoch": 2.02, |
|
"learning_rate": 4.600000000000001e-06, |
|
"loss": 1.2679, |
|
"step": 570 |
|
}, |
|
{ |
|
"epoch": 2.02, |
|
"learning_rate": 4.583333333333334e-06, |
|
"loss": 1.7531, |
|
"step": 571 |
|
}, |
|
{ |
|
"epoch": 2.02, |
|
"learning_rate": 4.566666666666667e-06, |
|
"loss": 1.7366, |
|
"step": 572 |
|
}, |
|
{ |
|
"epoch": 2.03, |
|
"learning_rate": 4.5500000000000005e-06, |
|
"loss": 1.1425, |
|
"step": 573 |
|
}, |
|
{ |
|
"epoch": 2.03, |
|
"learning_rate": 4.533333333333334e-06, |
|
"loss": 1.7964, |
|
"step": 574 |
|
}, |
|
{ |
|
"epoch": 2.04, |
|
"learning_rate": 4.516666666666667e-06, |
|
"loss": 2.0203, |
|
"step": 575 |
|
}, |
|
{ |
|
"epoch": 2.04, |
|
"learning_rate": 4.5e-06, |
|
"loss": 1.5976, |
|
"step": 576 |
|
}, |
|
{ |
|
"epoch": 2.04, |
|
"learning_rate": 4.483333333333333e-06, |
|
"loss": 2.2244, |
|
"step": 577 |
|
}, |
|
{ |
|
"epoch": 2.05, |
|
"learning_rate": 4.466666666666667e-06, |
|
"loss": 1.7245, |
|
"step": 578 |
|
}, |
|
{ |
|
"epoch": 2.05, |
|
"learning_rate": 4.450000000000001e-06, |
|
"loss": 1.7865, |
|
"step": 579 |
|
}, |
|
{ |
|
"epoch": 2.05, |
|
"learning_rate": 4.433333333333334e-06, |
|
"loss": 2.075, |
|
"step": 580 |
|
}, |
|
{ |
|
"epoch": 2.06, |
|
"learning_rate": 4.416666666666667e-06, |
|
"loss": 1.7313, |
|
"step": 581 |
|
}, |
|
{ |
|
"epoch": 2.06, |
|
"learning_rate": 4.4e-06, |
|
"loss": 2.0884, |
|
"step": 582 |
|
}, |
|
{ |
|
"epoch": 2.06, |
|
"learning_rate": 4.3833333333333334e-06, |
|
"loss": 1.3862, |
|
"step": 583 |
|
}, |
|
{ |
|
"epoch": 2.07, |
|
"learning_rate": 4.366666666666667e-06, |
|
"loss": 2.2084, |
|
"step": 584 |
|
}, |
|
{ |
|
"epoch": 2.07, |
|
"learning_rate": 4.35e-06, |
|
"loss": 2.5373, |
|
"step": 585 |
|
}, |
|
{ |
|
"epoch": 2.07, |
|
"learning_rate": 4.333333333333333e-06, |
|
"loss": 1.2854, |
|
"step": 586 |
|
}, |
|
{ |
|
"epoch": 2.08, |
|
"learning_rate": 4.316666666666667e-06, |
|
"loss": 1.769, |
|
"step": 587 |
|
}, |
|
{ |
|
"epoch": 2.08, |
|
"learning_rate": 4.3e-06, |
|
"loss": 1.8241, |
|
"step": 588 |
|
}, |
|
{ |
|
"epoch": 2.08, |
|
"learning_rate": 4.2833333333333335e-06, |
|
"loss": 1.8433, |
|
"step": 589 |
|
}, |
|
{ |
|
"epoch": 2.09, |
|
"learning_rate": 4.266666666666667e-06, |
|
"loss": 2.0111, |
|
"step": 590 |
|
}, |
|
{ |
|
"epoch": 2.09, |
|
"learning_rate": 4.25e-06, |
|
"loss": 1.4458, |
|
"step": 591 |
|
}, |
|
{ |
|
"epoch": 2.1, |
|
"learning_rate": 4.233333333333333e-06, |
|
"loss": 1.6777, |
|
"step": 592 |
|
}, |
|
{ |
|
"epoch": 2.1, |
|
"learning_rate": 4.216666666666666e-06, |
|
"loss": 1.363, |
|
"step": 593 |
|
}, |
|
{ |
|
"epoch": 2.1, |
|
"learning_rate": 4.2e-06, |
|
"loss": 1.4934, |
|
"step": 594 |
|
}, |
|
{ |
|
"epoch": 2.11, |
|
"learning_rate": 4.183333333333334e-06, |
|
"loss": 2.0874, |
|
"step": 595 |
|
}, |
|
{ |
|
"epoch": 2.11, |
|
"learning_rate": 4.166666666666667e-06, |
|
"loss": 1.9854, |
|
"step": 596 |
|
}, |
|
{ |
|
"epoch": 2.11, |
|
"learning_rate": 4.15e-06, |
|
"loss": 1.5184, |
|
"step": 597 |
|
}, |
|
{ |
|
"epoch": 2.12, |
|
"learning_rate": 4.133333333333333e-06, |
|
"loss": 2.0221, |
|
"step": 598 |
|
}, |
|
{ |
|
"epoch": 2.12, |
|
"learning_rate": 4.1166666666666665e-06, |
|
"loss": 1.8474, |
|
"step": 599 |
|
}, |
|
{ |
|
"epoch": 2.12, |
|
"learning_rate": 4.1e-06, |
|
"loss": 1.2225, |
|
"step": 600 |
|
}, |
|
{ |
|
"epoch": 2.13, |
|
"learning_rate": 4.083333333333333e-06, |
|
"loss": 1.9784, |
|
"step": 601 |
|
}, |
|
{ |
|
"epoch": 2.13, |
|
"learning_rate": 4.066666666666667e-06, |
|
"loss": 2.243, |
|
"step": 602 |
|
}, |
|
{ |
|
"epoch": 2.13, |
|
"learning_rate": 4.05e-06, |
|
"loss": 2.0658, |
|
"step": 603 |
|
}, |
|
{ |
|
"epoch": 2.14, |
|
"learning_rate": 4.033333333333334e-06, |
|
"loss": 1.8076, |
|
"step": 604 |
|
}, |
|
{ |
|
"epoch": 2.14, |
|
"learning_rate": 4.0166666666666675e-06, |
|
"loss": 1.6225, |
|
"step": 605 |
|
}, |
|
{ |
|
"epoch": 2.15, |
|
"learning_rate": 4.000000000000001e-06, |
|
"loss": 1.8576, |
|
"step": 606 |
|
}, |
|
{ |
|
"epoch": 2.15, |
|
"learning_rate": 3.983333333333334e-06, |
|
"loss": 2.6281, |
|
"step": 607 |
|
}, |
|
{ |
|
"epoch": 2.15, |
|
"learning_rate": 3.966666666666667e-06, |
|
"loss": 2.4188, |
|
"step": 608 |
|
}, |
|
{ |
|
"epoch": 2.16, |
|
"learning_rate": 3.95e-06, |
|
"loss": 1.4502, |
|
"step": 609 |
|
}, |
|
{ |
|
"epoch": 2.16, |
|
"learning_rate": 3.9333333333333335e-06, |
|
"loss": 1.3658, |
|
"step": 610 |
|
}, |
|
{ |
|
"epoch": 2.16, |
|
"learning_rate": 3.916666666666667e-06, |
|
"loss": 2.3996, |
|
"step": 611 |
|
}, |
|
{ |
|
"epoch": 2.17, |
|
"learning_rate": 3.9e-06, |
|
"loss": 1.6336, |
|
"step": 612 |
|
}, |
|
{ |
|
"epoch": 2.17, |
|
"learning_rate": 3.883333333333334e-06, |
|
"loss": 2.1177, |
|
"step": 613 |
|
}, |
|
{ |
|
"epoch": 2.17, |
|
"learning_rate": 3.866666666666667e-06, |
|
"loss": 1.8963, |
|
"step": 614 |
|
}, |
|
{ |
|
"epoch": 2.18, |
|
"learning_rate": 3.85e-06, |
|
"loss": 2.1931, |
|
"step": 615 |
|
}, |
|
{ |
|
"epoch": 2.18, |
|
"learning_rate": 3.833333333333334e-06, |
|
"loss": 2.0696, |
|
"step": 616 |
|
}, |
|
{ |
|
"epoch": 2.18, |
|
"learning_rate": 3.816666666666667e-06, |
|
"loss": 2.8152, |
|
"step": 617 |
|
}, |
|
{ |
|
"epoch": 2.19, |
|
"learning_rate": 3.8e-06, |
|
"loss": 1.7986, |
|
"step": 618 |
|
}, |
|
{ |
|
"epoch": 2.19, |
|
"learning_rate": 3.7833333333333333e-06, |
|
"loss": 1.5941, |
|
"step": 619 |
|
}, |
|
{ |
|
"epoch": 2.19, |
|
"learning_rate": 3.766666666666667e-06, |
|
"loss": 1.7742, |
|
"step": 620 |
|
}, |
|
{ |
|
"epoch": 2.2, |
|
"learning_rate": 3.75e-06, |
|
"loss": 2.5681, |
|
"step": 621 |
|
}, |
|
{ |
|
"epoch": 2.2, |
|
"learning_rate": 3.7333333333333333e-06, |
|
"loss": 1.8688, |
|
"step": 622 |
|
}, |
|
{ |
|
"epoch": 2.21, |
|
"learning_rate": 3.7166666666666665e-06, |
|
"loss": 1.5486, |
|
"step": 623 |
|
}, |
|
{ |
|
"epoch": 2.21, |
|
"learning_rate": 3.7e-06, |
|
"loss": 1.6116, |
|
"step": 624 |
|
}, |
|
{ |
|
"epoch": 2.21, |
|
"learning_rate": 3.6833333333333334e-06, |
|
"loss": 1.5187, |
|
"step": 625 |
|
}, |
|
{ |
|
"epoch": 2.22, |
|
"learning_rate": 3.6666666666666666e-06, |
|
"loss": 2.0249, |
|
"step": 626 |
|
}, |
|
{ |
|
"epoch": 2.22, |
|
"learning_rate": 3.6499999999999998e-06, |
|
"loss": 1.9411, |
|
"step": 627 |
|
}, |
|
{ |
|
"epoch": 2.22, |
|
"learning_rate": 3.6333333333333334e-06, |
|
"loss": 1.5822, |
|
"step": 628 |
|
}, |
|
{ |
|
"epoch": 2.23, |
|
"learning_rate": 3.6166666666666666e-06, |
|
"loss": 2.0127, |
|
"step": 629 |
|
}, |
|
{ |
|
"epoch": 2.23, |
|
"learning_rate": 3.6e-06, |
|
"loss": 1.9566, |
|
"step": 630 |
|
}, |
|
{ |
|
"epoch": 2.23, |
|
"learning_rate": 3.583333333333333e-06, |
|
"loss": 1.6718, |
|
"step": 631 |
|
}, |
|
{ |
|
"epoch": 2.24, |
|
"learning_rate": 3.5666666666666663e-06, |
|
"loss": 1.6565, |
|
"step": 632 |
|
}, |
|
{ |
|
"epoch": 2.24, |
|
"learning_rate": 3.55e-06, |
|
"loss": 1.5312, |
|
"step": 633 |
|
}, |
|
{ |
|
"epoch": 2.24, |
|
"learning_rate": 3.533333333333333e-06, |
|
"loss": 1.7874, |
|
"step": 634 |
|
}, |
|
{ |
|
"epoch": 2.25, |
|
"learning_rate": 3.5166666666666667e-06, |
|
"loss": 1.6655, |
|
"step": 635 |
|
}, |
|
{ |
|
"epoch": 2.25, |
|
"learning_rate": 3.5e-06, |
|
"loss": 1.6725, |
|
"step": 636 |
|
}, |
|
{ |
|
"epoch": 2.25, |
|
"learning_rate": 3.4833333333333336e-06, |
|
"loss": 1.7367, |
|
"step": 637 |
|
}, |
|
{ |
|
"epoch": 2.26, |
|
"learning_rate": 3.466666666666667e-06, |
|
"loss": 1.4697, |
|
"step": 638 |
|
}, |
|
{ |
|
"epoch": 2.26, |
|
"learning_rate": 3.45e-06, |
|
"loss": 1.723, |
|
"step": 639 |
|
}, |
|
{ |
|
"epoch": 2.27, |
|
"learning_rate": 3.4333333333333332e-06, |
|
"loss": 1.555, |
|
"step": 640 |
|
}, |
|
{ |
|
"epoch": 2.27, |
|
"learning_rate": 3.416666666666667e-06, |
|
"loss": 1.5394, |
|
"step": 641 |
|
}, |
|
{ |
|
"epoch": 2.27, |
|
"learning_rate": 3.4e-06, |
|
"loss": 1.5542, |
|
"step": 642 |
|
}, |
|
{ |
|
"epoch": 2.28, |
|
"learning_rate": 3.3833333333333337e-06, |
|
"loss": 1.3986, |
|
"step": 643 |
|
}, |
|
{ |
|
"epoch": 2.28, |
|
"learning_rate": 3.366666666666667e-06, |
|
"loss": 1.4838, |
|
"step": 644 |
|
}, |
|
{ |
|
"epoch": 2.28, |
|
"learning_rate": 3.35e-06, |
|
"loss": 1.8712, |
|
"step": 645 |
|
}, |
|
{ |
|
"epoch": 2.29, |
|
"learning_rate": 3.3333333333333337e-06, |
|
"loss": 2.1302, |
|
"step": 646 |
|
}, |
|
{ |
|
"epoch": 2.29, |
|
"learning_rate": 3.316666666666667e-06, |
|
"loss": 1.4334, |
|
"step": 647 |
|
}, |
|
{ |
|
"epoch": 2.29, |
|
"learning_rate": 3.3e-06, |
|
"loss": 1.9017, |
|
"step": 648 |
|
}, |
|
{ |
|
"epoch": 2.3, |
|
"learning_rate": 3.2833333333333334e-06, |
|
"loss": 1.9506, |
|
"step": 649 |
|
}, |
|
{ |
|
"epoch": 2.3, |
|
"learning_rate": 3.266666666666667e-06, |
|
"loss": 1.352, |
|
"step": 650 |
|
}, |
|
{ |
|
"epoch": 2.3, |
|
"learning_rate": 3.2500000000000002e-06, |
|
"loss": 2.0563, |
|
"step": 651 |
|
}, |
|
{ |
|
"epoch": 2.31, |
|
"learning_rate": 3.2333333333333334e-06, |
|
"loss": 1.6157, |
|
"step": 652 |
|
}, |
|
{ |
|
"epoch": 2.31, |
|
"learning_rate": 3.2166666666666666e-06, |
|
"loss": 1.6653, |
|
"step": 653 |
|
}, |
|
{ |
|
"epoch": 2.32, |
|
"learning_rate": 3.2e-06, |
|
"loss": 1.7147, |
|
"step": 654 |
|
}, |
|
{ |
|
"epoch": 2.32, |
|
"learning_rate": 3.1833333333333335e-06, |
|
"loss": 2.1915, |
|
"step": 655 |
|
}, |
|
{ |
|
"epoch": 2.32, |
|
"learning_rate": 3.1666666666666667e-06, |
|
"loss": 1.6562, |
|
"step": 656 |
|
}, |
|
{ |
|
"epoch": 2.33, |
|
"learning_rate": 3.15e-06, |
|
"loss": 2.4905, |
|
"step": 657 |
|
}, |
|
{ |
|
"epoch": 2.33, |
|
"learning_rate": 3.133333333333333e-06, |
|
"loss": 1.6862, |
|
"step": 658 |
|
}, |
|
{ |
|
"epoch": 2.33, |
|
"learning_rate": 3.116666666666667e-06, |
|
"loss": 1.7923, |
|
"step": 659 |
|
}, |
|
{ |
|
"epoch": 2.34, |
|
"learning_rate": 3.1000000000000004e-06, |
|
"loss": 1.9133, |
|
"step": 660 |
|
}, |
|
{ |
|
"epoch": 2.34, |
|
"learning_rate": 3.0833333333333336e-06, |
|
"loss": 1.973, |
|
"step": 661 |
|
}, |
|
{ |
|
"epoch": 2.34, |
|
"learning_rate": 3.066666666666667e-06, |
|
"loss": 1.9692, |
|
"step": 662 |
|
}, |
|
{ |
|
"epoch": 2.35, |
|
"learning_rate": 3.05e-06, |
|
"loss": 1.7815, |
|
"step": 663 |
|
}, |
|
{ |
|
"epoch": 2.35, |
|
"learning_rate": 3.0333333333333337e-06, |
|
"loss": 1.7928, |
|
"step": 664 |
|
}, |
|
{ |
|
"epoch": 2.35, |
|
"learning_rate": 3.016666666666667e-06, |
|
"loss": 1.6075, |
|
"step": 665 |
|
}, |
|
{ |
|
"epoch": 2.36, |
|
"learning_rate": 3e-06, |
|
"loss": 2.1111, |
|
"step": 666 |
|
}, |
|
{ |
|
"epoch": 2.36, |
|
"learning_rate": 2.9833333333333333e-06, |
|
"loss": 1.9185, |
|
"step": 667 |
|
}, |
|
{ |
|
"epoch": 2.36, |
|
"learning_rate": 2.966666666666667e-06, |
|
"loss": 1.9456, |
|
"step": 668 |
|
}, |
|
{ |
|
"epoch": 2.37, |
|
"learning_rate": 2.95e-06, |
|
"loss": 1.9542, |
|
"step": 669 |
|
}, |
|
{ |
|
"epoch": 2.37, |
|
"learning_rate": 2.9333333333333333e-06, |
|
"loss": 1.3781, |
|
"step": 670 |
|
}, |
|
{ |
|
"epoch": 2.38, |
|
"learning_rate": 2.9166666666666666e-06, |
|
"loss": 1.9288, |
|
"step": 671 |
|
}, |
|
{ |
|
"epoch": 2.38, |
|
"learning_rate": 2.9e-06, |
|
"loss": 1.5704, |
|
"step": 672 |
|
}, |
|
{ |
|
"epoch": 2.38, |
|
"learning_rate": 2.8833333333333334e-06, |
|
"loss": 2.2982, |
|
"step": 673 |
|
}, |
|
{ |
|
"epoch": 2.39, |
|
"learning_rate": 2.8666666666666666e-06, |
|
"loss": 1.2156, |
|
"step": 674 |
|
}, |
|
{ |
|
"epoch": 2.39, |
|
"learning_rate": 2.85e-06, |
|
"loss": 1.4478, |
|
"step": 675 |
|
}, |
|
{ |
|
"epoch": 2.39, |
|
"learning_rate": 2.8333333333333335e-06, |
|
"loss": 1.2976, |
|
"step": 676 |
|
}, |
|
{ |
|
"epoch": 2.4, |
|
"learning_rate": 2.816666666666667e-06, |
|
"loss": 1.5933, |
|
"step": 677 |
|
}, |
|
{ |
|
"epoch": 2.4, |
|
"learning_rate": 2.8000000000000003e-06, |
|
"loss": 1.8004, |
|
"step": 678 |
|
}, |
|
{ |
|
"epoch": 2.4, |
|
"learning_rate": 2.7833333333333335e-06, |
|
"loss": 1.7414, |
|
"step": 679 |
|
}, |
|
{ |
|
"epoch": 2.41, |
|
"learning_rate": 2.7666666666666667e-06, |
|
"loss": 1.6811, |
|
"step": 680 |
|
}, |
|
{ |
|
"epoch": 2.41, |
|
"learning_rate": 2.7500000000000004e-06, |
|
"loss": 1.9242, |
|
"step": 681 |
|
}, |
|
{ |
|
"epoch": 2.41, |
|
"learning_rate": 2.7333333333333336e-06, |
|
"loss": 2.0837, |
|
"step": 682 |
|
}, |
|
{ |
|
"epoch": 2.42, |
|
"learning_rate": 2.7166666666666668e-06, |
|
"loss": 1.5427, |
|
"step": 683 |
|
}, |
|
{ |
|
"epoch": 2.42, |
|
"learning_rate": 2.7e-06, |
|
"loss": 2.2376, |
|
"step": 684 |
|
}, |
|
{ |
|
"epoch": 2.42, |
|
"learning_rate": 2.683333333333333e-06, |
|
"loss": 1.6088, |
|
"step": 685 |
|
}, |
|
{ |
|
"epoch": 2.43, |
|
"learning_rate": 2.666666666666667e-06, |
|
"loss": 2.1902, |
|
"step": 686 |
|
}, |
|
{ |
|
"epoch": 2.43, |
|
"learning_rate": 2.65e-06, |
|
"loss": 1.5996, |
|
"step": 687 |
|
}, |
|
{ |
|
"epoch": 2.44, |
|
"learning_rate": 2.6333333333333332e-06, |
|
"loss": 1.7546, |
|
"step": 688 |
|
}, |
|
{ |
|
"epoch": 2.44, |
|
"learning_rate": 2.6166666666666665e-06, |
|
"loss": 1.5664, |
|
"step": 689 |
|
}, |
|
{ |
|
"epoch": 2.44, |
|
"learning_rate": 2.6e-06, |
|
"loss": 2.216, |
|
"step": 690 |
|
}, |
|
{ |
|
"epoch": 2.45, |
|
"learning_rate": 2.5833333333333333e-06, |
|
"loss": 2.1364, |
|
"step": 691 |
|
}, |
|
{ |
|
"epoch": 2.45, |
|
"learning_rate": 2.566666666666667e-06, |
|
"loss": 2.0798, |
|
"step": 692 |
|
}, |
|
{ |
|
"epoch": 2.45, |
|
"learning_rate": 2.55e-06, |
|
"loss": 1.8178, |
|
"step": 693 |
|
}, |
|
{ |
|
"epoch": 2.46, |
|
"learning_rate": 2.5333333333333334e-06, |
|
"loss": 2.0398, |
|
"step": 694 |
|
}, |
|
{ |
|
"epoch": 2.46, |
|
"learning_rate": 2.516666666666667e-06, |
|
"loss": 1.844, |
|
"step": 695 |
|
}, |
|
{ |
|
"epoch": 2.46, |
|
"learning_rate": 2.5e-06, |
|
"loss": 1.7774, |
|
"step": 696 |
|
}, |
|
{ |
|
"epoch": 2.47, |
|
"learning_rate": 2.4833333333333334e-06, |
|
"loss": 1.4668, |
|
"step": 697 |
|
}, |
|
{ |
|
"epoch": 2.47, |
|
"learning_rate": 2.4666666666666666e-06, |
|
"loss": 1.7792, |
|
"step": 698 |
|
}, |
|
{ |
|
"epoch": 2.47, |
|
"learning_rate": 2.4500000000000003e-06, |
|
"loss": 1.7711, |
|
"step": 699 |
|
}, |
|
{ |
|
"epoch": 2.48, |
|
"learning_rate": 2.4333333333333335e-06, |
|
"loss": 2.2163, |
|
"step": 700 |
|
}, |
|
{ |
|
"epoch": 2.48, |
|
"learning_rate": 2.4166666666666667e-06, |
|
"loss": 1.5055, |
|
"step": 701 |
|
}, |
|
{ |
|
"epoch": 2.48, |
|
"learning_rate": 2.4e-06, |
|
"loss": 2.203, |
|
"step": 702 |
|
}, |
|
{ |
|
"epoch": 2.49, |
|
"learning_rate": 2.3833333333333335e-06, |
|
"loss": 1.7143, |
|
"step": 703 |
|
}, |
|
{ |
|
"epoch": 2.49, |
|
"learning_rate": 2.3666666666666667e-06, |
|
"loss": 1.8971, |
|
"step": 704 |
|
}, |
|
{ |
|
"epoch": 2.5, |
|
"learning_rate": 2.35e-06, |
|
"loss": 1.6888, |
|
"step": 705 |
|
}, |
|
{ |
|
"epoch": 2.5, |
|
"learning_rate": 2.333333333333333e-06, |
|
"loss": 1.8001, |
|
"step": 706 |
|
}, |
|
{ |
|
"epoch": 2.5, |
|
"learning_rate": 2.3166666666666664e-06, |
|
"loss": 1.4893, |
|
"step": 707 |
|
}, |
|
{ |
|
"epoch": 2.51, |
|
"learning_rate": 2.3000000000000004e-06, |
|
"loss": 1.4765, |
|
"step": 708 |
|
}, |
|
{ |
|
"epoch": 2.51, |
|
"learning_rate": 2.2833333333333336e-06, |
|
"loss": 3.251, |
|
"step": 709 |
|
}, |
|
{ |
|
"epoch": 2.51, |
|
"learning_rate": 2.266666666666667e-06, |
|
"loss": 2.2061, |
|
"step": 710 |
|
}, |
|
{ |
|
"epoch": 2.52, |
|
"learning_rate": 2.25e-06, |
|
"loss": 1.6923, |
|
"step": 711 |
|
}, |
|
{ |
|
"epoch": 2.52, |
|
"learning_rate": 2.2333333333333337e-06, |
|
"loss": 1.7339, |
|
"step": 712 |
|
}, |
|
{ |
|
"epoch": 2.52, |
|
"learning_rate": 2.216666666666667e-06, |
|
"loss": 2.0528, |
|
"step": 713 |
|
}, |
|
{ |
|
"epoch": 2.53, |
|
"learning_rate": 2.2e-06, |
|
"loss": 1.4026, |
|
"step": 714 |
|
}, |
|
{ |
|
"epoch": 2.53, |
|
"learning_rate": 2.1833333333333333e-06, |
|
"loss": 1.6975, |
|
"step": 715 |
|
}, |
|
{ |
|
"epoch": 2.53, |
|
"learning_rate": 2.1666666666666665e-06, |
|
"loss": 1.7115, |
|
"step": 716 |
|
}, |
|
{ |
|
"epoch": 2.54, |
|
"learning_rate": 2.15e-06, |
|
"loss": 1.8178, |
|
"step": 717 |
|
}, |
|
{ |
|
"epoch": 2.54, |
|
"learning_rate": 2.1333333333333334e-06, |
|
"loss": 2.247, |
|
"step": 718 |
|
}, |
|
{ |
|
"epoch": 2.55, |
|
"learning_rate": 2.1166666666666666e-06, |
|
"loss": 1.7384, |
|
"step": 719 |
|
}, |
|
{ |
|
"epoch": 2.55, |
|
"learning_rate": 2.1e-06, |
|
"loss": 2.0723, |
|
"step": 720 |
|
}, |
|
{ |
|
"epoch": 2.55, |
|
"learning_rate": 2.0833333333333334e-06, |
|
"loss": 1.7063, |
|
"step": 721 |
|
}, |
|
{ |
|
"epoch": 2.56, |
|
"learning_rate": 2.0666666666666666e-06, |
|
"loss": 1.6441, |
|
"step": 722 |
|
}, |
|
{ |
|
"epoch": 2.56, |
|
"learning_rate": 2.05e-06, |
|
"loss": 1.6656, |
|
"step": 723 |
|
}, |
|
{ |
|
"epoch": 2.56, |
|
"learning_rate": 2.0333333333333335e-06, |
|
"loss": 1.8402, |
|
"step": 724 |
|
}, |
|
{ |
|
"epoch": 2.57, |
|
"learning_rate": 2.016666666666667e-06, |
|
"loss": 1.4049, |
|
"step": 725 |
|
}, |
|
{ |
|
"epoch": 2.57, |
|
"learning_rate": 2.0000000000000003e-06, |
|
"loss": 1.8491, |
|
"step": 726 |
|
}, |
|
{ |
|
"epoch": 2.57, |
|
"learning_rate": 1.9833333333333335e-06, |
|
"loss": 1.3215, |
|
"step": 727 |
|
}, |
|
{ |
|
"epoch": 2.58, |
|
"learning_rate": 1.9666666666666668e-06, |
|
"loss": 1.5681, |
|
"step": 728 |
|
}, |
|
{ |
|
"epoch": 2.58, |
|
"learning_rate": 1.95e-06, |
|
"loss": 1.8863, |
|
"step": 729 |
|
}, |
|
{ |
|
"epoch": 2.58, |
|
"learning_rate": 1.9333333333333336e-06, |
|
"loss": 1.4483, |
|
"step": 730 |
|
}, |
|
{ |
|
"epoch": 2.59, |
|
"learning_rate": 1.916666666666667e-06, |
|
"loss": 1.6951, |
|
"step": 731 |
|
}, |
|
{ |
|
"epoch": 2.59, |
|
"learning_rate": 1.9e-06, |
|
"loss": 1.778, |
|
"step": 732 |
|
}, |
|
{ |
|
"epoch": 2.59, |
|
"learning_rate": 1.8833333333333334e-06, |
|
"loss": 2.1161, |
|
"step": 733 |
|
}, |
|
{ |
|
"epoch": 2.6, |
|
"learning_rate": 1.8666666666666667e-06, |
|
"loss": 1.6639, |
|
"step": 734 |
|
}, |
|
{ |
|
"epoch": 2.6, |
|
"learning_rate": 1.85e-06, |
|
"loss": 1.7435, |
|
"step": 735 |
|
}, |
|
{ |
|
"epoch": 2.61, |
|
"learning_rate": 1.8333333333333333e-06, |
|
"loss": 1.7653, |
|
"step": 736 |
|
}, |
|
{ |
|
"epoch": 2.61, |
|
"learning_rate": 1.8166666666666667e-06, |
|
"loss": 1.9879, |
|
"step": 737 |
|
}, |
|
{ |
|
"epoch": 2.61, |
|
"learning_rate": 1.8e-06, |
|
"loss": 1.9349, |
|
"step": 738 |
|
}, |
|
{ |
|
"epoch": 2.62, |
|
"learning_rate": 1.7833333333333331e-06, |
|
"loss": 1.5189, |
|
"step": 739 |
|
}, |
|
{ |
|
"epoch": 2.62, |
|
"learning_rate": 1.7666666666666666e-06, |
|
"loss": 1.5839, |
|
"step": 740 |
|
}, |
|
{ |
|
"epoch": 2.62, |
|
"learning_rate": 1.75e-06, |
|
"loss": 1.1645, |
|
"step": 741 |
|
}, |
|
{ |
|
"epoch": 2.63, |
|
"learning_rate": 1.7333333333333334e-06, |
|
"loss": 1.7053, |
|
"step": 742 |
|
}, |
|
{ |
|
"epoch": 2.63, |
|
"learning_rate": 1.7166666666666666e-06, |
|
"loss": 1.9318, |
|
"step": 743 |
|
}, |
|
{ |
|
"epoch": 2.63, |
|
"learning_rate": 1.7e-06, |
|
"loss": 2.1441, |
|
"step": 744 |
|
}, |
|
{ |
|
"epoch": 2.64, |
|
"learning_rate": 1.6833333333333335e-06, |
|
"loss": 1.3465, |
|
"step": 745 |
|
}, |
|
{ |
|
"epoch": 2.64, |
|
"learning_rate": 1.6666666666666669e-06, |
|
"loss": 2.2195, |
|
"step": 746 |
|
}, |
|
{ |
|
"epoch": 2.64, |
|
"learning_rate": 1.65e-06, |
|
"loss": 2.8162, |
|
"step": 747 |
|
}, |
|
{ |
|
"epoch": 2.65, |
|
"learning_rate": 1.6333333333333335e-06, |
|
"loss": 1.598, |
|
"step": 748 |
|
}, |
|
{ |
|
"epoch": 2.65, |
|
"learning_rate": 1.6166666666666667e-06, |
|
"loss": 2.0155, |
|
"step": 749 |
|
}, |
|
{ |
|
"epoch": 2.65, |
|
"learning_rate": 1.6e-06, |
|
"loss": 1.9394, |
|
"step": 750 |
|
}, |
|
{ |
|
"epoch": 2.66, |
|
"learning_rate": 1.5833333333333333e-06, |
|
"loss": 1.3936, |
|
"step": 751 |
|
}, |
|
{ |
|
"epoch": 2.66, |
|
"learning_rate": 1.5666666666666666e-06, |
|
"loss": 1.6108, |
|
"step": 752 |
|
}, |
|
{ |
|
"epoch": 2.67, |
|
"learning_rate": 1.5500000000000002e-06, |
|
"loss": 1.7062, |
|
"step": 753 |
|
}, |
|
{ |
|
"epoch": 2.67, |
|
"learning_rate": 1.5333333333333334e-06, |
|
"loss": 1.548, |
|
"step": 754 |
|
}, |
|
{ |
|
"epoch": 2.67, |
|
"learning_rate": 1.5166666666666668e-06, |
|
"loss": 1.2771, |
|
"step": 755 |
|
}, |
|
{ |
|
"epoch": 2.68, |
|
"learning_rate": 1.5e-06, |
|
"loss": 1.7566, |
|
"step": 756 |
|
}, |
|
{ |
|
"epoch": 2.68, |
|
"learning_rate": 1.4833333333333335e-06, |
|
"loss": 1.7038, |
|
"step": 757 |
|
}, |
|
{ |
|
"epoch": 2.68, |
|
"learning_rate": 1.4666666666666667e-06, |
|
"loss": 1.865, |
|
"step": 758 |
|
}, |
|
{ |
|
"epoch": 2.69, |
|
"learning_rate": 1.45e-06, |
|
"loss": 1.7116, |
|
"step": 759 |
|
}, |
|
{ |
|
"epoch": 2.69, |
|
"learning_rate": 1.4333333333333333e-06, |
|
"loss": 1.6543, |
|
"step": 760 |
|
}, |
|
{ |
|
"epoch": 2.69, |
|
"learning_rate": 1.4166666666666667e-06, |
|
"loss": 1.737, |
|
"step": 761 |
|
}, |
|
{ |
|
"epoch": 2.7, |
|
"learning_rate": 1.4000000000000001e-06, |
|
"loss": 1.7191, |
|
"step": 762 |
|
}, |
|
{ |
|
"epoch": 2.7, |
|
"learning_rate": 1.3833333333333334e-06, |
|
"loss": 2.0304, |
|
"step": 763 |
|
}, |
|
{ |
|
"epoch": 2.7, |
|
"learning_rate": 1.3666666666666668e-06, |
|
"loss": 1.6386, |
|
"step": 764 |
|
}, |
|
{ |
|
"epoch": 2.71, |
|
"learning_rate": 1.35e-06, |
|
"loss": 3.017, |
|
"step": 765 |
|
}, |
|
{ |
|
"epoch": 2.71, |
|
"learning_rate": 1.3333333333333334e-06, |
|
"loss": 1.4292, |
|
"step": 766 |
|
}, |
|
{ |
|
"epoch": 2.72, |
|
"learning_rate": 1.3166666666666666e-06, |
|
"loss": 1.2191, |
|
"step": 767 |
|
}, |
|
{ |
|
"epoch": 2.72, |
|
"learning_rate": 1.3e-06, |
|
"loss": 1.6942, |
|
"step": 768 |
|
}, |
|
{ |
|
"epoch": 2.72, |
|
"learning_rate": 1.2833333333333335e-06, |
|
"loss": 1.7473, |
|
"step": 769 |
|
}, |
|
{ |
|
"epoch": 2.73, |
|
"learning_rate": 1.2666666666666667e-06, |
|
"loss": 1.3905, |
|
"step": 770 |
|
}, |
|
{ |
|
"epoch": 2.73, |
|
"learning_rate": 1.25e-06, |
|
"loss": 1.7867, |
|
"step": 771 |
|
}, |
|
{ |
|
"epoch": 2.73, |
|
"learning_rate": 1.2333333333333333e-06, |
|
"loss": 1.4216, |
|
"step": 772 |
|
}, |
|
{ |
|
"epoch": 2.74, |
|
"learning_rate": 1.2166666666666667e-06, |
|
"loss": 1.9636, |
|
"step": 773 |
|
}, |
|
{ |
|
"epoch": 2.74, |
|
"learning_rate": 1.2e-06, |
|
"loss": 1.3091, |
|
"step": 774 |
|
}, |
|
{ |
|
"epoch": 2.74, |
|
"learning_rate": 1.1833333333333334e-06, |
|
"loss": 1.5181, |
|
"step": 775 |
|
}, |
|
{ |
|
"epoch": 2.75, |
|
"learning_rate": 1.1666666666666666e-06, |
|
"loss": 1.4607, |
|
"step": 776 |
|
}, |
|
{ |
|
"epoch": 2.75, |
|
"learning_rate": 1.1500000000000002e-06, |
|
"loss": 1.1666, |
|
"step": 777 |
|
}, |
|
{ |
|
"epoch": 2.75, |
|
"learning_rate": 1.1333333333333334e-06, |
|
"loss": 1.3208, |
|
"step": 778 |
|
}, |
|
{ |
|
"epoch": 2.76, |
|
"learning_rate": 1.1166666666666668e-06, |
|
"loss": 1.68, |
|
"step": 779 |
|
}, |
|
{ |
|
"epoch": 2.76, |
|
"learning_rate": 1.1e-06, |
|
"loss": 1.7675, |
|
"step": 780 |
|
}, |
|
{ |
|
"epoch": 2.76, |
|
"learning_rate": 1.0833333333333333e-06, |
|
"loss": 2.0005, |
|
"step": 781 |
|
}, |
|
{ |
|
"epoch": 2.77, |
|
"learning_rate": 1.0666666666666667e-06, |
|
"loss": 1.5514, |
|
"step": 782 |
|
}, |
|
{ |
|
"epoch": 2.77, |
|
"learning_rate": 1.05e-06, |
|
"loss": 1.4004, |
|
"step": 783 |
|
}, |
|
{ |
|
"epoch": 2.78, |
|
"learning_rate": 1.0333333333333333e-06, |
|
"loss": 1.3412, |
|
"step": 784 |
|
}, |
|
{ |
|
"epoch": 2.78, |
|
"learning_rate": 1.0166666666666667e-06, |
|
"loss": 1.7579, |
|
"step": 785 |
|
}, |
|
{ |
|
"epoch": 2.78, |
|
"learning_rate": 1.0000000000000002e-06, |
|
"loss": 2.616, |
|
"step": 786 |
|
}, |
|
{ |
|
"epoch": 2.79, |
|
"learning_rate": 9.833333333333334e-07, |
|
"loss": 1.8265, |
|
"step": 787 |
|
}, |
|
{ |
|
"epoch": 2.79, |
|
"learning_rate": 9.666666666666668e-07, |
|
"loss": 1.5354, |
|
"step": 788 |
|
}, |
|
{ |
|
"epoch": 2.79, |
|
"learning_rate": 9.5e-07, |
|
"loss": 1.939, |
|
"step": 789 |
|
}, |
|
{ |
|
"epoch": 2.8, |
|
"learning_rate": 9.333333333333333e-07, |
|
"loss": 1.6779, |
|
"step": 790 |
|
}, |
|
{ |
|
"epoch": 2.8, |
|
"learning_rate": 9.166666666666666e-07, |
|
"loss": 1.6341, |
|
"step": 791 |
|
}, |
|
{ |
|
"epoch": 2.8, |
|
"learning_rate": 9e-07, |
|
"loss": 2.1667, |
|
"step": 792 |
|
}, |
|
{ |
|
"epoch": 2.81, |
|
"learning_rate": 8.833333333333333e-07, |
|
"loss": 1.6924, |
|
"step": 793 |
|
}, |
|
{ |
|
"epoch": 2.81, |
|
"learning_rate": 8.666666666666667e-07, |
|
"loss": 1.5122, |
|
"step": 794 |
|
}, |
|
{ |
|
"epoch": 2.81, |
|
"learning_rate": 8.5e-07, |
|
"loss": 1.8899, |
|
"step": 795 |
|
}, |
|
{ |
|
"epoch": 2.82, |
|
"learning_rate": 8.333333333333334e-07, |
|
"loss": 1.6087, |
|
"step": 796 |
|
}, |
|
{ |
|
"epoch": 2.82, |
|
"learning_rate": 8.166666666666668e-07, |
|
"loss": 2.4944, |
|
"step": 797 |
|
}, |
|
{ |
|
"epoch": 2.82, |
|
"learning_rate": 8e-07, |
|
"loss": 1.827, |
|
"step": 798 |
|
}, |
|
{ |
|
"epoch": 2.83, |
|
"learning_rate": 7.833333333333333e-07, |
|
"loss": 1.6177, |
|
"step": 799 |
|
}, |
|
{ |
|
"epoch": 2.83, |
|
"learning_rate": 7.666666666666667e-07, |
|
"loss": 1.6033, |
|
"step": 800 |
|
} |
|
], |
|
"logging_steps": 1, |
|
"max_steps": 846, |
|
"num_train_epochs": 3, |
|
"save_steps": 100, |
|
"total_flos": 4382160169328640.0, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|