|
{ |
|
"best_metric": 0.40445852279663086, |
|
"best_model_checkpoint": "mikhail-panzo/fil_b32_le5_s8000/checkpoint-5500", |
|
"epoch": 166.66666666666666, |
|
"eval_steps": 500, |
|
"global_step": 7500, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 1.1111111111111112, |
|
"grad_norm": 3.579704523086548, |
|
"learning_rate": 2.4500000000000004e-07, |
|
"loss": 0.8282, |
|
"step": 50 |
|
}, |
|
{ |
|
"epoch": 2.2222222222222223, |
|
"grad_norm": 2.0918073654174805, |
|
"learning_rate": 4.95e-07, |
|
"loss": 0.7857, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 3.3333333333333335, |
|
"grad_norm": 1.283610224723816, |
|
"learning_rate": 7.450000000000001e-07, |
|
"loss": 0.7356, |
|
"step": 150 |
|
}, |
|
{ |
|
"epoch": 4.444444444444445, |
|
"grad_norm": 1.5381903648376465, |
|
"learning_rate": 9.950000000000002e-07, |
|
"loss": 0.7606, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 5.555555555555555, |
|
"grad_norm": 1.613647222518921, |
|
"learning_rate": 1.2450000000000002e-06, |
|
"loss": 0.7314, |
|
"step": 250 |
|
}, |
|
{ |
|
"epoch": 6.666666666666667, |
|
"grad_norm": 2.6762027740478516, |
|
"learning_rate": 1.495e-06, |
|
"loss": 0.6933, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 7.777777777777778, |
|
"grad_norm": 2.667527675628662, |
|
"learning_rate": 1.745e-06, |
|
"loss": 0.6863, |
|
"step": 350 |
|
}, |
|
{ |
|
"epoch": 8.88888888888889, |
|
"grad_norm": 1.9682470560073853, |
|
"learning_rate": 1.9950000000000004e-06, |
|
"loss": 0.6649, |
|
"step": 400 |
|
}, |
|
{ |
|
"epoch": 10.0, |
|
"grad_norm": 2.0042927265167236, |
|
"learning_rate": 2.245e-06, |
|
"loss": 0.6507, |
|
"step": 450 |
|
}, |
|
{ |
|
"epoch": 11.11111111111111, |
|
"grad_norm": 2.6399147510528564, |
|
"learning_rate": 2.4950000000000003e-06, |
|
"loss": 0.632, |
|
"step": 500 |
|
}, |
|
{ |
|
"epoch": 11.11111111111111, |
|
"eval_loss": 0.5323343276977539, |
|
"eval_runtime": 7.6175, |
|
"eval_samples_per_second": 20.873, |
|
"eval_steps_per_second": 2.626, |
|
"step": 500 |
|
}, |
|
{ |
|
"epoch": 12.222222222222221, |
|
"grad_norm": 2.593517780303955, |
|
"learning_rate": 2.7450000000000004e-06, |
|
"loss": 0.5956, |
|
"step": 550 |
|
}, |
|
{ |
|
"epoch": 13.333333333333334, |
|
"grad_norm": 5.524081707000732, |
|
"learning_rate": 2.99e-06, |
|
"loss": 0.577, |
|
"step": 600 |
|
}, |
|
{ |
|
"epoch": 14.444444444444445, |
|
"grad_norm": 2.2165024280548096, |
|
"learning_rate": 3.2400000000000003e-06, |
|
"loss": 0.5614, |
|
"step": 650 |
|
}, |
|
{ |
|
"epoch": 15.555555555555555, |
|
"grad_norm": 2.4440901279449463, |
|
"learning_rate": 3.49e-06, |
|
"loss": 0.5654, |
|
"step": 700 |
|
}, |
|
{ |
|
"epoch": 16.666666666666668, |
|
"grad_norm": 1.8401445150375366, |
|
"learning_rate": 3.74e-06, |
|
"loss": 0.5329, |
|
"step": 750 |
|
}, |
|
{ |
|
"epoch": 17.77777777777778, |
|
"grad_norm": 2.101787567138672, |
|
"learning_rate": 3.990000000000001e-06, |
|
"loss": 0.5293, |
|
"step": 800 |
|
}, |
|
{ |
|
"epoch": 18.88888888888889, |
|
"grad_norm": 2.1338887214660645, |
|
"learning_rate": 4.24e-06, |
|
"loss": 0.5345, |
|
"step": 850 |
|
}, |
|
{ |
|
"epoch": 20.0, |
|
"grad_norm": 1.8499983549118042, |
|
"learning_rate": 4.49e-06, |
|
"loss": 0.5148, |
|
"step": 900 |
|
}, |
|
{ |
|
"epoch": 21.11111111111111, |
|
"grad_norm": 1.3982588052749634, |
|
"learning_rate": 4.74e-06, |
|
"loss": 0.5085, |
|
"step": 950 |
|
}, |
|
{ |
|
"epoch": 22.22222222222222, |
|
"grad_norm": 1.7611488103866577, |
|
"learning_rate": 4.9900000000000005e-06, |
|
"loss": 0.519, |
|
"step": 1000 |
|
}, |
|
{ |
|
"epoch": 22.22222222222222, |
|
"eval_loss": 0.4493897557258606, |
|
"eval_runtime": 7.4167, |
|
"eval_samples_per_second": 21.438, |
|
"eval_steps_per_second": 2.697, |
|
"step": 1000 |
|
}, |
|
{ |
|
"epoch": 23.333333333333332, |
|
"grad_norm": 2.625955581665039, |
|
"learning_rate": 5.240000000000001e-06, |
|
"loss": 0.5194, |
|
"step": 1050 |
|
}, |
|
{ |
|
"epoch": 24.444444444444443, |
|
"grad_norm": 1.75005304813385, |
|
"learning_rate": 5.490000000000001e-06, |
|
"loss": 0.5152, |
|
"step": 1100 |
|
}, |
|
{ |
|
"epoch": 25.555555555555557, |
|
"grad_norm": 2.279965877532959, |
|
"learning_rate": 5.74e-06, |
|
"loss": 0.5129, |
|
"step": 1150 |
|
}, |
|
{ |
|
"epoch": 26.666666666666668, |
|
"grad_norm": 1.5506455898284912, |
|
"learning_rate": 5.99e-06, |
|
"loss": 0.4941, |
|
"step": 1200 |
|
}, |
|
{ |
|
"epoch": 27.77777777777778, |
|
"grad_norm": 1.830841064453125, |
|
"learning_rate": 6.24e-06, |
|
"loss": 0.4899, |
|
"step": 1250 |
|
}, |
|
{ |
|
"epoch": 28.88888888888889, |
|
"grad_norm": 2.0044639110565186, |
|
"learning_rate": 6.4900000000000005e-06, |
|
"loss": 0.496, |
|
"step": 1300 |
|
}, |
|
{ |
|
"epoch": 30.0, |
|
"grad_norm": 2.272815465927124, |
|
"learning_rate": 6.740000000000001e-06, |
|
"loss": 0.4906, |
|
"step": 1350 |
|
}, |
|
{ |
|
"epoch": 31.11111111111111, |
|
"grad_norm": 1.460723638534546, |
|
"learning_rate": 6.99e-06, |
|
"loss": 0.4741, |
|
"step": 1400 |
|
}, |
|
{ |
|
"epoch": 32.22222222222222, |
|
"grad_norm": 1.7440383434295654, |
|
"learning_rate": 7.24e-06, |
|
"loss": 0.4821, |
|
"step": 1450 |
|
}, |
|
{ |
|
"epoch": 33.333333333333336, |
|
"grad_norm": 1.4221312999725342, |
|
"learning_rate": 7.49e-06, |
|
"loss": 0.4816, |
|
"step": 1500 |
|
}, |
|
{ |
|
"epoch": 33.333333333333336, |
|
"eval_loss": 0.42913728952407837, |
|
"eval_runtime": 7.4808, |
|
"eval_samples_per_second": 21.254, |
|
"eval_steps_per_second": 2.674, |
|
"step": 1500 |
|
}, |
|
{ |
|
"epoch": 34.44444444444444, |
|
"grad_norm": 1.8739147186279297, |
|
"learning_rate": 7.74e-06, |
|
"loss": 0.4794, |
|
"step": 1550 |
|
}, |
|
{ |
|
"epoch": 35.55555555555556, |
|
"grad_norm": 1.1802700757980347, |
|
"learning_rate": 7.990000000000001e-06, |
|
"loss": 0.4824, |
|
"step": 1600 |
|
}, |
|
{ |
|
"epoch": 36.666666666666664, |
|
"grad_norm": 1.364354133605957, |
|
"learning_rate": 8.24e-06, |
|
"loss": 0.4739, |
|
"step": 1650 |
|
}, |
|
{ |
|
"epoch": 37.77777777777778, |
|
"grad_norm": 1.5628408193588257, |
|
"learning_rate": 8.49e-06, |
|
"loss": 0.4697, |
|
"step": 1700 |
|
}, |
|
{ |
|
"epoch": 38.888888888888886, |
|
"grad_norm": 4.399195671081543, |
|
"learning_rate": 8.740000000000001e-06, |
|
"loss": 0.4685, |
|
"step": 1750 |
|
}, |
|
{ |
|
"epoch": 40.0, |
|
"grad_norm": 2.055992841720581, |
|
"learning_rate": 8.99e-06, |
|
"loss": 0.4681, |
|
"step": 1800 |
|
}, |
|
{ |
|
"epoch": 41.111111111111114, |
|
"grad_norm": 4.06639289855957, |
|
"learning_rate": 9.240000000000001e-06, |
|
"loss": 0.4708, |
|
"step": 1850 |
|
}, |
|
{ |
|
"epoch": 42.22222222222222, |
|
"grad_norm": 1.4587314128875732, |
|
"learning_rate": 9.49e-06, |
|
"loss": 0.4665, |
|
"step": 1900 |
|
}, |
|
{ |
|
"epoch": 43.333333333333336, |
|
"grad_norm": 1.4163354635238647, |
|
"learning_rate": 9.74e-06, |
|
"loss": 0.4648, |
|
"step": 1950 |
|
}, |
|
{ |
|
"epoch": 44.44444444444444, |
|
"grad_norm": 2.2223002910614014, |
|
"learning_rate": 9.990000000000001e-06, |
|
"loss": 0.481, |
|
"step": 2000 |
|
}, |
|
{ |
|
"epoch": 44.44444444444444, |
|
"eval_loss": 0.42109793424606323, |
|
"eval_runtime": 7.5115, |
|
"eval_samples_per_second": 21.168, |
|
"eval_steps_per_second": 2.663, |
|
"step": 2000 |
|
}, |
|
{ |
|
"epoch": 45.55555555555556, |
|
"grad_norm": 1.7627613544464111, |
|
"learning_rate": 9.920000000000002e-06, |
|
"loss": 0.4598, |
|
"step": 2050 |
|
}, |
|
{ |
|
"epoch": 46.666666666666664, |
|
"grad_norm": 1.7885198593139648, |
|
"learning_rate": 9.836666666666668e-06, |
|
"loss": 0.4697, |
|
"step": 2100 |
|
}, |
|
{ |
|
"epoch": 47.77777777777778, |
|
"grad_norm": 1.8856687545776367, |
|
"learning_rate": 9.753333333333335e-06, |
|
"loss": 0.4503, |
|
"step": 2150 |
|
}, |
|
{ |
|
"epoch": 48.888888888888886, |
|
"grad_norm": 2.0350635051727295, |
|
"learning_rate": 9.67e-06, |
|
"loss": 0.4573, |
|
"step": 2200 |
|
}, |
|
{ |
|
"epoch": 50.0, |
|
"grad_norm": 1.7863447666168213, |
|
"learning_rate": 9.586666666666667e-06, |
|
"loss": 0.454, |
|
"step": 2250 |
|
}, |
|
{ |
|
"epoch": 51.111111111111114, |
|
"grad_norm": 1.5656064748764038, |
|
"learning_rate": 9.503333333333334e-06, |
|
"loss": 0.4488, |
|
"step": 2300 |
|
}, |
|
{ |
|
"epoch": 52.22222222222222, |
|
"grad_norm": 2.449720859527588, |
|
"learning_rate": 9.42e-06, |
|
"loss": 0.4552, |
|
"step": 2350 |
|
}, |
|
{ |
|
"epoch": 53.333333333333336, |
|
"grad_norm": 1.5119515657424927, |
|
"learning_rate": 9.336666666666666e-06, |
|
"loss": 0.4472, |
|
"step": 2400 |
|
}, |
|
{ |
|
"epoch": 54.44444444444444, |
|
"grad_norm": 1.2574548721313477, |
|
"learning_rate": 9.253333333333333e-06, |
|
"loss": 0.4623, |
|
"step": 2450 |
|
}, |
|
{ |
|
"epoch": 55.55555555555556, |
|
"grad_norm": 1.1045562028884888, |
|
"learning_rate": 9.17e-06, |
|
"loss": 0.4459, |
|
"step": 2500 |
|
}, |
|
{ |
|
"epoch": 55.55555555555556, |
|
"eval_loss": 0.4139043688774109, |
|
"eval_runtime": 7.7673, |
|
"eval_samples_per_second": 20.471, |
|
"eval_steps_per_second": 2.575, |
|
"step": 2500 |
|
}, |
|
{ |
|
"epoch": 56.666666666666664, |
|
"grad_norm": 2.62166428565979, |
|
"learning_rate": 9.086666666666667e-06, |
|
"loss": 0.4548, |
|
"step": 2550 |
|
}, |
|
{ |
|
"epoch": 57.77777777777778, |
|
"grad_norm": 1.6748510599136353, |
|
"learning_rate": 9.003333333333334e-06, |
|
"loss": 0.4505, |
|
"step": 2600 |
|
}, |
|
{ |
|
"epoch": 58.888888888888886, |
|
"grad_norm": 1.5706872940063477, |
|
"learning_rate": 8.920000000000001e-06, |
|
"loss": 0.4512, |
|
"step": 2650 |
|
}, |
|
{ |
|
"epoch": 60.0, |
|
"grad_norm": 1.9278029203414917, |
|
"learning_rate": 8.836666666666668e-06, |
|
"loss": 0.4546, |
|
"step": 2700 |
|
}, |
|
{ |
|
"epoch": 61.111111111111114, |
|
"grad_norm": 1.5691492557525635, |
|
"learning_rate": 8.753333333333333e-06, |
|
"loss": 0.4407, |
|
"step": 2750 |
|
}, |
|
{ |
|
"epoch": 62.22222222222222, |
|
"grad_norm": 1.2561596632003784, |
|
"learning_rate": 8.67e-06, |
|
"loss": 0.4407, |
|
"step": 2800 |
|
}, |
|
{ |
|
"epoch": 63.333333333333336, |
|
"grad_norm": 1.7894113063812256, |
|
"learning_rate": 8.586666666666667e-06, |
|
"loss": 0.4407, |
|
"step": 2850 |
|
}, |
|
{ |
|
"epoch": 64.44444444444444, |
|
"grad_norm": 1.5325671434402466, |
|
"learning_rate": 8.503333333333334e-06, |
|
"loss": 0.4409, |
|
"step": 2900 |
|
}, |
|
{ |
|
"epoch": 65.55555555555556, |
|
"grad_norm": 2.345316171646118, |
|
"learning_rate": 8.42e-06, |
|
"loss": 0.4502, |
|
"step": 2950 |
|
}, |
|
{ |
|
"epoch": 66.66666666666667, |
|
"grad_norm": 1.5134572982788086, |
|
"learning_rate": 8.336666666666668e-06, |
|
"loss": 0.4484, |
|
"step": 3000 |
|
}, |
|
{ |
|
"epoch": 66.66666666666667, |
|
"eval_loss": 0.41138172149658203, |
|
"eval_runtime": 7.5275, |
|
"eval_samples_per_second": 21.122, |
|
"eval_steps_per_second": 2.657, |
|
"step": 3000 |
|
}, |
|
{ |
|
"epoch": 67.77777777777777, |
|
"grad_norm": 2.0079166889190674, |
|
"learning_rate": 8.253333333333334e-06, |
|
"loss": 0.4391, |
|
"step": 3050 |
|
}, |
|
{ |
|
"epoch": 68.88888888888889, |
|
"grad_norm": 1.5494792461395264, |
|
"learning_rate": 8.17e-06, |
|
"loss": 0.4426, |
|
"step": 3100 |
|
}, |
|
{ |
|
"epoch": 70.0, |
|
"grad_norm": 2.7749524116516113, |
|
"learning_rate": 8.086666666666667e-06, |
|
"loss": 0.4489, |
|
"step": 3150 |
|
}, |
|
{ |
|
"epoch": 71.11111111111111, |
|
"grad_norm": 3.4985108375549316, |
|
"learning_rate": 8.003333333333334e-06, |
|
"loss": 0.4382, |
|
"step": 3200 |
|
}, |
|
{ |
|
"epoch": 72.22222222222223, |
|
"grad_norm": 2.1767873764038086, |
|
"learning_rate": 7.92e-06, |
|
"loss": 0.456, |
|
"step": 3250 |
|
}, |
|
{ |
|
"epoch": 73.33333333333333, |
|
"grad_norm": 1.7623385190963745, |
|
"learning_rate": 7.836666666666667e-06, |
|
"loss": 0.4312, |
|
"step": 3300 |
|
}, |
|
{ |
|
"epoch": 74.44444444444444, |
|
"grad_norm": 6.053190231323242, |
|
"learning_rate": 7.753333333333334e-06, |
|
"loss": 0.441, |
|
"step": 3350 |
|
}, |
|
{ |
|
"epoch": 75.55555555555556, |
|
"grad_norm": 1.4667917490005493, |
|
"learning_rate": 7.670000000000001e-06, |
|
"loss": 0.4407, |
|
"step": 3400 |
|
}, |
|
{ |
|
"epoch": 76.66666666666667, |
|
"grad_norm": 1.4021631479263306, |
|
"learning_rate": 7.586666666666668e-06, |
|
"loss": 0.4332, |
|
"step": 3450 |
|
}, |
|
{ |
|
"epoch": 77.77777777777777, |
|
"grad_norm": 2.186607599258423, |
|
"learning_rate": 7.503333333333333e-06, |
|
"loss": 0.4317, |
|
"step": 3500 |
|
}, |
|
{ |
|
"epoch": 77.77777777777777, |
|
"eval_loss": 0.4080665707588196, |
|
"eval_runtime": 7.5364, |
|
"eval_samples_per_second": 21.098, |
|
"eval_steps_per_second": 2.654, |
|
"step": 3500 |
|
}, |
|
{ |
|
"epoch": 78.88888888888889, |
|
"grad_norm": 2.0717358589172363, |
|
"learning_rate": 7.420000000000001e-06, |
|
"loss": 0.429, |
|
"step": 3550 |
|
}, |
|
{ |
|
"epoch": 80.0, |
|
"grad_norm": 1.5765066146850586, |
|
"learning_rate": 7.336666666666668e-06, |
|
"loss": 0.4382, |
|
"step": 3600 |
|
}, |
|
{ |
|
"epoch": 81.11111111111111, |
|
"grad_norm": 1.5274180173873901, |
|
"learning_rate": 7.253333333333335e-06, |
|
"loss": 0.4365, |
|
"step": 3650 |
|
}, |
|
{ |
|
"epoch": 82.22222222222223, |
|
"grad_norm": 1.8260159492492676, |
|
"learning_rate": 7.17e-06, |
|
"loss": 0.4331, |
|
"step": 3700 |
|
}, |
|
{ |
|
"epoch": 83.33333333333333, |
|
"grad_norm": 1.5595194101333618, |
|
"learning_rate": 7.086666666666667e-06, |
|
"loss": 0.4314, |
|
"step": 3750 |
|
}, |
|
{ |
|
"epoch": 84.44444444444444, |
|
"grad_norm": 1.8033090829849243, |
|
"learning_rate": 7.003333333333335e-06, |
|
"loss": 0.4339, |
|
"step": 3800 |
|
}, |
|
{ |
|
"epoch": 85.55555555555556, |
|
"grad_norm": 1.943740725517273, |
|
"learning_rate": 6.92e-06, |
|
"loss": 0.4356, |
|
"step": 3850 |
|
}, |
|
{ |
|
"epoch": 86.66666666666667, |
|
"grad_norm": 1.802024006843567, |
|
"learning_rate": 6.836666666666667e-06, |
|
"loss": 0.4307, |
|
"step": 3900 |
|
}, |
|
{ |
|
"epoch": 87.77777777777777, |
|
"grad_norm": 1.2584848403930664, |
|
"learning_rate": 6.753333333333334e-06, |
|
"loss": 0.4228, |
|
"step": 3950 |
|
}, |
|
{ |
|
"epoch": 88.88888888888889, |
|
"grad_norm": 1.6099965572357178, |
|
"learning_rate": 6.6700000000000005e-06, |
|
"loss": 0.4301, |
|
"step": 4000 |
|
}, |
|
{ |
|
"epoch": 88.88888888888889, |
|
"eval_loss": 0.4075862765312195, |
|
"eval_runtime": 7.5332, |
|
"eval_samples_per_second": 21.107, |
|
"eval_steps_per_second": 2.655, |
|
"step": 4000 |
|
}, |
|
{ |
|
"epoch": 90.0, |
|
"grad_norm": 5.097967624664307, |
|
"learning_rate": 6.5866666666666666e-06, |
|
"loss": 0.4315, |
|
"step": 4050 |
|
}, |
|
{ |
|
"epoch": 91.11111111111111, |
|
"grad_norm": 2.317317485809326, |
|
"learning_rate": 6.5033333333333335e-06, |
|
"loss": 0.4444, |
|
"step": 4100 |
|
}, |
|
{ |
|
"epoch": 92.22222222222223, |
|
"grad_norm": 2.2908613681793213, |
|
"learning_rate": 6.42e-06, |
|
"loss": 0.4333, |
|
"step": 4150 |
|
}, |
|
{ |
|
"epoch": 93.33333333333333, |
|
"grad_norm": 2.007622718811035, |
|
"learning_rate": 6.336666666666667e-06, |
|
"loss": 0.428, |
|
"step": 4200 |
|
}, |
|
{ |
|
"epoch": 94.44444444444444, |
|
"grad_norm": 1.5761587619781494, |
|
"learning_rate": 6.253333333333333e-06, |
|
"loss": 0.4324, |
|
"step": 4250 |
|
}, |
|
{ |
|
"epoch": 95.55555555555556, |
|
"grad_norm": 1.1445631980895996, |
|
"learning_rate": 6.17e-06, |
|
"loss": 0.4247, |
|
"step": 4300 |
|
}, |
|
{ |
|
"epoch": 96.66666666666667, |
|
"grad_norm": 1.1607263088226318, |
|
"learning_rate": 6.086666666666667e-06, |
|
"loss": 0.4298, |
|
"step": 4350 |
|
}, |
|
{ |
|
"epoch": 97.77777777777777, |
|
"grad_norm": 2.6366734504699707, |
|
"learning_rate": 6.003333333333334e-06, |
|
"loss": 0.4298, |
|
"step": 4400 |
|
}, |
|
{ |
|
"epoch": 98.88888888888889, |
|
"grad_norm": 1.6418962478637695, |
|
"learning_rate": 5.92e-06, |
|
"loss": 0.4282, |
|
"step": 4450 |
|
}, |
|
{ |
|
"epoch": 100.0, |
|
"grad_norm": 1.8300925493240356, |
|
"learning_rate": 5.836666666666667e-06, |
|
"loss": 0.4274, |
|
"step": 4500 |
|
}, |
|
{ |
|
"epoch": 100.0, |
|
"eval_loss": 0.4059373736381531, |
|
"eval_runtime": 7.8235, |
|
"eval_samples_per_second": 20.323, |
|
"eval_steps_per_second": 2.556, |
|
"step": 4500 |
|
}, |
|
{ |
|
"epoch": 101.11111111111111, |
|
"grad_norm": 1.16675865650177, |
|
"learning_rate": 5.753333333333334e-06, |
|
"loss": 0.4229, |
|
"step": 4550 |
|
}, |
|
{ |
|
"epoch": 102.22222222222223, |
|
"grad_norm": 2.0353753566741943, |
|
"learning_rate": 5.67e-06, |
|
"loss": 0.4214, |
|
"step": 4600 |
|
}, |
|
{ |
|
"epoch": 103.33333333333333, |
|
"grad_norm": 1.3988615274429321, |
|
"learning_rate": 5.586666666666667e-06, |
|
"loss": 0.4246, |
|
"step": 4650 |
|
}, |
|
{ |
|
"epoch": 104.44444444444444, |
|
"grad_norm": 1.2418060302734375, |
|
"learning_rate": 5.503333333333334e-06, |
|
"loss": 0.4365, |
|
"step": 4700 |
|
}, |
|
{ |
|
"epoch": 105.55555555555556, |
|
"grad_norm": 1.6909286975860596, |
|
"learning_rate": 5.420000000000001e-06, |
|
"loss": 0.4305, |
|
"step": 4750 |
|
}, |
|
{ |
|
"epoch": 106.66666666666667, |
|
"grad_norm": 2.068143367767334, |
|
"learning_rate": 5.336666666666667e-06, |
|
"loss": 0.4242, |
|
"step": 4800 |
|
}, |
|
{ |
|
"epoch": 107.77777777777777, |
|
"grad_norm": 2.789677858352661, |
|
"learning_rate": 5.2533333333333336e-06, |
|
"loss": 0.4367, |
|
"step": 4850 |
|
}, |
|
{ |
|
"epoch": 108.88888888888889, |
|
"grad_norm": 1.4232547283172607, |
|
"learning_rate": 5.1700000000000005e-06, |
|
"loss": 0.4229, |
|
"step": 4900 |
|
}, |
|
{ |
|
"epoch": 110.0, |
|
"grad_norm": 2.9294722080230713, |
|
"learning_rate": 5.086666666666667e-06, |
|
"loss": 0.4304, |
|
"step": 4950 |
|
}, |
|
{ |
|
"epoch": 111.11111111111111, |
|
"grad_norm": 1.973265290260315, |
|
"learning_rate": 5.0033333333333334e-06, |
|
"loss": 0.4323, |
|
"step": 5000 |
|
}, |
|
{ |
|
"epoch": 111.11111111111111, |
|
"eval_loss": 0.40615910291671753, |
|
"eval_runtime": 7.7862, |
|
"eval_samples_per_second": 20.421, |
|
"eval_steps_per_second": 2.569, |
|
"step": 5000 |
|
}, |
|
{ |
|
"epoch": 112.22222222222223, |
|
"grad_norm": 1.265763759613037, |
|
"learning_rate": 4.92e-06, |
|
"loss": 0.4351, |
|
"step": 5050 |
|
}, |
|
{ |
|
"epoch": 113.33333333333333, |
|
"grad_norm": 1.7902805805206299, |
|
"learning_rate": 4.838333333333334e-06, |
|
"loss": 0.4237, |
|
"step": 5100 |
|
}, |
|
{ |
|
"epoch": 114.44444444444444, |
|
"grad_norm": 1.6791784763336182, |
|
"learning_rate": 4.755e-06, |
|
"loss": 0.4166, |
|
"step": 5150 |
|
}, |
|
{ |
|
"epoch": 115.55555555555556, |
|
"grad_norm": 3.0489444732666016, |
|
"learning_rate": 4.671666666666667e-06, |
|
"loss": 0.43, |
|
"step": 5200 |
|
}, |
|
{ |
|
"epoch": 116.66666666666667, |
|
"grad_norm": 1.7178417444229126, |
|
"learning_rate": 4.588333333333333e-06, |
|
"loss": 0.4231, |
|
"step": 5250 |
|
}, |
|
{ |
|
"epoch": 117.77777777777777, |
|
"grad_norm": 1.2891252040863037, |
|
"learning_rate": 4.505e-06, |
|
"loss": 0.418, |
|
"step": 5300 |
|
}, |
|
{ |
|
"epoch": 118.88888888888889, |
|
"grad_norm": 1.3857290744781494, |
|
"learning_rate": 4.421666666666667e-06, |
|
"loss": 0.4276, |
|
"step": 5350 |
|
}, |
|
{ |
|
"epoch": 120.0, |
|
"grad_norm": 1.6654791831970215, |
|
"learning_rate": 4.338333333333334e-06, |
|
"loss": 0.4247, |
|
"step": 5400 |
|
}, |
|
{ |
|
"epoch": 121.11111111111111, |
|
"grad_norm": 1.5651191473007202, |
|
"learning_rate": 4.255e-06, |
|
"loss": 0.4266, |
|
"step": 5450 |
|
}, |
|
{ |
|
"epoch": 122.22222222222223, |
|
"grad_norm": 1.3599364757537842, |
|
"learning_rate": 4.171666666666667e-06, |
|
"loss": 0.4189, |
|
"step": 5500 |
|
}, |
|
{ |
|
"epoch": 122.22222222222223, |
|
"eval_loss": 0.40445852279663086, |
|
"eval_runtime": 7.8639, |
|
"eval_samples_per_second": 20.219, |
|
"eval_steps_per_second": 2.543, |
|
"step": 5500 |
|
}, |
|
{ |
|
"epoch": 123.33333333333333, |
|
"grad_norm": 1.0094420909881592, |
|
"learning_rate": 4.088333333333334e-06, |
|
"loss": 0.4161, |
|
"step": 5550 |
|
}, |
|
{ |
|
"epoch": 124.44444444444444, |
|
"grad_norm": 1.2237743139266968, |
|
"learning_rate": 4.005000000000001e-06, |
|
"loss": 0.4259, |
|
"step": 5600 |
|
}, |
|
{ |
|
"epoch": 125.55555555555556, |
|
"grad_norm": 1.2819457054138184, |
|
"learning_rate": 3.921666666666667e-06, |
|
"loss": 0.4118, |
|
"step": 5650 |
|
}, |
|
{ |
|
"epoch": 126.66666666666667, |
|
"grad_norm": 1.201050877571106, |
|
"learning_rate": 3.8383333333333336e-06, |
|
"loss": 0.4219, |
|
"step": 5700 |
|
}, |
|
{ |
|
"epoch": 127.77777777777777, |
|
"grad_norm": 1.2157758474349976, |
|
"learning_rate": 3.7550000000000005e-06, |
|
"loss": 0.4214, |
|
"step": 5750 |
|
}, |
|
{ |
|
"epoch": 128.88888888888889, |
|
"grad_norm": 1.3567761182785034, |
|
"learning_rate": 3.6716666666666665e-06, |
|
"loss": 0.4225, |
|
"step": 5800 |
|
}, |
|
{ |
|
"epoch": 130.0, |
|
"grad_norm": 1.4508877992630005, |
|
"learning_rate": 3.588333333333334e-06, |
|
"loss": 0.4211, |
|
"step": 5850 |
|
}, |
|
{ |
|
"epoch": 131.11111111111111, |
|
"grad_norm": 1.3742399215698242, |
|
"learning_rate": 3.505e-06, |
|
"loss": 0.4138, |
|
"step": 5900 |
|
}, |
|
{ |
|
"epoch": 132.22222222222223, |
|
"grad_norm": 1.3038045167922974, |
|
"learning_rate": 3.4216666666666672e-06, |
|
"loss": 0.4179, |
|
"step": 5950 |
|
}, |
|
{ |
|
"epoch": 133.33333333333334, |
|
"grad_norm": 1.4722298383712769, |
|
"learning_rate": 3.3383333333333333e-06, |
|
"loss": 0.4272, |
|
"step": 6000 |
|
}, |
|
{ |
|
"epoch": 133.33333333333334, |
|
"eval_loss": 0.40591731667518616, |
|
"eval_runtime": 7.5582, |
|
"eval_samples_per_second": 21.037, |
|
"eval_steps_per_second": 2.646, |
|
"step": 6000 |
|
}, |
|
{ |
|
"epoch": 134.44444444444446, |
|
"grad_norm": 1.0366383790969849, |
|
"learning_rate": 3.255e-06, |
|
"loss": 0.4217, |
|
"step": 6050 |
|
}, |
|
{ |
|
"epoch": 135.55555555555554, |
|
"grad_norm": 1.3467748165130615, |
|
"learning_rate": 3.1716666666666667e-06, |
|
"loss": 0.4253, |
|
"step": 6100 |
|
}, |
|
{ |
|
"epoch": 136.66666666666666, |
|
"grad_norm": 1.5277576446533203, |
|
"learning_rate": 3.0883333333333336e-06, |
|
"loss": 0.426, |
|
"step": 6150 |
|
}, |
|
{ |
|
"epoch": 137.77777777777777, |
|
"grad_norm": 1.9665004014968872, |
|
"learning_rate": 3.005e-06, |
|
"loss": 0.4176, |
|
"step": 6200 |
|
}, |
|
{ |
|
"epoch": 138.88888888888889, |
|
"grad_norm": 1.3242071866989136, |
|
"learning_rate": 2.921666666666667e-06, |
|
"loss": 0.422, |
|
"step": 6250 |
|
}, |
|
{ |
|
"epoch": 140.0, |
|
"grad_norm": 1.7779827117919922, |
|
"learning_rate": 2.8383333333333334e-06, |
|
"loss": 0.426, |
|
"step": 6300 |
|
}, |
|
{ |
|
"epoch": 141.11111111111111, |
|
"grad_norm": 1.4874131679534912, |
|
"learning_rate": 2.7550000000000003e-06, |
|
"loss": 0.4208, |
|
"step": 6350 |
|
}, |
|
{ |
|
"epoch": 142.22222222222223, |
|
"grad_norm": 1.21743643283844, |
|
"learning_rate": 2.6716666666666668e-06, |
|
"loss": 0.422, |
|
"step": 6400 |
|
}, |
|
{ |
|
"epoch": 143.33333333333334, |
|
"grad_norm": 1.0294773578643799, |
|
"learning_rate": 2.5883333333333337e-06, |
|
"loss": 0.4195, |
|
"step": 6450 |
|
}, |
|
{ |
|
"epoch": 144.44444444444446, |
|
"grad_norm": 1.2893167734146118, |
|
"learning_rate": 2.505e-06, |
|
"loss": 0.4219, |
|
"step": 6500 |
|
}, |
|
{ |
|
"epoch": 144.44444444444446, |
|
"eval_loss": 0.40578919649124146, |
|
"eval_runtime": 7.7981, |
|
"eval_samples_per_second": 20.39, |
|
"eval_steps_per_second": 2.565, |
|
"step": 6500 |
|
}, |
|
{ |
|
"epoch": 145.55555555555554, |
|
"grad_norm": 1.1159158945083618, |
|
"learning_rate": 2.421666666666667e-06, |
|
"loss": 0.4086, |
|
"step": 6550 |
|
}, |
|
{ |
|
"epoch": 146.66666666666666, |
|
"grad_norm": 1.3102610111236572, |
|
"learning_rate": 2.3383333333333335e-06, |
|
"loss": 0.4117, |
|
"step": 6600 |
|
}, |
|
{ |
|
"epoch": 147.77777777777777, |
|
"grad_norm": 1.2511627674102783, |
|
"learning_rate": 2.2550000000000004e-06, |
|
"loss": 0.4203, |
|
"step": 6650 |
|
}, |
|
{ |
|
"epoch": 148.88888888888889, |
|
"grad_norm": 1.388749361038208, |
|
"learning_rate": 2.171666666666667e-06, |
|
"loss": 0.4159, |
|
"step": 6700 |
|
}, |
|
{ |
|
"epoch": 150.0, |
|
"grad_norm": 1.8869624137878418, |
|
"learning_rate": 2.088333333333334e-06, |
|
"loss": 0.4147, |
|
"step": 6750 |
|
}, |
|
{ |
|
"epoch": 151.11111111111111, |
|
"grad_norm": 1.669732689857483, |
|
"learning_rate": 2.0050000000000003e-06, |
|
"loss": 0.4226, |
|
"step": 6800 |
|
}, |
|
{ |
|
"epoch": 152.22222222222223, |
|
"grad_norm": 1.3858810663223267, |
|
"learning_rate": 1.9216666666666668e-06, |
|
"loss": 0.4147, |
|
"step": 6850 |
|
}, |
|
{ |
|
"epoch": 153.33333333333334, |
|
"grad_norm": 1.7845042943954468, |
|
"learning_rate": 1.8383333333333334e-06, |
|
"loss": 0.4167, |
|
"step": 6900 |
|
}, |
|
{ |
|
"epoch": 154.44444444444446, |
|
"grad_norm": 1.505243182182312, |
|
"learning_rate": 1.7550000000000001e-06, |
|
"loss": 0.4136, |
|
"step": 6950 |
|
}, |
|
{ |
|
"epoch": 155.55555555555554, |
|
"grad_norm": 1.5237196683883667, |
|
"learning_rate": 1.6716666666666666e-06, |
|
"loss": 0.4125, |
|
"step": 7000 |
|
}, |
|
{ |
|
"epoch": 155.55555555555554, |
|
"eval_loss": 0.40493613481521606, |
|
"eval_runtime": 7.5258, |
|
"eval_samples_per_second": 21.127, |
|
"eval_steps_per_second": 2.658, |
|
"step": 7000 |
|
}, |
|
{ |
|
"epoch": 156.66666666666666, |
|
"grad_norm": 1.4721698760986328, |
|
"learning_rate": 1.5883333333333333e-06, |
|
"loss": 0.4256, |
|
"step": 7050 |
|
}, |
|
{ |
|
"epoch": 157.77777777777777, |
|
"grad_norm": 1.5553984642028809, |
|
"learning_rate": 1.505e-06, |
|
"loss": 0.4161, |
|
"step": 7100 |
|
}, |
|
{ |
|
"epoch": 158.88888888888889, |
|
"grad_norm": 1.340065360069275, |
|
"learning_rate": 1.4216666666666667e-06, |
|
"loss": 0.4135, |
|
"step": 7150 |
|
}, |
|
{ |
|
"epoch": 160.0, |
|
"grad_norm": 1.7097642421722412, |
|
"learning_rate": 1.3383333333333334e-06, |
|
"loss": 0.4159, |
|
"step": 7200 |
|
}, |
|
{ |
|
"epoch": 161.11111111111111, |
|
"grad_norm": 1.6707828044891357, |
|
"learning_rate": 1.255e-06, |
|
"loss": 0.4221, |
|
"step": 7250 |
|
}, |
|
{ |
|
"epoch": 162.22222222222223, |
|
"grad_norm": 1.0659966468811035, |
|
"learning_rate": 1.1733333333333335e-06, |
|
"loss": 0.4143, |
|
"step": 7300 |
|
}, |
|
{ |
|
"epoch": 163.33333333333334, |
|
"grad_norm": 1.730080008506775, |
|
"learning_rate": 1.0900000000000002e-06, |
|
"loss": 0.4241, |
|
"step": 7350 |
|
}, |
|
{ |
|
"epoch": 164.44444444444446, |
|
"grad_norm": 1.3532975912094116, |
|
"learning_rate": 1.0066666666666668e-06, |
|
"loss": 0.4137, |
|
"step": 7400 |
|
}, |
|
{ |
|
"epoch": 165.55555555555554, |
|
"grad_norm": 1.0536893606185913, |
|
"learning_rate": 9.233333333333334e-07, |
|
"loss": 0.4102, |
|
"step": 7450 |
|
}, |
|
{ |
|
"epoch": 166.66666666666666, |
|
"grad_norm": 1.1236768960952759, |
|
"learning_rate": 8.416666666666667e-07, |
|
"loss": 0.42, |
|
"step": 7500 |
|
}, |
|
{ |
|
"epoch": 166.66666666666666, |
|
"eval_loss": 0.4045568108558655, |
|
"eval_runtime": 7.7995, |
|
"eval_samples_per_second": 20.386, |
|
"eval_steps_per_second": 2.564, |
|
"step": 7500 |
|
} |
|
], |
|
"logging_steps": 50, |
|
"max_steps": 8000, |
|
"num_input_tokens_seen": 0, |
|
"num_train_epochs": 178, |
|
"save_steps": 500, |
|
"stateful_callbacks": { |
|
"TrainerControl": { |
|
"args": { |
|
"should_epoch_stop": false, |
|
"should_evaluate": false, |
|
"should_log": false, |
|
"should_save": true, |
|
"should_training_stop": false |
|
}, |
|
"attributes": {} |
|
} |
|
}, |
|
"total_flos": 5.469526537164835e+16, |
|
"train_batch_size": 32, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|