fil_b32_le5_s8000 / checkpoint-7000 /trainer_state.json
mikhail-panzo's picture
Training in progress, step 7000, checkpoint
d2498ab verified
raw
history blame contribute delete
No virus
27.3 kB
{
"best_metric": 0.40445852279663086,
"best_model_checkpoint": "mikhail-panzo/fil_b32_le5_s8000/checkpoint-5500",
"epoch": 155.55555555555554,
"eval_steps": 500,
"global_step": 7000,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 1.1111111111111112,
"grad_norm": 3.579704523086548,
"learning_rate": 2.4500000000000004e-07,
"loss": 0.8282,
"step": 50
},
{
"epoch": 2.2222222222222223,
"grad_norm": 2.0918073654174805,
"learning_rate": 4.95e-07,
"loss": 0.7857,
"step": 100
},
{
"epoch": 3.3333333333333335,
"grad_norm": 1.283610224723816,
"learning_rate": 7.450000000000001e-07,
"loss": 0.7356,
"step": 150
},
{
"epoch": 4.444444444444445,
"grad_norm": 1.5381903648376465,
"learning_rate": 9.950000000000002e-07,
"loss": 0.7606,
"step": 200
},
{
"epoch": 5.555555555555555,
"grad_norm": 1.613647222518921,
"learning_rate": 1.2450000000000002e-06,
"loss": 0.7314,
"step": 250
},
{
"epoch": 6.666666666666667,
"grad_norm": 2.6762027740478516,
"learning_rate": 1.495e-06,
"loss": 0.6933,
"step": 300
},
{
"epoch": 7.777777777777778,
"grad_norm": 2.667527675628662,
"learning_rate": 1.745e-06,
"loss": 0.6863,
"step": 350
},
{
"epoch": 8.88888888888889,
"grad_norm": 1.9682470560073853,
"learning_rate": 1.9950000000000004e-06,
"loss": 0.6649,
"step": 400
},
{
"epoch": 10.0,
"grad_norm": 2.0042927265167236,
"learning_rate": 2.245e-06,
"loss": 0.6507,
"step": 450
},
{
"epoch": 11.11111111111111,
"grad_norm": 2.6399147510528564,
"learning_rate": 2.4950000000000003e-06,
"loss": 0.632,
"step": 500
},
{
"epoch": 11.11111111111111,
"eval_loss": 0.5323343276977539,
"eval_runtime": 7.6175,
"eval_samples_per_second": 20.873,
"eval_steps_per_second": 2.626,
"step": 500
},
{
"epoch": 12.222222222222221,
"grad_norm": 2.593517780303955,
"learning_rate": 2.7450000000000004e-06,
"loss": 0.5956,
"step": 550
},
{
"epoch": 13.333333333333334,
"grad_norm": 5.524081707000732,
"learning_rate": 2.99e-06,
"loss": 0.577,
"step": 600
},
{
"epoch": 14.444444444444445,
"grad_norm": 2.2165024280548096,
"learning_rate": 3.2400000000000003e-06,
"loss": 0.5614,
"step": 650
},
{
"epoch": 15.555555555555555,
"grad_norm": 2.4440901279449463,
"learning_rate": 3.49e-06,
"loss": 0.5654,
"step": 700
},
{
"epoch": 16.666666666666668,
"grad_norm": 1.8401445150375366,
"learning_rate": 3.74e-06,
"loss": 0.5329,
"step": 750
},
{
"epoch": 17.77777777777778,
"grad_norm": 2.101787567138672,
"learning_rate": 3.990000000000001e-06,
"loss": 0.5293,
"step": 800
},
{
"epoch": 18.88888888888889,
"grad_norm": 2.1338887214660645,
"learning_rate": 4.24e-06,
"loss": 0.5345,
"step": 850
},
{
"epoch": 20.0,
"grad_norm": 1.8499983549118042,
"learning_rate": 4.49e-06,
"loss": 0.5148,
"step": 900
},
{
"epoch": 21.11111111111111,
"grad_norm": 1.3982588052749634,
"learning_rate": 4.74e-06,
"loss": 0.5085,
"step": 950
},
{
"epoch": 22.22222222222222,
"grad_norm": 1.7611488103866577,
"learning_rate": 4.9900000000000005e-06,
"loss": 0.519,
"step": 1000
},
{
"epoch": 22.22222222222222,
"eval_loss": 0.4493897557258606,
"eval_runtime": 7.4167,
"eval_samples_per_second": 21.438,
"eval_steps_per_second": 2.697,
"step": 1000
},
{
"epoch": 23.333333333333332,
"grad_norm": 2.625955581665039,
"learning_rate": 5.240000000000001e-06,
"loss": 0.5194,
"step": 1050
},
{
"epoch": 24.444444444444443,
"grad_norm": 1.75005304813385,
"learning_rate": 5.490000000000001e-06,
"loss": 0.5152,
"step": 1100
},
{
"epoch": 25.555555555555557,
"grad_norm": 2.279965877532959,
"learning_rate": 5.74e-06,
"loss": 0.5129,
"step": 1150
},
{
"epoch": 26.666666666666668,
"grad_norm": 1.5506455898284912,
"learning_rate": 5.99e-06,
"loss": 0.4941,
"step": 1200
},
{
"epoch": 27.77777777777778,
"grad_norm": 1.830841064453125,
"learning_rate": 6.24e-06,
"loss": 0.4899,
"step": 1250
},
{
"epoch": 28.88888888888889,
"grad_norm": 2.0044639110565186,
"learning_rate": 6.4900000000000005e-06,
"loss": 0.496,
"step": 1300
},
{
"epoch": 30.0,
"grad_norm": 2.272815465927124,
"learning_rate": 6.740000000000001e-06,
"loss": 0.4906,
"step": 1350
},
{
"epoch": 31.11111111111111,
"grad_norm": 1.460723638534546,
"learning_rate": 6.99e-06,
"loss": 0.4741,
"step": 1400
},
{
"epoch": 32.22222222222222,
"grad_norm": 1.7440383434295654,
"learning_rate": 7.24e-06,
"loss": 0.4821,
"step": 1450
},
{
"epoch": 33.333333333333336,
"grad_norm": 1.4221312999725342,
"learning_rate": 7.49e-06,
"loss": 0.4816,
"step": 1500
},
{
"epoch": 33.333333333333336,
"eval_loss": 0.42913728952407837,
"eval_runtime": 7.4808,
"eval_samples_per_second": 21.254,
"eval_steps_per_second": 2.674,
"step": 1500
},
{
"epoch": 34.44444444444444,
"grad_norm": 1.8739147186279297,
"learning_rate": 7.74e-06,
"loss": 0.4794,
"step": 1550
},
{
"epoch": 35.55555555555556,
"grad_norm": 1.1802700757980347,
"learning_rate": 7.990000000000001e-06,
"loss": 0.4824,
"step": 1600
},
{
"epoch": 36.666666666666664,
"grad_norm": 1.364354133605957,
"learning_rate": 8.24e-06,
"loss": 0.4739,
"step": 1650
},
{
"epoch": 37.77777777777778,
"grad_norm": 1.5628408193588257,
"learning_rate": 8.49e-06,
"loss": 0.4697,
"step": 1700
},
{
"epoch": 38.888888888888886,
"grad_norm": 4.399195671081543,
"learning_rate": 8.740000000000001e-06,
"loss": 0.4685,
"step": 1750
},
{
"epoch": 40.0,
"grad_norm": 2.055992841720581,
"learning_rate": 8.99e-06,
"loss": 0.4681,
"step": 1800
},
{
"epoch": 41.111111111111114,
"grad_norm": 4.06639289855957,
"learning_rate": 9.240000000000001e-06,
"loss": 0.4708,
"step": 1850
},
{
"epoch": 42.22222222222222,
"grad_norm": 1.4587314128875732,
"learning_rate": 9.49e-06,
"loss": 0.4665,
"step": 1900
},
{
"epoch": 43.333333333333336,
"grad_norm": 1.4163354635238647,
"learning_rate": 9.74e-06,
"loss": 0.4648,
"step": 1950
},
{
"epoch": 44.44444444444444,
"grad_norm": 2.2223002910614014,
"learning_rate": 9.990000000000001e-06,
"loss": 0.481,
"step": 2000
},
{
"epoch": 44.44444444444444,
"eval_loss": 0.42109793424606323,
"eval_runtime": 7.5115,
"eval_samples_per_second": 21.168,
"eval_steps_per_second": 2.663,
"step": 2000
},
{
"epoch": 45.55555555555556,
"grad_norm": 1.7627613544464111,
"learning_rate": 9.920000000000002e-06,
"loss": 0.4598,
"step": 2050
},
{
"epoch": 46.666666666666664,
"grad_norm": 1.7885198593139648,
"learning_rate": 9.836666666666668e-06,
"loss": 0.4697,
"step": 2100
},
{
"epoch": 47.77777777777778,
"grad_norm": 1.8856687545776367,
"learning_rate": 9.753333333333335e-06,
"loss": 0.4503,
"step": 2150
},
{
"epoch": 48.888888888888886,
"grad_norm": 2.0350635051727295,
"learning_rate": 9.67e-06,
"loss": 0.4573,
"step": 2200
},
{
"epoch": 50.0,
"grad_norm": 1.7863447666168213,
"learning_rate": 9.586666666666667e-06,
"loss": 0.454,
"step": 2250
},
{
"epoch": 51.111111111111114,
"grad_norm": 1.5656064748764038,
"learning_rate": 9.503333333333334e-06,
"loss": 0.4488,
"step": 2300
},
{
"epoch": 52.22222222222222,
"grad_norm": 2.449720859527588,
"learning_rate": 9.42e-06,
"loss": 0.4552,
"step": 2350
},
{
"epoch": 53.333333333333336,
"grad_norm": 1.5119515657424927,
"learning_rate": 9.336666666666666e-06,
"loss": 0.4472,
"step": 2400
},
{
"epoch": 54.44444444444444,
"grad_norm": 1.2574548721313477,
"learning_rate": 9.253333333333333e-06,
"loss": 0.4623,
"step": 2450
},
{
"epoch": 55.55555555555556,
"grad_norm": 1.1045562028884888,
"learning_rate": 9.17e-06,
"loss": 0.4459,
"step": 2500
},
{
"epoch": 55.55555555555556,
"eval_loss": 0.4139043688774109,
"eval_runtime": 7.7673,
"eval_samples_per_second": 20.471,
"eval_steps_per_second": 2.575,
"step": 2500
},
{
"epoch": 56.666666666666664,
"grad_norm": 2.62166428565979,
"learning_rate": 9.086666666666667e-06,
"loss": 0.4548,
"step": 2550
},
{
"epoch": 57.77777777777778,
"grad_norm": 1.6748510599136353,
"learning_rate": 9.003333333333334e-06,
"loss": 0.4505,
"step": 2600
},
{
"epoch": 58.888888888888886,
"grad_norm": 1.5706872940063477,
"learning_rate": 8.920000000000001e-06,
"loss": 0.4512,
"step": 2650
},
{
"epoch": 60.0,
"grad_norm": 1.9278029203414917,
"learning_rate": 8.836666666666668e-06,
"loss": 0.4546,
"step": 2700
},
{
"epoch": 61.111111111111114,
"grad_norm": 1.5691492557525635,
"learning_rate": 8.753333333333333e-06,
"loss": 0.4407,
"step": 2750
},
{
"epoch": 62.22222222222222,
"grad_norm": 1.2561596632003784,
"learning_rate": 8.67e-06,
"loss": 0.4407,
"step": 2800
},
{
"epoch": 63.333333333333336,
"grad_norm": 1.7894113063812256,
"learning_rate": 8.586666666666667e-06,
"loss": 0.4407,
"step": 2850
},
{
"epoch": 64.44444444444444,
"grad_norm": 1.5325671434402466,
"learning_rate": 8.503333333333334e-06,
"loss": 0.4409,
"step": 2900
},
{
"epoch": 65.55555555555556,
"grad_norm": 2.345316171646118,
"learning_rate": 8.42e-06,
"loss": 0.4502,
"step": 2950
},
{
"epoch": 66.66666666666667,
"grad_norm": 1.5134572982788086,
"learning_rate": 8.336666666666668e-06,
"loss": 0.4484,
"step": 3000
},
{
"epoch": 66.66666666666667,
"eval_loss": 0.41138172149658203,
"eval_runtime": 7.5275,
"eval_samples_per_second": 21.122,
"eval_steps_per_second": 2.657,
"step": 3000
},
{
"epoch": 67.77777777777777,
"grad_norm": 2.0079166889190674,
"learning_rate": 8.253333333333334e-06,
"loss": 0.4391,
"step": 3050
},
{
"epoch": 68.88888888888889,
"grad_norm": 1.5494792461395264,
"learning_rate": 8.17e-06,
"loss": 0.4426,
"step": 3100
},
{
"epoch": 70.0,
"grad_norm": 2.7749524116516113,
"learning_rate": 8.086666666666667e-06,
"loss": 0.4489,
"step": 3150
},
{
"epoch": 71.11111111111111,
"grad_norm": 3.4985108375549316,
"learning_rate": 8.003333333333334e-06,
"loss": 0.4382,
"step": 3200
},
{
"epoch": 72.22222222222223,
"grad_norm": 2.1767873764038086,
"learning_rate": 7.92e-06,
"loss": 0.456,
"step": 3250
},
{
"epoch": 73.33333333333333,
"grad_norm": 1.7623385190963745,
"learning_rate": 7.836666666666667e-06,
"loss": 0.4312,
"step": 3300
},
{
"epoch": 74.44444444444444,
"grad_norm": 6.053190231323242,
"learning_rate": 7.753333333333334e-06,
"loss": 0.441,
"step": 3350
},
{
"epoch": 75.55555555555556,
"grad_norm": 1.4667917490005493,
"learning_rate": 7.670000000000001e-06,
"loss": 0.4407,
"step": 3400
},
{
"epoch": 76.66666666666667,
"grad_norm": 1.4021631479263306,
"learning_rate": 7.586666666666668e-06,
"loss": 0.4332,
"step": 3450
},
{
"epoch": 77.77777777777777,
"grad_norm": 2.186607599258423,
"learning_rate": 7.503333333333333e-06,
"loss": 0.4317,
"step": 3500
},
{
"epoch": 77.77777777777777,
"eval_loss": 0.4080665707588196,
"eval_runtime": 7.5364,
"eval_samples_per_second": 21.098,
"eval_steps_per_second": 2.654,
"step": 3500
},
{
"epoch": 78.88888888888889,
"grad_norm": 2.0717358589172363,
"learning_rate": 7.420000000000001e-06,
"loss": 0.429,
"step": 3550
},
{
"epoch": 80.0,
"grad_norm": 1.5765066146850586,
"learning_rate": 7.336666666666668e-06,
"loss": 0.4382,
"step": 3600
},
{
"epoch": 81.11111111111111,
"grad_norm": 1.5274180173873901,
"learning_rate": 7.253333333333335e-06,
"loss": 0.4365,
"step": 3650
},
{
"epoch": 82.22222222222223,
"grad_norm": 1.8260159492492676,
"learning_rate": 7.17e-06,
"loss": 0.4331,
"step": 3700
},
{
"epoch": 83.33333333333333,
"grad_norm": 1.5595194101333618,
"learning_rate": 7.086666666666667e-06,
"loss": 0.4314,
"step": 3750
},
{
"epoch": 84.44444444444444,
"grad_norm": 1.8033090829849243,
"learning_rate": 7.003333333333335e-06,
"loss": 0.4339,
"step": 3800
},
{
"epoch": 85.55555555555556,
"grad_norm": 1.943740725517273,
"learning_rate": 6.92e-06,
"loss": 0.4356,
"step": 3850
},
{
"epoch": 86.66666666666667,
"grad_norm": 1.802024006843567,
"learning_rate": 6.836666666666667e-06,
"loss": 0.4307,
"step": 3900
},
{
"epoch": 87.77777777777777,
"grad_norm": 1.2584848403930664,
"learning_rate": 6.753333333333334e-06,
"loss": 0.4228,
"step": 3950
},
{
"epoch": 88.88888888888889,
"grad_norm": 1.6099965572357178,
"learning_rate": 6.6700000000000005e-06,
"loss": 0.4301,
"step": 4000
},
{
"epoch": 88.88888888888889,
"eval_loss": 0.4075862765312195,
"eval_runtime": 7.5332,
"eval_samples_per_second": 21.107,
"eval_steps_per_second": 2.655,
"step": 4000
},
{
"epoch": 90.0,
"grad_norm": 5.097967624664307,
"learning_rate": 6.5866666666666666e-06,
"loss": 0.4315,
"step": 4050
},
{
"epoch": 91.11111111111111,
"grad_norm": 2.317317485809326,
"learning_rate": 6.5033333333333335e-06,
"loss": 0.4444,
"step": 4100
},
{
"epoch": 92.22222222222223,
"grad_norm": 2.2908613681793213,
"learning_rate": 6.42e-06,
"loss": 0.4333,
"step": 4150
},
{
"epoch": 93.33333333333333,
"grad_norm": 2.007622718811035,
"learning_rate": 6.336666666666667e-06,
"loss": 0.428,
"step": 4200
},
{
"epoch": 94.44444444444444,
"grad_norm": 1.5761587619781494,
"learning_rate": 6.253333333333333e-06,
"loss": 0.4324,
"step": 4250
},
{
"epoch": 95.55555555555556,
"grad_norm": 1.1445631980895996,
"learning_rate": 6.17e-06,
"loss": 0.4247,
"step": 4300
},
{
"epoch": 96.66666666666667,
"grad_norm": 1.1607263088226318,
"learning_rate": 6.086666666666667e-06,
"loss": 0.4298,
"step": 4350
},
{
"epoch": 97.77777777777777,
"grad_norm": 2.6366734504699707,
"learning_rate": 6.003333333333334e-06,
"loss": 0.4298,
"step": 4400
},
{
"epoch": 98.88888888888889,
"grad_norm": 1.6418962478637695,
"learning_rate": 5.92e-06,
"loss": 0.4282,
"step": 4450
},
{
"epoch": 100.0,
"grad_norm": 1.8300925493240356,
"learning_rate": 5.836666666666667e-06,
"loss": 0.4274,
"step": 4500
},
{
"epoch": 100.0,
"eval_loss": 0.4059373736381531,
"eval_runtime": 7.8235,
"eval_samples_per_second": 20.323,
"eval_steps_per_second": 2.556,
"step": 4500
},
{
"epoch": 101.11111111111111,
"grad_norm": 1.16675865650177,
"learning_rate": 5.753333333333334e-06,
"loss": 0.4229,
"step": 4550
},
{
"epoch": 102.22222222222223,
"grad_norm": 2.0353753566741943,
"learning_rate": 5.67e-06,
"loss": 0.4214,
"step": 4600
},
{
"epoch": 103.33333333333333,
"grad_norm": 1.3988615274429321,
"learning_rate": 5.586666666666667e-06,
"loss": 0.4246,
"step": 4650
},
{
"epoch": 104.44444444444444,
"grad_norm": 1.2418060302734375,
"learning_rate": 5.503333333333334e-06,
"loss": 0.4365,
"step": 4700
},
{
"epoch": 105.55555555555556,
"grad_norm": 1.6909286975860596,
"learning_rate": 5.420000000000001e-06,
"loss": 0.4305,
"step": 4750
},
{
"epoch": 106.66666666666667,
"grad_norm": 2.068143367767334,
"learning_rate": 5.336666666666667e-06,
"loss": 0.4242,
"step": 4800
},
{
"epoch": 107.77777777777777,
"grad_norm": 2.789677858352661,
"learning_rate": 5.2533333333333336e-06,
"loss": 0.4367,
"step": 4850
},
{
"epoch": 108.88888888888889,
"grad_norm": 1.4232547283172607,
"learning_rate": 5.1700000000000005e-06,
"loss": 0.4229,
"step": 4900
},
{
"epoch": 110.0,
"grad_norm": 2.9294722080230713,
"learning_rate": 5.086666666666667e-06,
"loss": 0.4304,
"step": 4950
},
{
"epoch": 111.11111111111111,
"grad_norm": 1.973265290260315,
"learning_rate": 5.0033333333333334e-06,
"loss": 0.4323,
"step": 5000
},
{
"epoch": 111.11111111111111,
"eval_loss": 0.40615910291671753,
"eval_runtime": 7.7862,
"eval_samples_per_second": 20.421,
"eval_steps_per_second": 2.569,
"step": 5000
},
{
"epoch": 112.22222222222223,
"grad_norm": 1.265763759613037,
"learning_rate": 4.92e-06,
"loss": 0.4351,
"step": 5050
},
{
"epoch": 113.33333333333333,
"grad_norm": 1.7902805805206299,
"learning_rate": 4.838333333333334e-06,
"loss": 0.4237,
"step": 5100
},
{
"epoch": 114.44444444444444,
"grad_norm": 1.6791784763336182,
"learning_rate": 4.755e-06,
"loss": 0.4166,
"step": 5150
},
{
"epoch": 115.55555555555556,
"grad_norm": 3.0489444732666016,
"learning_rate": 4.671666666666667e-06,
"loss": 0.43,
"step": 5200
},
{
"epoch": 116.66666666666667,
"grad_norm": 1.7178417444229126,
"learning_rate": 4.588333333333333e-06,
"loss": 0.4231,
"step": 5250
},
{
"epoch": 117.77777777777777,
"grad_norm": 1.2891252040863037,
"learning_rate": 4.505e-06,
"loss": 0.418,
"step": 5300
},
{
"epoch": 118.88888888888889,
"grad_norm": 1.3857290744781494,
"learning_rate": 4.421666666666667e-06,
"loss": 0.4276,
"step": 5350
},
{
"epoch": 120.0,
"grad_norm": 1.6654791831970215,
"learning_rate": 4.338333333333334e-06,
"loss": 0.4247,
"step": 5400
},
{
"epoch": 121.11111111111111,
"grad_norm": 1.5651191473007202,
"learning_rate": 4.255e-06,
"loss": 0.4266,
"step": 5450
},
{
"epoch": 122.22222222222223,
"grad_norm": 1.3599364757537842,
"learning_rate": 4.171666666666667e-06,
"loss": 0.4189,
"step": 5500
},
{
"epoch": 122.22222222222223,
"eval_loss": 0.40445852279663086,
"eval_runtime": 7.8639,
"eval_samples_per_second": 20.219,
"eval_steps_per_second": 2.543,
"step": 5500
},
{
"epoch": 123.33333333333333,
"grad_norm": 1.0094420909881592,
"learning_rate": 4.088333333333334e-06,
"loss": 0.4161,
"step": 5550
},
{
"epoch": 124.44444444444444,
"grad_norm": 1.2237743139266968,
"learning_rate": 4.005000000000001e-06,
"loss": 0.4259,
"step": 5600
},
{
"epoch": 125.55555555555556,
"grad_norm": 1.2819457054138184,
"learning_rate": 3.921666666666667e-06,
"loss": 0.4118,
"step": 5650
},
{
"epoch": 126.66666666666667,
"grad_norm": 1.201050877571106,
"learning_rate": 3.8383333333333336e-06,
"loss": 0.4219,
"step": 5700
},
{
"epoch": 127.77777777777777,
"grad_norm": 1.2157758474349976,
"learning_rate": 3.7550000000000005e-06,
"loss": 0.4214,
"step": 5750
},
{
"epoch": 128.88888888888889,
"grad_norm": 1.3567761182785034,
"learning_rate": 3.6716666666666665e-06,
"loss": 0.4225,
"step": 5800
},
{
"epoch": 130.0,
"grad_norm": 1.4508877992630005,
"learning_rate": 3.588333333333334e-06,
"loss": 0.4211,
"step": 5850
},
{
"epoch": 131.11111111111111,
"grad_norm": 1.3742399215698242,
"learning_rate": 3.505e-06,
"loss": 0.4138,
"step": 5900
},
{
"epoch": 132.22222222222223,
"grad_norm": 1.3038045167922974,
"learning_rate": 3.4216666666666672e-06,
"loss": 0.4179,
"step": 5950
},
{
"epoch": 133.33333333333334,
"grad_norm": 1.4722298383712769,
"learning_rate": 3.3383333333333333e-06,
"loss": 0.4272,
"step": 6000
},
{
"epoch": 133.33333333333334,
"eval_loss": 0.40591731667518616,
"eval_runtime": 7.5582,
"eval_samples_per_second": 21.037,
"eval_steps_per_second": 2.646,
"step": 6000
},
{
"epoch": 134.44444444444446,
"grad_norm": 1.0366383790969849,
"learning_rate": 3.255e-06,
"loss": 0.4217,
"step": 6050
},
{
"epoch": 135.55555555555554,
"grad_norm": 1.3467748165130615,
"learning_rate": 3.1716666666666667e-06,
"loss": 0.4253,
"step": 6100
},
{
"epoch": 136.66666666666666,
"grad_norm": 1.5277576446533203,
"learning_rate": 3.0883333333333336e-06,
"loss": 0.426,
"step": 6150
},
{
"epoch": 137.77777777777777,
"grad_norm": 1.9665004014968872,
"learning_rate": 3.005e-06,
"loss": 0.4176,
"step": 6200
},
{
"epoch": 138.88888888888889,
"grad_norm": 1.3242071866989136,
"learning_rate": 2.921666666666667e-06,
"loss": 0.422,
"step": 6250
},
{
"epoch": 140.0,
"grad_norm": 1.7779827117919922,
"learning_rate": 2.8383333333333334e-06,
"loss": 0.426,
"step": 6300
},
{
"epoch": 141.11111111111111,
"grad_norm": 1.4874131679534912,
"learning_rate": 2.7550000000000003e-06,
"loss": 0.4208,
"step": 6350
},
{
"epoch": 142.22222222222223,
"grad_norm": 1.21743643283844,
"learning_rate": 2.6716666666666668e-06,
"loss": 0.422,
"step": 6400
},
{
"epoch": 143.33333333333334,
"grad_norm": 1.0294773578643799,
"learning_rate": 2.5883333333333337e-06,
"loss": 0.4195,
"step": 6450
},
{
"epoch": 144.44444444444446,
"grad_norm": 1.2893167734146118,
"learning_rate": 2.505e-06,
"loss": 0.4219,
"step": 6500
},
{
"epoch": 144.44444444444446,
"eval_loss": 0.40578919649124146,
"eval_runtime": 7.7981,
"eval_samples_per_second": 20.39,
"eval_steps_per_second": 2.565,
"step": 6500
},
{
"epoch": 145.55555555555554,
"grad_norm": 1.1159158945083618,
"learning_rate": 2.421666666666667e-06,
"loss": 0.4086,
"step": 6550
},
{
"epoch": 146.66666666666666,
"grad_norm": 1.3102610111236572,
"learning_rate": 2.3383333333333335e-06,
"loss": 0.4117,
"step": 6600
},
{
"epoch": 147.77777777777777,
"grad_norm": 1.2511627674102783,
"learning_rate": 2.2550000000000004e-06,
"loss": 0.4203,
"step": 6650
},
{
"epoch": 148.88888888888889,
"grad_norm": 1.388749361038208,
"learning_rate": 2.171666666666667e-06,
"loss": 0.4159,
"step": 6700
},
{
"epoch": 150.0,
"grad_norm": 1.8869624137878418,
"learning_rate": 2.088333333333334e-06,
"loss": 0.4147,
"step": 6750
},
{
"epoch": 151.11111111111111,
"grad_norm": 1.669732689857483,
"learning_rate": 2.0050000000000003e-06,
"loss": 0.4226,
"step": 6800
},
{
"epoch": 152.22222222222223,
"grad_norm": 1.3858810663223267,
"learning_rate": 1.9216666666666668e-06,
"loss": 0.4147,
"step": 6850
},
{
"epoch": 153.33333333333334,
"grad_norm": 1.7845042943954468,
"learning_rate": 1.8383333333333334e-06,
"loss": 0.4167,
"step": 6900
},
{
"epoch": 154.44444444444446,
"grad_norm": 1.505243182182312,
"learning_rate": 1.7550000000000001e-06,
"loss": 0.4136,
"step": 6950
},
{
"epoch": 155.55555555555554,
"grad_norm": 1.5237196683883667,
"learning_rate": 1.6716666666666666e-06,
"loss": 0.4125,
"step": 7000
},
{
"epoch": 155.55555555555554,
"eval_loss": 0.40493613481521606,
"eval_runtime": 7.5258,
"eval_samples_per_second": 21.127,
"eval_steps_per_second": 2.658,
"step": 7000
}
],
"logging_steps": 50,
"max_steps": 8000,
"num_input_tokens_seen": 0,
"num_train_epochs": 178,
"save_steps": 500,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": false
},
"attributes": {}
}
},
"total_flos": 5.106454745861779e+16,
"train_batch_size": 32,
"trial_name": null,
"trial_params": null
}