pick_multi_object_5k / trainer_state.json
Dongkkka's picture
Upload folder using huggingface_hub
b49549a verified
{
"best_global_step": null,
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 104.16666666666667,
"eval_steps": 500,
"global_step": 5000,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.20833333333333334,
"grad_norm": 6.974559783935547,
"learning_rate": 9e-07,
"loss": 0.9968,
"step": 10
},
{
"epoch": 0.4166666666666667,
"grad_norm": 5.023812294006348,
"learning_rate": 1.9e-06,
"loss": 0.9334,
"step": 20
},
{
"epoch": 0.625,
"grad_norm": 2.8353774547576904,
"learning_rate": 2.9e-06,
"loss": 0.6922,
"step": 30
},
{
"epoch": 0.8333333333333334,
"grad_norm": 0.9118760228157043,
"learning_rate": 3.9e-06,
"loss": 0.4461,
"step": 40
},
{
"epoch": 1.0416666666666667,
"grad_norm": 0.5101693272590637,
"learning_rate": 4.9000000000000005e-06,
"loss": 0.2961,
"step": 50
},
{
"epoch": 1.25,
"grad_norm": 0.41475388407707214,
"learning_rate": 5.9e-06,
"loss": 0.2194,
"step": 60
},
{
"epoch": 1.4583333333333333,
"grad_norm": 0.3171979486942291,
"learning_rate": 6.900000000000001e-06,
"loss": 0.1815,
"step": 70
},
{
"epoch": 1.6666666666666665,
"grad_norm": 0.38558876514434814,
"learning_rate": 7.9e-06,
"loss": 0.1614,
"step": 80
},
{
"epoch": 1.875,
"grad_norm": 0.28808021545410156,
"learning_rate": 8.9e-06,
"loss": 0.1422,
"step": 90
},
{
"epoch": 2.0833333333333335,
"grad_norm": 0.29702240228652954,
"learning_rate": 9.900000000000002e-06,
"loss": 0.1262,
"step": 100
},
{
"epoch": 2.2916666666666665,
"grad_norm": 0.2959185540676117,
"learning_rate": 1.09e-05,
"loss": 0.1081,
"step": 110
},
{
"epoch": 2.5,
"grad_norm": 0.2338050752878189,
"learning_rate": 1.19e-05,
"loss": 0.0981,
"step": 120
},
{
"epoch": 2.7083333333333335,
"grad_norm": 0.2578125,
"learning_rate": 1.29e-05,
"loss": 0.0895,
"step": 130
},
{
"epoch": 2.9166666666666665,
"grad_norm": 0.2224149852991104,
"learning_rate": 1.3900000000000002e-05,
"loss": 0.0776,
"step": 140
},
{
"epoch": 3.125,
"grad_norm": 0.19243746995925903,
"learning_rate": 1.49e-05,
"loss": 0.0712,
"step": 150
},
{
"epoch": 3.3333333333333335,
"grad_norm": 0.2733956575393677,
"learning_rate": 1.59e-05,
"loss": 0.0674,
"step": 160
},
{
"epoch": 3.5416666666666665,
"grad_norm": 0.23844897747039795,
"learning_rate": 1.69e-05,
"loss": 0.0617,
"step": 170
},
{
"epoch": 3.75,
"grad_norm": 0.20417346060276031,
"learning_rate": 1.79e-05,
"loss": 0.056,
"step": 180
},
{
"epoch": 3.9583333333333335,
"grad_norm": 0.24881872534751892,
"learning_rate": 1.8900000000000002e-05,
"loss": 0.0525,
"step": 190
},
{
"epoch": 4.166666666666667,
"grad_norm": 0.25316762924194336,
"learning_rate": 1.9900000000000003e-05,
"loss": 0.0512,
"step": 200
},
{
"epoch": 4.375,
"grad_norm": 0.19489045441150665,
"learning_rate": 2.09e-05,
"loss": 0.0454,
"step": 210
},
{
"epoch": 4.583333333333333,
"grad_norm": 0.1898735761642456,
"learning_rate": 2.19e-05,
"loss": 0.0446,
"step": 220
},
{
"epoch": 4.791666666666667,
"grad_norm": 0.20489181578159332,
"learning_rate": 2.29e-05,
"loss": 0.0422,
"step": 230
},
{
"epoch": 5.0,
"grad_norm": 0.3320506811141968,
"learning_rate": 2.39e-05,
"loss": 0.0407,
"step": 240
},
{
"epoch": 5.208333333333333,
"grad_norm": 0.24517174065113068,
"learning_rate": 2.4900000000000002e-05,
"loss": 0.0374,
"step": 250
},
{
"epoch": 5.416666666666667,
"grad_norm": 0.26409515738487244,
"learning_rate": 2.5900000000000003e-05,
"loss": 0.0364,
"step": 260
},
{
"epoch": 5.625,
"grad_norm": 0.2976372241973877,
"learning_rate": 2.6900000000000003e-05,
"loss": 0.0353,
"step": 270
},
{
"epoch": 5.833333333333333,
"grad_norm": 0.24544252455234528,
"learning_rate": 2.7900000000000004e-05,
"loss": 0.0332,
"step": 280
},
{
"epoch": 6.041666666666667,
"grad_norm": 0.3133062720298767,
"learning_rate": 2.8899999999999998e-05,
"loss": 0.0332,
"step": 290
},
{
"epoch": 6.25,
"grad_norm": 0.29001384973526,
"learning_rate": 2.9900000000000002e-05,
"loss": 0.0326,
"step": 300
},
{
"epoch": 6.458333333333333,
"grad_norm": 0.2940799295902252,
"learning_rate": 3.09e-05,
"loss": 0.0321,
"step": 310
},
{
"epoch": 6.666666666666667,
"grad_norm": 0.2921755909919739,
"learning_rate": 3.19e-05,
"loss": 0.0306,
"step": 320
},
{
"epoch": 6.875,
"grad_norm": 0.3143065869808197,
"learning_rate": 3.29e-05,
"loss": 0.0298,
"step": 330
},
{
"epoch": 7.083333333333333,
"grad_norm": 0.35790130496025085,
"learning_rate": 3.3900000000000004e-05,
"loss": 0.0295,
"step": 340
},
{
"epoch": 7.291666666666667,
"grad_norm": 0.24478909373283386,
"learning_rate": 3.49e-05,
"loss": 0.028,
"step": 350
},
{
"epoch": 7.5,
"grad_norm": 0.19725550711154938,
"learning_rate": 3.59e-05,
"loss": 0.0273,
"step": 360
},
{
"epoch": 7.708333333333333,
"grad_norm": 0.19303350150585175,
"learning_rate": 3.69e-05,
"loss": 0.0279,
"step": 370
},
{
"epoch": 7.916666666666667,
"grad_norm": 0.22829170525074005,
"learning_rate": 3.79e-05,
"loss": 0.0275,
"step": 380
},
{
"epoch": 8.125,
"grad_norm": 0.312612384557724,
"learning_rate": 3.8900000000000004e-05,
"loss": 0.0252,
"step": 390
},
{
"epoch": 8.333333333333334,
"grad_norm": 0.26859182119369507,
"learning_rate": 3.99e-05,
"loss": 0.0262,
"step": 400
},
{
"epoch": 8.541666666666666,
"grad_norm": 0.24778631329536438,
"learning_rate": 4.09e-05,
"loss": 0.024,
"step": 410
},
{
"epoch": 8.75,
"grad_norm": 0.2118053287267685,
"learning_rate": 4.19e-05,
"loss": 0.0254,
"step": 420
},
{
"epoch": 8.958333333333334,
"grad_norm": 0.2575972080230713,
"learning_rate": 4.29e-05,
"loss": 0.024,
"step": 430
},
{
"epoch": 9.166666666666666,
"grad_norm": 0.2238076776266098,
"learning_rate": 4.39e-05,
"loss": 0.0247,
"step": 440
},
{
"epoch": 9.375,
"grad_norm": 0.32065877318382263,
"learning_rate": 4.49e-05,
"loss": 0.0247,
"step": 450
},
{
"epoch": 9.583333333333334,
"grad_norm": 0.28235775232315063,
"learning_rate": 4.5900000000000004e-05,
"loss": 0.0242,
"step": 460
},
{
"epoch": 9.791666666666666,
"grad_norm": 0.3509873151779175,
"learning_rate": 4.69e-05,
"loss": 0.0235,
"step": 470
},
{
"epoch": 10.0,
"grad_norm": 0.26749303936958313,
"learning_rate": 4.79e-05,
"loss": 0.0234,
"step": 480
},
{
"epoch": 10.208333333333334,
"grad_norm": 0.2362636923789978,
"learning_rate": 4.89e-05,
"loss": 0.0227,
"step": 490
},
{
"epoch": 10.416666666666666,
"grad_norm": 0.1780959814786911,
"learning_rate": 4.99e-05,
"loss": 0.0224,
"step": 500
},
{
"epoch": 10.625,
"grad_norm": 0.2748551070690155,
"learning_rate": 5.0900000000000004e-05,
"loss": 0.0245,
"step": 510
},
{
"epoch": 10.833333333333334,
"grad_norm": 0.20780707895755768,
"learning_rate": 5.19e-05,
"loss": 0.0212,
"step": 520
},
{
"epoch": 11.041666666666666,
"grad_norm": 0.3468799591064453,
"learning_rate": 5.2900000000000005e-05,
"loss": 0.0227,
"step": 530
},
{
"epoch": 11.25,
"grad_norm": 0.2328055202960968,
"learning_rate": 5.390000000000001e-05,
"loss": 0.0212,
"step": 540
},
{
"epoch": 11.458333333333334,
"grad_norm": 0.264704167842865,
"learning_rate": 5.4900000000000006e-05,
"loss": 0.0217,
"step": 550
},
{
"epoch": 11.666666666666666,
"grad_norm": 0.2830072045326233,
"learning_rate": 5.590000000000001e-05,
"loss": 0.0223,
"step": 560
},
{
"epoch": 11.875,
"grad_norm": 0.3284772038459778,
"learning_rate": 5.69e-05,
"loss": 0.0208,
"step": 570
},
{
"epoch": 12.083333333333334,
"grad_norm": 0.24000631272792816,
"learning_rate": 5.79e-05,
"loss": 0.0206,
"step": 580
},
{
"epoch": 12.291666666666666,
"grad_norm": 0.24238787591457367,
"learning_rate": 5.89e-05,
"loss": 0.0214,
"step": 590
},
{
"epoch": 12.5,
"grad_norm": 0.25679489970207214,
"learning_rate": 5.99e-05,
"loss": 0.0206,
"step": 600
},
{
"epoch": 12.708333333333334,
"grad_norm": 0.2557210326194763,
"learning_rate": 6.09e-05,
"loss": 0.0217,
"step": 610
},
{
"epoch": 12.916666666666666,
"grad_norm": 0.24070383608341217,
"learning_rate": 6.19e-05,
"loss": 0.0209,
"step": 620
},
{
"epoch": 13.125,
"grad_norm": 0.25813865661621094,
"learning_rate": 6.29e-05,
"loss": 0.0208,
"step": 630
},
{
"epoch": 13.333333333333334,
"grad_norm": 0.2484397441148758,
"learning_rate": 6.390000000000001e-05,
"loss": 0.0206,
"step": 640
},
{
"epoch": 13.541666666666666,
"grad_norm": 0.24208255112171173,
"learning_rate": 6.49e-05,
"loss": 0.0189,
"step": 650
},
{
"epoch": 13.75,
"grad_norm": 0.19995449483394623,
"learning_rate": 6.59e-05,
"loss": 0.0196,
"step": 660
},
{
"epoch": 13.958333333333334,
"grad_norm": 0.24547183513641357,
"learning_rate": 6.690000000000001e-05,
"loss": 0.0189,
"step": 670
},
{
"epoch": 14.166666666666666,
"grad_norm": 0.2594086229801178,
"learning_rate": 6.790000000000001e-05,
"loss": 0.019,
"step": 680
},
{
"epoch": 14.375,
"grad_norm": 0.2065507173538208,
"learning_rate": 6.89e-05,
"loss": 0.0192,
"step": 690
},
{
"epoch": 14.583333333333334,
"grad_norm": 0.2905842661857605,
"learning_rate": 6.99e-05,
"loss": 0.0187,
"step": 700
},
{
"epoch": 14.791666666666666,
"grad_norm": 0.2601730227470398,
"learning_rate": 7.09e-05,
"loss": 0.0196,
"step": 710
},
{
"epoch": 15.0,
"grad_norm": 0.28263160586357117,
"learning_rate": 7.19e-05,
"loss": 0.0192,
"step": 720
},
{
"epoch": 15.208333333333334,
"grad_norm": 0.3240365982055664,
"learning_rate": 7.29e-05,
"loss": 0.0195,
"step": 730
},
{
"epoch": 15.416666666666666,
"grad_norm": 0.24705904722213745,
"learning_rate": 7.390000000000001e-05,
"loss": 0.0187,
"step": 740
},
{
"epoch": 15.625,
"grad_norm": 0.2265540510416031,
"learning_rate": 7.49e-05,
"loss": 0.0179,
"step": 750
},
{
"epoch": 15.833333333333334,
"grad_norm": 0.193108931183815,
"learning_rate": 7.59e-05,
"loss": 0.0183,
"step": 760
},
{
"epoch": 16.041666666666668,
"grad_norm": 0.36317235231399536,
"learning_rate": 7.69e-05,
"loss": 0.0182,
"step": 770
},
{
"epoch": 16.25,
"grad_norm": 0.3126901686191559,
"learning_rate": 7.790000000000001e-05,
"loss": 0.0197,
"step": 780
},
{
"epoch": 16.458333333333332,
"grad_norm": 0.238056942820549,
"learning_rate": 7.890000000000001e-05,
"loss": 0.0182,
"step": 790
},
{
"epoch": 16.666666666666668,
"grad_norm": 0.25261858105659485,
"learning_rate": 7.99e-05,
"loss": 0.0176,
"step": 800
},
{
"epoch": 16.875,
"grad_norm": 0.1865801066160202,
"learning_rate": 8.090000000000001e-05,
"loss": 0.0174,
"step": 810
},
{
"epoch": 17.083333333333332,
"grad_norm": 0.18573996424674988,
"learning_rate": 8.19e-05,
"loss": 0.0176,
"step": 820
},
{
"epoch": 17.291666666666668,
"grad_norm": 0.21988113224506378,
"learning_rate": 8.29e-05,
"loss": 0.0174,
"step": 830
},
{
"epoch": 17.5,
"grad_norm": 0.196188285946846,
"learning_rate": 8.39e-05,
"loss": 0.0172,
"step": 840
},
{
"epoch": 17.708333333333332,
"grad_norm": 0.219802588224411,
"learning_rate": 8.49e-05,
"loss": 0.0181,
"step": 850
},
{
"epoch": 17.916666666666668,
"grad_norm": 0.2536110579967499,
"learning_rate": 8.59e-05,
"loss": 0.0178,
"step": 860
},
{
"epoch": 18.125,
"grad_norm": 0.3585800528526306,
"learning_rate": 8.69e-05,
"loss": 0.0176,
"step": 870
},
{
"epoch": 18.333333333333332,
"grad_norm": 0.18298107385635376,
"learning_rate": 8.790000000000001e-05,
"loss": 0.0173,
"step": 880
},
{
"epoch": 18.541666666666668,
"grad_norm": 0.22495491802692413,
"learning_rate": 8.89e-05,
"loss": 0.0166,
"step": 890
},
{
"epoch": 18.75,
"grad_norm": 0.21044448018074036,
"learning_rate": 8.99e-05,
"loss": 0.0161,
"step": 900
},
{
"epoch": 18.958333333333332,
"grad_norm": 0.19759798049926758,
"learning_rate": 9.090000000000001e-05,
"loss": 0.0153,
"step": 910
},
{
"epoch": 19.166666666666668,
"grad_norm": 0.22768504917621613,
"learning_rate": 9.190000000000001e-05,
"loss": 0.0168,
"step": 920
},
{
"epoch": 19.375,
"grad_norm": 0.1936219483613968,
"learning_rate": 9.290000000000001e-05,
"loss": 0.0162,
"step": 930
},
{
"epoch": 19.583333333333332,
"grad_norm": 0.21084393560886383,
"learning_rate": 9.39e-05,
"loss": 0.0179,
"step": 940
},
{
"epoch": 19.791666666666668,
"grad_norm": 0.20455226302146912,
"learning_rate": 9.49e-05,
"loss": 0.0154,
"step": 950
},
{
"epoch": 20.0,
"grad_norm": 0.26040470600128174,
"learning_rate": 9.59e-05,
"loss": 0.0155,
"step": 960
},
{
"epoch": 20.208333333333332,
"grad_norm": 0.2832554280757904,
"learning_rate": 9.69e-05,
"loss": 0.0164,
"step": 970
},
{
"epoch": 20.416666666666668,
"grad_norm": 0.2514568567276001,
"learning_rate": 9.790000000000001e-05,
"loss": 0.017,
"step": 980
},
{
"epoch": 20.625,
"grad_norm": 0.20968522131443024,
"learning_rate": 9.89e-05,
"loss": 0.016,
"step": 990
},
{
"epoch": 20.833333333333332,
"grad_norm": 0.20158836245536804,
"learning_rate": 9.99e-05,
"loss": 0.0153,
"step": 1000
},
{
"epoch": 21.041666666666668,
"grad_norm": 0.24486659467220306,
"learning_rate": 9.999994463727085e-05,
"loss": 0.0157,
"step": 1010
},
{
"epoch": 21.25,
"grad_norm": 0.2102823108434677,
"learning_rate": 9.999975326009292e-05,
"loss": 0.0166,
"step": 1020
},
{
"epoch": 21.458333333333332,
"grad_norm": 0.2416916787624359,
"learning_rate": 9.999942518549879e-05,
"loss": 0.0161,
"step": 1030
},
{
"epoch": 21.666666666666668,
"grad_norm": 0.14526234567165375,
"learning_rate": 9.999896041438544e-05,
"loss": 0.0156,
"step": 1040
},
{
"epoch": 21.875,
"grad_norm": 0.21768969297409058,
"learning_rate": 9.999835894802353e-05,
"loss": 0.0149,
"step": 1050
},
{
"epoch": 22.083333333333332,
"grad_norm": 0.2318434864282608,
"learning_rate": 9.999762078805743e-05,
"loss": 0.0153,
"step": 1060
},
{
"epoch": 22.291666666666668,
"grad_norm": 0.2798757255077362,
"learning_rate": 9.999674593650526e-05,
"loss": 0.0155,
"step": 1070
},
{
"epoch": 22.5,
"grad_norm": 0.24006976187229156,
"learning_rate": 9.99957343957588e-05,
"loss": 0.0153,
"step": 1080
},
{
"epoch": 22.708333333333332,
"grad_norm": 0.21017949283123016,
"learning_rate": 9.99945861685836e-05,
"loss": 0.0162,
"step": 1090
},
{
"epoch": 22.916666666666668,
"grad_norm": 0.19796672463417053,
"learning_rate": 9.999330125811884e-05,
"loss": 0.0149,
"step": 1100
},
{
"epoch": 23.125,
"grad_norm": 0.2603440582752228,
"learning_rate": 9.999187966787744e-05,
"loss": 0.015,
"step": 1110
},
{
"epoch": 23.333333333333332,
"grad_norm": 0.23967282474040985,
"learning_rate": 9.999032140174595e-05,
"loss": 0.0151,
"step": 1120
},
{
"epoch": 23.541666666666668,
"grad_norm": 0.18136964738368988,
"learning_rate": 9.998862646398464e-05,
"loss": 0.0152,
"step": 1130
},
{
"epoch": 23.75,
"grad_norm": 0.252003014087677,
"learning_rate": 9.998679485922739e-05,
"loss": 0.0153,
"step": 1140
},
{
"epoch": 23.958333333333332,
"grad_norm": 0.2043199986219406,
"learning_rate": 9.998482659248174e-05,
"loss": 0.0157,
"step": 1150
},
{
"epoch": 24.166666666666668,
"grad_norm": 0.18087252974510193,
"learning_rate": 9.998272166912883e-05,
"loss": 0.0154,
"step": 1160
},
{
"epoch": 24.375,
"grad_norm": 0.21990996599197388,
"learning_rate": 9.998048009492347e-05,
"loss": 0.015,
"step": 1170
},
{
"epoch": 24.583333333333332,
"grad_norm": 0.2346096634864807,
"learning_rate": 9.997810187599403e-05,
"loss": 0.0154,
"step": 1180
},
{
"epoch": 24.791666666666668,
"grad_norm": 0.18085162341594696,
"learning_rate": 9.997558701884249e-05,
"loss": 0.015,
"step": 1190
},
{
"epoch": 25.0,
"grad_norm": 0.3023941218852997,
"learning_rate": 9.997293553034433e-05,
"loss": 0.0133,
"step": 1200
},
{
"epoch": 25.208333333333332,
"grad_norm": 0.20299163460731506,
"learning_rate": 9.997014741774866e-05,
"loss": 0.0133,
"step": 1210
},
{
"epoch": 25.416666666666668,
"grad_norm": 0.26265865564346313,
"learning_rate": 9.996722268867803e-05,
"loss": 0.0137,
"step": 1220
},
{
"epoch": 25.625,
"grad_norm": 0.24567152559757233,
"learning_rate": 9.996416135112858e-05,
"loss": 0.0132,
"step": 1230
},
{
"epoch": 25.833333333333332,
"grad_norm": 0.17860938608646393,
"learning_rate": 9.996096341346988e-05,
"loss": 0.0135,
"step": 1240
},
{
"epoch": 26.041666666666668,
"grad_norm": 0.27000877261161804,
"learning_rate": 9.995762888444495e-05,
"loss": 0.0127,
"step": 1250
},
{
"epoch": 26.25,
"grad_norm": 0.21311180293560028,
"learning_rate": 9.995415777317027e-05,
"loss": 0.0146,
"step": 1260
},
{
"epoch": 26.458333333333332,
"grad_norm": 0.19608379900455475,
"learning_rate": 9.995055008913574e-05,
"loss": 0.0141,
"step": 1270
},
{
"epoch": 26.666666666666668,
"grad_norm": 0.14746077358722687,
"learning_rate": 9.994680584220463e-05,
"loss": 0.0127,
"step": 1280
},
{
"epoch": 26.875,
"grad_norm": 0.2702135443687439,
"learning_rate": 9.994292504261355e-05,
"loss": 0.0139,
"step": 1290
},
{
"epoch": 27.083333333333332,
"grad_norm": 0.16915710270404816,
"learning_rate": 9.993890770097247e-05,
"loss": 0.0125,
"step": 1300
},
{
"epoch": 27.291666666666668,
"grad_norm": 0.18446531891822815,
"learning_rate": 9.993475382826467e-05,
"loss": 0.0133,
"step": 1310
},
{
"epoch": 27.5,
"grad_norm": 0.1798723340034485,
"learning_rate": 9.993046343584664e-05,
"loss": 0.0127,
"step": 1320
},
{
"epoch": 27.708333333333332,
"grad_norm": 0.1655735820531845,
"learning_rate": 9.992603653544816e-05,
"loss": 0.0123,
"step": 1330
},
{
"epoch": 27.916666666666668,
"grad_norm": 0.21007224917411804,
"learning_rate": 9.992147313917222e-05,
"loss": 0.0125,
"step": 1340
},
{
"epoch": 28.125,
"grad_norm": 0.2112513929605484,
"learning_rate": 9.991677325949497e-05,
"loss": 0.0125,
"step": 1350
},
{
"epoch": 28.333333333333332,
"grad_norm": 0.20448802411556244,
"learning_rate": 9.991193690926568e-05,
"loss": 0.0133,
"step": 1360
},
{
"epoch": 28.541666666666668,
"grad_norm": 0.1936739832162857,
"learning_rate": 9.990696410170678e-05,
"loss": 0.0125,
"step": 1370
},
{
"epoch": 28.75,
"grad_norm": 0.20615226030349731,
"learning_rate": 9.990185485041371e-05,
"loss": 0.0121,
"step": 1380
},
{
"epoch": 28.958333333333332,
"grad_norm": 0.18444038927555084,
"learning_rate": 9.989660916935498e-05,
"loss": 0.0123,
"step": 1390
},
{
"epoch": 29.166666666666668,
"grad_norm": 0.21376805007457733,
"learning_rate": 9.989122707287208e-05,
"loss": 0.013,
"step": 1400
},
{
"epoch": 29.375,
"grad_norm": 0.25530359148979187,
"learning_rate": 9.988570857567945e-05,
"loss": 0.0125,
"step": 1410
},
{
"epoch": 29.583333333333332,
"grad_norm": 0.21851158142089844,
"learning_rate": 9.988005369286446e-05,
"loss": 0.0123,
"step": 1420
},
{
"epoch": 29.791666666666668,
"grad_norm": 0.19980329275131226,
"learning_rate": 9.987426243988734e-05,
"loss": 0.0134,
"step": 1430
},
{
"epoch": 30.0,
"grad_norm": 0.3672507107257843,
"learning_rate": 9.986833483258114e-05,
"loss": 0.0108,
"step": 1440
},
{
"epoch": 30.208333333333332,
"grad_norm": 0.26760515570640564,
"learning_rate": 9.986227088715173e-05,
"loss": 0.0144,
"step": 1450
},
{
"epoch": 30.416666666666668,
"grad_norm": 0.1989632248878479,
"learning_rate": 9.98560706201777e-05,
"loss": 0.0135,
"step": 1460
},
{
"epoch": 30.625,
"grad_norm": 0.20122896134853363,
"learning_rate": 9.984973404861036e-05,
"loss": 0.0137,
"step": 1470
},
{
"epoch": 30.833333333333332,
"grad_norm": 0.22380387783050537,
"learning_rate": 9.984326118977361e-05,
"loss": 0.0138,
"step": 1480
},
{
"epoch": 31.041666666666668,
"grad_norm": 0.17185676097869873,
"learning_rate": 9.983665206136406e-05,
"loss": 0.0119,
"step": 1490
},
{
"epoch": 31.25,
"grad_norm": 0.20098410546779633,
"learning_rate": 9.982990668145075e-05,
"loss": 0.0119,
"step": 1500
},
{
"epoch": 31.458333333333332,
"grad_norm": 0.16579347848892212,
"learning_rate": 9.982302506847534e-05,
"loss": 0.013,
"step": 1510
},
{
"epoch": 31.666666666666668,
"grad_norm": 0.15271247923374176,
"learning_rate": 9.981600724125189e-05,
"loss": 0.0131,
"step": 1520
},
{
"epoch": 31.875,
"grad_norm": 0.16309182345867157,
"learning_rate": 9.980885321896685e-05,
"loss": 0.0121,
"step": 1530
},
{
"epoch": 32.083333333333336,
"grad_norm": 0.17842234671115875,
"learning_rate": 9.980156302117905e-05,
"loss": 0.0112,
"step": 1540
},
{
"epoch": 32.291666666666664,
"grad_norm": 0.18424782156944275,
"learning_rate": 9.979413666781963e-05,
"loss": 0.0117,
"step": 1550
},
{
"epoch": 32.5,
"grad_norm": 0.17072798311710358,
"learning_rate": 9.978657417919193e-05,
"loss": 0.0113,
"step": 1560
},
{
"epoch": 32.708333333333336,
"grad_norm": 0.16320225596427917,
"learning_rate": 9.977887557597153e-05,
"loss": 0.0113,
"step": 1570
},
{
"epoch": 32.916666666666664,
"grad_norm": 0.17314594984054565,
"learning_rate": 9.97710408792061e-05,
"loss": 0.0108,
"step": 1580
},
{
"epoch": 33.125,
"grad_norm": 0.21347780525684357,
"learning_rate": 9.976307011031542e-05,
"loss": 0.0111,
"step": 1590
},
{
"epoch": 33.333333333333336,
"grad_norm": 0.1748444139957428,
"learning_rate": 9.975496329109126e-05,
"loss": 0.0118,
"step": 1600
},
{
"epoch": 33.541666666666664,
"grad_norm": 0.22180508077144623,
"learning_rate": 9.974672044369732e-05,
"loss": 0.0111,
"step": 1610
},
{
"epoch": 33.75,
"grad_norm": 0.1914110630750656,
"learning_rate": 9.97383415906693e-05,
"loss": 0.0124,
"step": 1620
},
{
"epoch": 33.958333333333336,
"grad_norm": 0.1542980968952179,
"learning_rate": 9.97298267549146e-05,
"loss": 0.0119,
"step": 1630
},
{
"epoch": 34.166666666666664,
"grad_norm": 0.2009705901145935,
"learning_rate": 9.972117595971249e-05,
"loss": 0.0124,
"step": 1640
},
{
"epoch": 34.375,
"grad_norm": 0.1812678873538971,
"learning_rate": 9.971238922871391e-05,
"loss": 0.0116,
"step": 1650
},
{
"epoch": 34.583333333333336,
"grad_norm": 0.13899721205234528,
"learning_rate": 9.970346658594142e-05,
"loss": 0.0113,
"step": 1660
},
{
"epoch": 34.791666666666664,
"grad_norm": 0.12181176245212555,
"learning_rate": 9.969440805578923e-05,
"loss": 0.0115,
"step": 1670
},
{
"epoch": 35.0,
"grad_norm": 0.20665058493614197,
"learning_rate": 9.968521366302298e-05,
"loss": 0.0104,
"step": 1680
},
{
"epoch": 35.208333333333336,
"grad_norm": 0.14869576692581177,
"learning_rate": 9.967588343277981e-05,
"loss": 0.0111,
"step": 1690
},
{
"epoch": 35.416666666666664,
"grad_norm": 0.21121446788311005,
"learning_rate": 9.966641739056818e-05,
"loss": 0.0121,
"step": 1700
},
{
"epoch": 35.625,
"grad_norm": 0.2114773988723755,
"learning_rate": 9.965681556226793e-05,
"loss": 0.0117,
"step": 1710
},
{
"epoch": 35.833333333333336,
"grad_norm": 0.2102501392364502,
"learning_rate": 9.964707797413006e-05,
"loss": 0.0111,
"step": 1720
},
{
"epoch": 36.041666666666664,
"grad_norm": 0.197468101978302,
"learning_rate": 9.963720465277679e-05,
"loss": 0.0113,
"step": 1730
},
{
"epoch": 36.25,
"grad_norm": 0.21283449232578278,
"learning_rate": 9.96271956252014e-05,
"loss": 0.0111,
"step": 1740
},
{
"epoch": 36.458333333333336,
"grad_norm": 0.20028117299079895,
"learning_rate": 9.961705091876816e-05,
"loss": 0.012,
"step": 1750
},
{
"epoch": 36.666666666666664,
"grad_norm": 0.15327388048171997,
"learning_rate": 9.960677056121235e-05,
"loss": 0.0104,
"step": 1760
},
{
"epoch": 36.875,
"grad_norm": 0.16232164204120636,
"learning_rate": 9.959635458064005e-05,
"loss": 0.0107,
"step": 1770
},
{
"epoch": 37.083333333333336,
"grad_norm": 0.18801745772361755,
"learning_rate": 9.958580300552815e-05,
"loss": 0.0106,
"step": 1780
},
{
"epoch": 37.291666666666664,
"grad_norm": 0.15016761422157288,
"learning_rate": 9.957511586472426e-05,
"loss": 0.0104,
"step": 1790
},
{
"epoch": 37.5,
"grad_norm": 0.15682189166545868,
"learning_rate": 9.956429318744662e-05,
"loss": 0.0101,
"step": 1800
},
{
"epoch": 37.708333333333336,
"grad_norm": 0.2034134864807129,
"learning_rate": 9.955333500328404e-05,
"loss": 0.0106,
"step": 1810
},
{
"epoch": 37.916666666666664,
"grad_norm": 0.16577675938606262,
"learning_rate": 9.95422413421957e-05,
"loss": 0.0104,
"step": 1820
},
{
"epoch": 38.125,
"grad_norm": 0.16364583373069763,
"learning_rate": 9.953101223451133e-05,
"loss": 0.0101,
"step": 1830
},
{
"epoch": 38.333333333333336,
"grad_norm": 0.14578108489513397,
"learning_rate": 9.951964771093085e-05,
"loss": 0.0105,
"step": 1840
},
{
"epoch": 38.541666666666664,
"grad_norm": 0.14456351101398468,
"learning_rate": 9.950814780252442e-05,
"loss": 0.0101,
"step": 1850
},
{
"epoch": 38.75,
"grad_norm": 0.20234094560146332,
"learning_rate": 9.949651254073236e-05,
"loss": 0.0109,
"step": 1860
},
{
"epoch": 38.958333333333336,
"grad_norm": 0.16703951358795166,
"learning_rate": 9.948474195736504e-05,
"loss": 0.0105,
"step": 1870
},
{
"epoch": 39.166666666666664,
"grad_norm": 0.17165902256965637,
"learning_rate": 9.947283608460277e-05,
"loss": 0.0103,
"step": 1880
},
{
"epoch": 39.375,
"grad_norm": 0.14556387066841125,
"learning_rate": 9.946079495499577e-05,
"loss": 0.0101,
"step": 1890
},
{
"epoch": 39.583333333333336,
"grad_norm": 0.19160117208957672,
"learning_rate": 9.944861860146401e-05,
"loss": 0.0113,
"step": 1900
},
{
"epoch": 39.791666666666664,
"grad_norm": 0.1653631329536438,
"learning_rate": 9.943630705729719e-05,
"loss": 0.01,
"step": 1910
},
{
"epoch": 40.0,
"grad_norm": 0.20655889809131622,
"learning_rate": 9.942386035615459e-05,
"loss": 0.0106,
"step": 1920
},
{
"epoch": 40.208333333333336,
"grad_norm": 0.1884182095527649,
"learning_rate": 9.941127853206503e-05,
"loss": 0.0108,
"step": 1930
},
{
"epoch": 40.416666666666664,
"grad_norm": 0.15719261765480042,
"learning_rate": 9.939856161942673e-05,
"loss": 0.0105,
"step": 1940
},
{
"epoch": 40.625,
"grad_norm": 0.15232212841510773,
"learning_rate": 9.938570965300724e-05,
"loss": 0.0102,
"step": 1950
},
{
"epoch": 40.833333333333336,
"grad_norm": 0.1885528415441513,
"learning_rate": 9.937272266794335e-05,
"loss": 0.0109,
"step": 1960
},
{
"epoch": 41.041666666666664,
"grad_norm": 0.15623626112937927,
"learning_rate": 9.935960069974096e-05,
"loss": 0.0099,
"step": 1970
},
{
"epoch": 41.25,
"grad_norm": 0.15828962624073029,
"learning_rate": 9.934634378427506e-05,
"loss": 0.0111,
"step": 1980
},
{
"epoch": 41.458333333333336,
"grad_norm": 0.17898498475551605,
"learning_rate": 9.933295195778954e-05,
"loss": 0.0096,
"step": 1990
},
{
"epoch": 41.666666666666664,
"grad_norm": 0.156189426779747,
"learning_rate": 9.931942525689715e-05,
"loss": 0.0097,
"step": 2000
},
{
"epoch": 41.875,
"grad_norm": 0.18208195269107819,
"learning_rate": 9.930576371857936e-05,
"loss": 0.0104,
"step": 2010
},
{
"epoch": 42.083333333333336,
"grad_norm": 0.22289738059043884,
"learning_rate": 9.929196738018629e-05,
"loss": 0.0101,
"step": 2020
},
{
"epoch": 42.291666666666664,
"grad_norm": 0.1856096237897873,
"learning_rate": 9.927803627943662e-05,
"loss": 0.0102,
"step": 2030
},
{
"epoch": 42.5,
"grad_norm": 0.18785765767097473,
"learning_rate": 9.926397045441744e-05,
"loss": 0.01,
"step": 2040
},
{
"epoch": 42.708333333333336,
"grad_norm": 0.17422276735305786,
"learning_rate": 9.924976994358417e-05,
"loss": 0.01,
"step": 2050
},
{
"epoch": 42.916666666666664,
"grad_norm": 0.14945165812969208,
"learning_rate": 9.923543478576048e-05,
"loss": 0.0099,
"step": 2060
},
{
"epoch": 43.125,
"grad_norm": 0.1581973135471344,
"learning_rate": 9.922096502013813e-05,
"loss": 0.0114,
"step": 2070
},
{
"epoch": 43.333333333333336,
"grad_norm": 0.1979743242263794,
"learning_rate": 9.92063606862769e-05,
"loss": 0.0115,
"step": 2080
},
{
"epoch": 43.541666666666664,
"grad_norm": 0.1677751988172531,
"learning_rate": 9.919162182410453e-05,
"loss": 0.0103,
"step": 2090
},
{
"epoch": 43.75,
"grad_norm": 0.12610012292861938,
"learning_rate": 9.917674847391645e-05,
"loss": 0.0098,
"step": 2100
},
{
"epoch": 43.958333333333336,
"grad_norm": 0.1920396089553833,
"learning_rate": 9.916174067637584e-05,
"loss": 0.0094,
"step": 2110
},
{
"epoch": 44.166666666666664,
"grad_norm": 0.159335657954216,
"learning_rate": 9.914659847251348e-05,
"loss": 0.0105,
"step": 2120
},
{
"epoch": 44.375,
"grad_norm": 0.18806587159633636,
"learning_rate": 9.913132190372753e-05,
"loss": 0.0101,
"step": 2130
},
{
"epoch": 44.583333333333336,
"grad_norm": 0.1827884465456009,
"learning_rate": 9.911591101178359e-05,
"loss": 0.0103,
"step": 2140
},
{
"epoch": 44.791666666666664,
"grad_norm": 0.21888400614261627,
"learning_rate": 9.910036583881443e-05,
"loss": 0.01,
"step": 2150
},
{
"epoch": 45.0,
"grad_norm": 0.20317022502422333,
"learning_rate": 9.908468642731995e-05,
"loss": 0.0089,
"step": 2160
},
{
"epoch": 45.208333333333336,
"grad_norm": 0.23497819900512695,
"learning_rate": 9.906887282016707e-05,
"loss": 0.0105,
"step": 2170
},
{
"epoch": 45.416666666666664,
"grad_norm": 0.18091560900211334,
"learning_rate": 9.90529250605896e-05,
"loss": 0.0099,
"step": 2180
},
{
"epoch": 45.625,
"grad_norm": 0.14061926305294037,
"learning_rate": 9.903684319218809e-05,
"loss": 0.01,
"step": 2190
},
{
"epoch": 45.833333333333336,
"grad_norm": 0.19375453889369965,
"learning_rate": 9.902062725892976e-05,
"loss": 0.0096,
"step": 2200
},
{
"epoch": 46.041666666666664,
"grad_norm": 0.21020196378231049,
"learning_rate": 9.900427730514834e-05,
"loss": 0.0096,
"step": 2210
},
{
"epoch": 46.25,
"grad_norm": 0.15842080116271973,
"learning_rate": 9.8987793375544e-05,
"loss": 0.0097,
"step": 2220
},
{
"epoch": 46.458333333333336,
"grad_norm": 0.15409104526042938,
"learning_rate": 9.897117551518318e-05,
"loss": 0.0094,
"step": 2230
},
{
"epoch": 46.666666666666664,
"grad_norm": 0.1582673192024231,
"learning_rate": 9.895442376949844e-05,
"loss": 0.0102,
"step": 2240
},
{
"epoch": 46.875,
"grad_norm": 0.14312148094177246,
"learning_rate": 9.893753818428845e-05,
"loss": 0.0094,
"step": 2250
},
{
"epoch": 47.083333333333336,
"grad_norm": 0.17130939662456512,
"learning_rate": 9.892051880571773e-05,
"loss": 0.0092,
"step": 2260
},
{
"epoch": 47.291666666666664,
"grad_norm": 0.18089613318443298,
"learning_rate": 9.890336568031663e-05,
"loss": 0.0098,
"step": 2270
},
{
"epoch": 47.5,
"grad_norm": 0.14833058416843414,
"learning_rate": 9.888607885498113e-05,
"loss": 0.0098,
"step": 2280
},
{
"epoch": 47.708333333333336,
"grad_norm": 0.1335451900959015,
"learning_rate": 9.886865837697275e-05,
"loss": 0.0088,
"step": 2290
},
{
"epoch": 47.916666666666664,
"grad_norm": 0.1326667219400406,
"learning_rate": 9.88511042939184e-05,
"loss": 0.0094,
"step": 2300
},
{
"epoch": 48.125,
"grad_norm": 0.16099606454372406,
"learning_rate": 9.883341665381028e-05,
"loss": 0.0092,
"step": 2310
},
{
"epoch": 48.333333333333336,
"grad_norm": 0.16287587583065033,
"learning_rate": 9.881559550500575e-05,
"loss": 0.0099,
"step": 2320
},
{
"epoch": 48.541666666666664,
"grad_norm": 0.20915569365024567,
"learning_rate": 9.879764089622712e-05,
"loss": 0.0097,
"step": 2330
},
{
"epoch": 48.75,
"grad_norm": 0.1475881040096283,
"learning_rate": 9.87795528765616e-05,
"loss": 0.0097,
"step": 2340
},
{
"epoch": 48.958333333333336,
"grad_norm": 0.15001028776168823,
"learning_rate": 9.876133149546118e-05,
"loss": 0.0096,
"step": 2350
},
{
"epoch": 49.166666666666664,
"grad_norm": 0.1850421130657196,
"learning_rate": 9.874297680274238e-05,
"loss": 0.0095,
"step": 2360
},
{
"epoch": 49.375,
"grad_norm": 0.1945352703332901,
"learning_rate": 9.872448884858624e-05,
"loss": 0.0096,
"step": 2370
},
{
"epoch": 49.583333333333336,
"grad_norm": 0.13718049228191376,
"learning_rate": 9.870586768353815e-05,
"loss": 0.0087,
"step": 2380
},
{
"epoch": 49.791666666666664,
"grad_norm": 0.1327553540468216,
"learning_rate": 9.868711335850764e-05,
"loss": 0.0092,
"step": 2390
},
{
"epoch": 50.0,
"grad_norm": 0.260092556476593,
"learning_rate": 9.866822592476833e-05,
"loss": 0.0096,
"step": 2400
},
{
"epoch": 50.208333333333336,
"grad_norm": 0.175159752368927,
"learning_rate": 9.86492054339577e-05,
"loss": 0.0091,
"step": 2410
},
{
"epoch": 50.416666666666664,
"grad_norm": 0.17031779885292053,
"learning_rate": 9.863005193807711e-05,
"loss": 0.0095,
"step": 2420
},
{
"epoch": 50.625,
"grad_norm": 0.1681128591299057,
"learning_rate": 9.861076548949143e-05,
"loss": 0.0107,
"step": 2430
},
{
"epoch": 50.833333333333336,
"grad_norm": 0.17762134969234467,
"learning_rate": 9.859134614092912e-05,
"loss": 0.0102,
"step": 2440
},
{
"epoch": 51.041666666666664,
"grad_norm": 0.14008237421512604,
"learning_rate": 9.857179394548191e-05,
"loss": 0.0093,
"step": 2450
},
{
"epoch": 51.25,
"grad_norm": 0.1564144790172577,
"learning_rate": 9.855210895660477e-05,
"loss": 0.0096,
"step": 2460
},
{
"epoch": 51.458333333333336,
"grad_norm": 0.13487133383750916,
"learning_rate": 9.853229122811568e-05,
"loss": 0.0099,
"step": 2470
},
{
"epoch": 51.666666666666664,
"grad_norm": 0.1658105105161667,
"learning_rate": 9.851234081419559e-05,
"loss": 0.0085,
"step": 2480
},
{
"epoch": 51.875,
"grad_norm": 0.15481163561344147,
"learning_rate": 9.849225776938814e-05,
"loss": 0.0091,
"step": 2490
},
{
"epoch": 52.083333333333336,
"grad_norm": 0.19152818620204926,
"learning_rate": 9.847204214859964e-05,
"loss": 0.0081,
"step": 2500
},
{
"epoch": 52.291666666666664,
"grad_norm": 0.14624345302581787,
"learning_rate": 9.845169400709879e-05,
"loss": 0.0087,
"step": 2510
},
{
"epoch": 52.5,
"grad_norm": 0.14260073006153107,
"learning_rate": 9.843121340051664e-05,
"loss": 0.0096,
"step": 2520
},
{
"epoch": 52.708333333333336,
"grad_norm": 0.18242524564266205,
"learning_rate": 9.841060038484641e-05,
"loss": 0.0089,
"step": 2530
},
{
"epoch": 52.916666666666664,
"grad_norm": 0.135667085647583,
"learning_rate": 9.838985501644328e-05,
"loss": 0.0095,
"step": 2540
},
{
"epoch": 53.125,
"grad_norm": 0.11698679625988007,
"learning_rate": 9.83689773520243e-05,
"loss": 0.008,
"step": 2550
},
{
"epoch": 53.333333333333336,
"grad_norm": 0.13887479901313782,
"learning_rate": 9.834796744866819e-05,
"loss": 0.0086,
"step": 2560
},
{
"epoch": 53.541666666666664,
"grad_norm": 0.12642112374305725,
"learning_rate": 9.832682536381525e-05,
"loss": 0.0092,
"step": 2570
},
{
"epoch": 53.75,
"grad_norm": 0.11770359426736832,
"learning_rate": 9.830555115526711e-05,
"loss": 0.009,
"step": 2580
},
{
"epoch": 53.958333333333336,
"grad_norm": 0.10433600842952728,
"learning_rate": 9.828414488118667e-05,
"loss": 0.0084,
"step": 2590
},
{
"epoch": 54.166666666666664,
"grad_norm": 0.12209464609622955,
"learning_rate": 9.826260660009785e-05,
"loss": 0.0094,
"step": 2600
},
{
"epoch": 54.375,
"grad_norm": 0.1385062336921692,
"learning_rate": 9.824093637088547e-05,
"loss": 0.009,
"step": 2610
},
{
"epoch": 54.583333333333336,
"grad_norm": 0.12731477618217468,
"learning_rate": 9.821913425279514e-05,
"loss": 0.0089,
"step": 2620
},
{
"epoch": 54.791666666666664,
"grad_norm": 0.15336956083774567,
"learning_rate": 9.8197200305433e-05,
"loss": 0.0085,
"step": 2630
},
{
"epoch": 55.0,
"grad_norm": 0.1945595145225525,
"learning_rate": 9.817513458876564e-05,
"loss": 0.0096,
"step": 2640
},
{
"epoch": 55.208333333333336,
"grad_norm": 0.11767341941595078,
"learning_rate": 9.815293716311987e-05,
"loss": 0.0088,
"step": 2650
},
{
"epoch": 55.416666666666664,
"grad_norm": 0.14541785418987274,
"learning_rate": 9.813060808918262e-05,
"loss": 0.0092,
"step": 2660
},
{
"epoch": 55.625,
"grad_norm": 0.16650767624378204,
"learning_rate": 9.810814742800069e-05,
"loss": 0.0097,
"step": 2670
},
{
"epoch": 55.833333333333336,
"grad_norm": 0.1150713860988617,
"learning_rate": 9.808555524098074e-05,
"loss": 0.0086,
"step": 2680
},
{
"epoch": 56.041666666666664,
"grad_norm": 0.1088116317987442,
"learning_rate": 9.806283158988887e-05,
"loss": 0.0078,
"step": 2690
},
{
"epoch": 56.25,
"grad_norm": 0.14631342887878418,
"learning_rate": 9.803997653685072e-05,
"loss": 0.0082,
"step": 2700
},
{
"epoch": 56.458333333333336,
"grad_norm": 0.1343754678964615,
"learning_rate": 9.801699014435112e-05,
"loss": 0.008,
"step": 2710
},
{
"epoch": 56.666666666666664,
"grad_norm": 0.13529370725154877,
"learning_rate": 9.799387247523398e-05,
"loss": 0.0085,
"step": 2720
},
{
"epoch": 56.875,
"grad_norm": 0.11147897690534592,
"learning_rate": 9.797062359270215e-05,
"loss": 0.0079,
"step": 2730
},
{
"epoch": 57.083333333333336,
"grad_norm": 0.19471466541290283,
"learning_rate": 9.794724356031715e-05,
"loss": 0.0083,
"step": 2740
},
{
"epoch": 57.291666666666664,
"grad_norm": 0.1863505244255066,
"learning_rate": 9.792373244199913e-05,
"loss": 0.0085,
"step": 2750
},
{
"epoch": 57.5,
"grad_norm": 0.13585540652275085,
"learning_rate": 9.790009030202658e-05,
"loss": 0.0081,
"step": 2760
},
{
"epoch": 57.708333333333336,
"grad_norm": 0.13892769813537598,
"learning_rate": 9.78763172050362e-05,
"loss": 0.0086,
"step": 2770
},
{
"epoch": 57.916666666666664,
"grad_norm": 0.15619535744190216,
"learning_rate": 9.785241321602274e-05,
"loss": 0.0078,
"step": 2780
},
{
"epoch": 58.125,
"grad_norm": 0.17480793595314026,
"learning_rate": 9.782837840033879e-05,
"loss": 0.0088,
"step": 2790
},
{
"epoch": 58.333333333333336,
"grad_norm": 0.19116300344467163,
"learning_rate": 9.780421282369461e-05,
"loss": 0.0091,
"step": 2800
},
{
"epoch": 58.541666666666664,
"grad_norm": 0.2017354965209961,
"learning_rate": 9.777991655215797e-05,
"loss": 0.0082,
"step": 2810
},
{
"epoch": 58.75,
"grad_norm": 0.17326346039772034,
"learning_rate": 9.775548965215394e-05,
"loss": 0.0088,
"step": 2820
},
{
"epoch": 58.958333333333336,
"grad_norm": 0.17388294637203217,
"learning_rate": 9.773093219046474e-05,
"loss": 0.0084,
"step": 2830
},
{
"epoch": 59.166666666666664,
"grad_norm": 0.1788823902606964,
"learning_rate": 9.770624423422954e-05,
"loss": 0.0084,
"step": 2840
},
{
"epoch": 59.375,
"grad_norm": 0.11936558783054352,
"learning_rate": 9.768142585094426e-05,
"loss": 0.0091,
"step": 2850
},
{
"epoch": 59.583333333333336,
"grad_norm": 0.14019201695919037,
"learning_rate": 9.765647710846142e-05,
"loss": 0.0092,
"step": 2860
},
{
"epoch": 59.791666666666664,
"grad_norm": 0.12400297075510025,
"learning_rate": 9.763139807498991e-05,
"loss": 0.0084,
"step": 2870
},
{
"epoch": 60.0,
"grad_norm": 0.1594945192337036,
"learning_rate": 9.760618881909487e-05,
"loss": 0.0083,
"step": 2880
},
{
"epoch": 60.208333333333336,
"grad_norm": 0.17475134134292603,
"learning_rate": 9.758084940969744e-05,
"loss": 0.0093,
"step": 2890
},
{
"epoch": 60.416666666666664,
"grad_norm": 0.125895693898201,
"learning_rate": 9.755537991607459e-05,
"loss": 0.0087,
"step": 2900
},
{
"epoch": 60.625,
"grad_norm": 0.14806149899959564,
"learning_rate": 9.752978040785895e-05,
"loss": 0.0072,
"step": 2910
},
{
"epoch": 60.833333333333336,
"grad_norm": 0.14935727417469025,
"learning_rate": 9.750405095503859e-05,
"loss": 0.0084,
"step": 2920
},
{
"epoch": 61.041666666666664,
"grad_norm": 0.12621425092220306,
"learning_rate": 9.747819162795686e-05,
"loss": 0.0076,
"step": 2930
},
{
"epoch": 61.25,
"grad_norm": 0.15602892637252808,
"learning_rate": 9.745220249731217e-05,
"loss": 0.0084,
"step": 2940
},
{
"epoch": 61.458333333333336,
"grad_norm": 0.12207546830177307,
"learning_rate": 9.742608363415781e-05,
"loss": 0.0084,
"step": 2950
},
{
"epoch": 61.666666666666664,
"grad_norm": 0.1394585818052292,
"learning_rate": 9.739983510990176e-05,
"loss": 0.0077,
"step": 2960
},
{
"epoch": 61.875,
"grad_norm": 0.13204297423362732,
"learning_rate": 9.737345699630647e-05,
"loss": 0.0079,
"step": 2970
},
{
"epoch": 62.083333333333336,
"grad_norm": 0.13679321110248566,
"learning_rate": 9.734694936548869e-05,
"loss": 0.0074,
"step": 2980
},
{
"epoch": 62.291666666666664,
"grad_norm": 0.11424277722835541,
"learning_rate": 9.732031228991932e-05,
"loss": 0.0086,
"step": 2990
},
{
"epoch": 62.5,
"grad_norm": 0.112228162586689,
"learning_rate": 9.729354584242302e-05,
"loss": 0.0087,
"step": 3000
},
{
"epoch": 62.708333333333336,
"grad_norm": 0.15181872248649597,
"learning_rate": 9.726665009617832e-05,
"loss": 0.0081,
"step": 3010
},
{
"epoch": 62.916666666666664,
"grad_norm": 0.1584879606962204,
"learning_rate": 9.723962512471714e-05,
"loss": 0.0083,
"step": 3020
},
{
"epoch": 63.125,
"grad_norm": 0.15587449073791504,
"learning_rate": 9.72124710019247e-05,
"loss": 0.0084,
"step": 3030
},
{
"epoch": 63.333333333333336,
"grad_norm": 0.13749879598617554,
"learning_rate": 9.718518780203934e-05,
"loss": 0.0087,
"step": 3040
},
{
"epoch": 63.541666666666664,
"grad_norm": 0.15750397741794586,
"learning_rate": 9.715777559965228e-05,
"loss": 0.0085,
"step": 3050
},
{
"epoch": 63.75,
"grad_norm": 0.16457325220108032,
"learning_rate": 9.713023446970746e-05,
"loss": 0.008,
"step": 3060
},
{
"epoch": 63.958333333333336,
"grad_norm": 0.14457859098911285,
"learning_rate": 9.710256448750126e-05,
"loss": 0.008,
"step": 3070
},
{
"epoch": 64.16666666666667,
"grad_norm": 0.21400192379951477,
"learning_rate": 9.707476572868235e-05,
"loss": 0.0087,
"step": 3080
},
{
"epoch": 64.375,
"grad_norm": 0.176253542304039,
"learning_rate": 9.704683826925149e-05,
"loss": 0.0082,
"step": 3090
},
{
"epoch": 64.58333333333333,
"grad_norm": 0.14613905549049377,
"learning_rate": 9.701878218556129e-05,
"loss": 0.0091,
"step": 3100
},
{
"epoch": 64.79166666666667,
"grad_norm": 0.12556883692741394,
"learning_rate": 9.699059755431598e-05,
"loss": 0.0086,
"step": 3110
},
{
"epoch": 65.0,
"grad_norm": 0.12506556510925293,
"learning_rate": 9.696228445257132e-05,
"loss": 0.0078,
"step": 3120
},
{
"epoch": 65.20833333333333,
"grad_norm": 0.1324303150177002,
"learning_rate": 9.693384295773419e-05,
"loss": 0.0076,
"step": 3130
},
{
"epoch": 65.41666666666667,
"grad_norm": 0.14260755479335785,
"learning_rate": 9.690527314756259e-05,
"loss": 0.0075,
"step": 3140
},
{
"epoch": 65.625,
"grad_norm": 0.17024897038936615,
"learning_rate": 9.687657510016527e-05,
"loss": 0.0073,
"step": 3150
},
{
"epoch": 65.83333333333333,
"grad_norm": 0.12163723260164261,
"learning_rate": 9.684774889400161e-05,
"loss": 0.0084,
"step": 3160
},
{
"epoch": 66.04166666666667,
"grad_norm": 0.17265737056732178,
"learning_rate": 9.681879460788135e-05,
"loss": 0.0085,
"step": 3170
},
{
"epoch": 66.25,
"grad_norm": 0.14137807488441467,
"learning_rate": 9.67897123209644e-05,
"loss": 0.0087,
"step": 3180
},
{
"epoch": 66.45833333333333,
"grad_norm": 0.11415492743253708,
"learning_rate": 9.676050211276062e-05,
"loss": 0.0084,
"step": 3190
},
{
"epoch": 66.66666666666667,
"grad_norm": 0.10539334267377853,
"learning_rate": 9.673116406312962e-05,
"loss": 0.0085,
"step": 3200
},
{
"epoch": 66.875,
"grad_norm": 0.1746184527873993,
"learning_rate": 9.67016982522805e-05,
"loss": 0.0079,
"step": 3210
},
{
"epoch": 67.08333333333333,
"grad_norm": 0.15164965391159058,
"learning_rate": 9.667210476077164e-05,
"loss": 0.0078,
"step": 3220
},
{
"epoch": 67.29166666666667,
"grad_norm": 0.1245863139629364,
"learning_rate": 9.664238366951055e-05,
"loss": 0.0083,
"step": 3230
},
{
"epoch": 67.5,
"grad_norm": 0.13058176636695862,
"learning_rate": 9.661253505975355e-05,
"loss": 0.008,
"step": 3240
},
{
"epoch": 67.70833333333333,
"grad_norm": 0.1412813365459442,
"learning_rate": 9.658255901310557e-05,
"loss": 0.0084,
"step": 3250
},
{
"epoch": 67.91666666666667,
"grad_norm": 0.13035815954208374,
"learning_rate": 9.655245561152e-05,
"loss": 0.0082,
"step": 3260
},
{
"epoch": 68.125,
"grad_norm": 0.14681102335453033,
"learning_rate": 9.65222249372984e-05,
"loss": 0.0078,
"step": 3270
},
{
"epoch": 68.33333333333333,
"grad_norm": 0.12792235612869263,
"learning_rate": 9.649186707309026e-05,
"loss": 0.0082,
"step": 3280
},
{
"epoch": 68.54166666666667,
"grad_norm": 0.15287558734416962,
"learning_rate": 9.646138210189283e-05,
"loss": 0.0079,
"step": 3290
},
{
"epoch": 68.75,
"grad_norm": 0.1277853548526764,
"learning_rate": 9.643077010705087e-05,
"loss": 0.008,
"step": 3300
},
{
"epoch": 68.95833333333333,
"grad_norm": 0.10948234051465988,
"learning_rate": 9.640003117225637e-05,
"loss": 0.0081,
"step": 3310
},
{
"epoch": 69.16666666666667,
"grad_norm": 0.16888520121574402,
"learning_rate": 9.636916538154846e-05,
"loss": 0.008,
"step": 3320
},
{
"epoch": 69.375,
"grad_norm": 0.1860867738723755,
"learning_rate": 9.633817281931296e-05,
"loss": 0.0081,
"step": 3330
},
{
"epoch": 69.58333333333333,
"grad_norm": 0.12217903882265091,
"learning_rate": 9.630705357028242e-05,
"loss": 0.008,
"step": 3340
},
{
"epoch": 69.79166666666667,
"grad_norm": 0.14392343163490295,
"learning_rate": 9.627580771953563e-05,
"loss": 0.0084,
"step": 3350
},
{
"epoch": 70.0,
"grad_norm": 0.2517831027507782,
"learning_rate": 9.624443535249759e-05,
"loss": 0.0091,
"step": 3360
},
{
"epoch": 70.20833333333333,
"grad_norm": 0.1237884908914566,
"learning_rate": 9.621293655493913e-05,
"loss": 0.0086,
"step": 3370
},
{
"epoch": 70.41666666666667,
"grad_norm": 0.1395934820175171,
"learning_rate": 9.618131141297675e-05,
"loss": 0.0091,
"step": 3380
},
{
"epoch": 70.625,
"grad_norm": 0.15799179673194885,
"learning_rate": 9.614956001307242e-05,
"loss": 0.0098,
"step": 3390
},
{
"epoch": 70.83333333333333,
"grad_norm": 0.14630959928035736,
"learning_rate": 9.611768244203321e-05,
"loss": 0.0082,
"step": 3400
},
{
"epoch": 71.04166666666667,
"grad_norm": 0.19569124281406403,
"learning_rate": 9.60856787870112e-05,
"loss": 0.0089,
"step": 3410
},
{
"epoch": 71.25,
"grad_norm": 0.15080992877483368,
"learning_rate": 9.605354913550318e-05,
"loss": 0.0081,
"step": 3420
},
{
"epoch": 71.45833333333333,
"grad_norm": 0.12431894987821579,
"learning_rate": 9.602129357535037e-05,
"loss": 0.0077,
"step": 3430
},
{
"epoch": 71.66666666666667,
"grad_norm": 0.1317983716726303,
"learning_rate": 9.598891219473825e-05,
"loss": 0.0081,
"step": 3440
},
{
"epoch": 71.875,
"grad_norm": 0.1271415799856186,
"learning_rate": 9.595640508219625e-05,
"loss": 0.0079,
"step": 3450
},
{
"epoch": 72.08333333333333,
"grad_norm": 0.12340828031301498,
"learning_rate": 9.592377232659761e-05,
"loss": 0.0073,
"step": 3460
},
{
"epoch": 72.29166666666667,
"grad_norm": 0.16125109791755676,
"learning_rate": 9.589101401715904e-05,
"loss": 0.0082,
"step": 3470
},
{
"epoch": 72.5,
"grad_norm": 0.13908740878105164,
"learning_rate": 9.585813024344045e-05,
"loss": 0.0081,
"step": 3480
},
{
"epoch": 72.70833333333333,
"grad_norm": 0.12069405615329742,
"learning_rate": 9.58251210953449e-05,
"loss": 0.0072,
"step": 3490
},
{
"epoch": 72.91666666666667,
"grad_norm": 0.15209130942821503,
"learning_rate": 9.579198666311809e-05,
"loss": 0.0082,
"step": 3500
},
{
"epoch": 73.125,
"grad_norm": 0.12193018198013306,
"learning_rate": 9.575872703734832e-05,
"loss": 0.0078,
"step": 3510
},
{
"epoch": 73.33333333333333,
"grad_norm": 0.17105849087238312,
"learning_rate": 9.572534230896611e-05,
"loss": 0.0085,
"step": 3520
},
{
"epoch": 73.54166666666667,
"grad_norm": 0.1370059996843338,
"learning_rate": 9.569183256924403e-05,
"loss": 0.0085,
"step": 3530
},
{
"epoch": 73.75,
"grad_norm": 0.13424254953861237,
"learning_rate": 9.565819790979646e-05,
"loss": 0.0085,
"step": 3540
},
{
"epoch": 73.95833333333333,
"grad_norm": 0.12105348706245422,
"learning_rate": 9.562443842257925e-05,
"loss": 0.0077,
"step": 3550
},
{
"epoch": 74.16666666666667,
"grad_norm": 0.14536826312541962,
"learning_rate": 9.559055419988956e-05,
"loss": 0.0087,
"step": 3560
},
{
"epoch": 74.375,
"grad_norm": 0.1609853357076645,
"learning_rate": 9.555654533436557e-05,
"loss": 0.0092,
"step": 3570
},
{
"epoch": 74.58333333333333,
"grad_norm": 0.15583093464374542,
"learning_rate": 9.552241191898621e-05,
"loss": 0.0084,
"step": 3580
},
{
"epoch": 74.79166666666667,
"grad_norm": 0.13674955070018768,
"learning_rate": 9.548815404707092e-05,
"loss": 0.0078,
"step": 3590
},
{
"epoch": 75.0,
"grad_norm": 0.1659046858549118,
"learning_rate": 9.545377181227942e-05,
"loss": 0.008,
"step": 3600
},
{
"epoch": 75.20833333333333,
"grad_norm": 0.09946411848068237,
"learning_rate": 9.541926530861145e-05,
"loss": 0.0076,
"step": 3610
},
{
"epoch": 75.41666666666667,
"grad_norm": 0.13440348207950592,
"learning_rate": 9.538463463040645e-05,
"loss": 0.0071,
"step": 3620
},
{
"epoch": 75.625,
"grad_norm": 0.13562451303005219,
"learning_rate": 9.534987987234337e-05,
"loss": 0.0072,
"step": 3630
},
{
"epoch": 75.83333333333333,
"grad_norm": 0.12133369594812393,
"learning_rate": 9.53150011294404e-05,
"loss": 0.0078,
"step": 3640
},
{
"epoch": 76.04166666666667,
"grad_norm": 0.11865601688623428,
"learning_rate": 9.527999849705471e-05,
"loss": 0.0073,
"step": 3650
},
{
"epoch": 76.25,
"grad_norm": 0.13767482340335846,
"learning_rate": 9.524487207088213e-05,
"loss": 0.008,
"step": 3660
},
{
"epoch": 76.45833333333333,
"grad_norm": 0.12942279875278473,
"learning_rate": 9.520962194695698e-05,
"loss": 0.0082,
"step": 3670
},
{
"epoch": 76.66666666666667,
"grad_norm": 0.14708350598812103,
"learning_rate": 9.517424822165175e-05,
"loss": 0.0089,
"step": 3680
},
{
"epoch": 76.875,
"grad_norm": 0.12420503050088882,
"learning_rate": 9.513875099167685e-05,
"loss": 0.0079,
"step": 3690
},
{
"epoch": 77.08333333333333,
"grad_norm": 0.14663736522197723,
"learning_rate": 9.510313035408035e-05,
"loss": 0.0084,
"step": 3700
},
{
"epoch": 77.29166666666667,
"grad_norm": 0.1613157093524933,
"learning_rate": 9.506738640624775e-05,
"loss": 0.0085,
"step": 3710
},
{
"epoch": 77.5,
"grad_norm": 0.15745188295841217,
"learning_rate": 9.50315192459016e-05,
"loss": 0.0084,
"step": 3720
},
{
"epoch": 77.70833333333333,
"grad_norm": 0.1454235464334488,
"learning_rate": 9.499552897110136e-05,
"loss": 0.0081,
"step": 3730
},
{
"epoch": 77.91666666666667,
"grad_norm": 0.13637305796146393,
"learning_rate": 9.495941568024304e-05,
"loss": 0.0078,
"step": 3740
},
{
"epoch": 78.125,
"grad_norm": 0.16548554599285126,
"learning_rate": 9.492317947205904e-05,
"loss": 0.0078,
"step": 3750
},
{
"epoch": 78.33333333333333,
"grad_norm": 0.11904530972242355,
"learning_rate": 9.488682044561775e-05,
"loss": 0.008,
"step": 3760
},
{
"epoch": 78.54166666666667,
"grad_norm": 0.13436388969421387,
"learning_rate": 9.485033870032335e-05,
"loss": 0.0078,
"step": 3770
},
{
"epoch": 78.75,
"grad_norm": 0.13463658094406128,
"learning_rate": 9.481373433591556e-05,
"loss": 0.008,
"step": 3780
},
{
"epoch": 78.95833333333333,
"grad_norm": 0.12881360948085785,
"learning_rate": 9.47770074524693e-05,
"loss": 0.0074,
"step": 3790
},
{
"epoch": 79.16666666666667,
"grad_norm": 0.1699158102273941,
"learning_rate": 9.474015815039446e-05,
"loss": 0.0091,
"step": 3800
},
{
"epoch": 79.375,
"grad_norm": 0.15745197236537933,
"learning_rate": 9.470318653043565e-05,
"loss": 0.009,
"step": 3810
},
{
"epoch": 79.58333333333333,
"grad_norm": 0.1425720900297165,
"learning_rate": 9.466609269367185e-05,
"loss": 0.0081,
"step": 3820
},
{
"epoch": 79.79166666666667,
"grad_norm": 0.13255997002124786,
"learning_rate": 9.46288767415162e-05,
"loss": 0.0085,
"step": 3830
},
{
"epoch": 80.0,
"grad_norm": 0.18882817029953003,
"learning_rate": 9.459153877571567e-05,
"loss": 0.0077,
"step": 3840
},
{
"epoch": 80.20833333333333,
"grad_norm": 0.12347506731748581,
"learning_rate": 9.455407889835087e-05,
"loss": 0.0076,
"step": 3850
},
{
"epoch": 80.41666666666667,
"grad_norm": 0.134022518992424,
"learning_rate": 9.451649721183564e-05,
"loss": 0.008,
"step": 3860
},
{
"epoch": 80.625,
"grad_norm": 0.10200574994087219,
"learning_rate": 9.447879381891692e-05,
"loss": 0.0081,
"step": 3870
},
{
"epoch": 80.83333333333333,
"grad_norm": 0.11393435299396515,
"learning_rate": 9.444096882267428e-05,
"loss": 0.0067,
"step": 3880
},
{
"epoch": 81.04166666666667,
"grad_norm": 0.17549581825733185,
"learning_rate": 9.440302232651988e-05,
"loss": 0.0068,
"step": 3890
},
{
"epoch": 81.25,
"grad_norm": 0.129764124751091,
"learning_rate": 9.436495443419795e-05,
"loss": 0.0072,
"step": 3900
},
{
"epoch": 81.45833333333333,
"grad_norm": 0.13367408514022827,
"learning_rate": 9.432676524978466e-05,
"loss": 0.0075,
"step": 3910
},
{
"epoch": 81.66666666666667,
"grad_norm": 0.12855835258960724,
"learning_rate": 9.42884548776878e-05,
"loss": 0.007,
"step": 3920
},
{
"epoch": 81.875,
"grad_norm": 0.12377104163169861,
"learning_rate": 9.425002342264646e-05,
"loss": 0.0066,
"step": 3930
},
{
"epoch": 82.08333333333333,
"grad_norm": 0.14512717723846436,
"learning_rate": 9.421147098973077e-05,
"loss": 0.0078,
"step": 3940
},
{
"epoch": 82.29166666666667,
"grad_norm": 0.14285895228385925,
"learning_rate": 9.41727976843416e-05,
"loss": 0.007,
"step": 3950
},
{
"epoch": 82.5,
"grad_norm": 0.1557202786207199,
"learning_rate": 9.413400361221029e-05,
"loss": 0.0077,
"step": 3960
},
{
"epoch": 82.70833333333333,
"grad_norm": 0.12391534447669983,
"learning_rate": 9.409508887939835e-05,
"loss": 0.0075,
"step": 3970
},
{
"epoch": 82.91666666666667,
"grad_norm": 0.1519940346479416,
"learning_rate": 9.40560535922972e-05,
"loss": 0.0069,
"step": 3980
},
{
"epoch": 83.125,
"grad_norm": 0.1247396171092987,
"learning_rate": 9.40168978576278e-05,
"loss": 0.0074,
"step": 3990
},
{
"epoch": 83.33333333333333,
"grad_norm": 0.12143047899007797,
"learning_rate": 9.397762178244043e-05,
"loss": 0.0077,
"step": 4000
},
{
"epoch": 83.54166666666667,
"grad_norm": 0.1239767074584961,
"learning_rate": 9.393822547411439e-05,
"loss": 0.0073,
"step": 4010
},
{
"epoch": 83.75,
"grad_norm": 0.14913630485534668,
"learning_rate": 9.389870904035769e-05,
"loss": 0.0072,
"step": 4020
},
{
"epoch": 83.95833333333333,
"grad_norm": 0.12743103504180908,
"learning_rate": 9.385907258920672e-05,
"loss": 0.0073,
"step": 4030
},
{
"epoch": 84.16666666666667,
"grad_norm": 0.16922424733638763,
"learning_rate": 9.381931622902607e-05,
"loss": 0.0073,
"step": 4040
},
{
"epoch": 84.375,
"grad_norm": 0.12121975421905518,
"learning_rate": 9.377944006850807e-05,
"loss": 0.0084,
"step": 4050
},
{
"epoch": 84.58333333333333,
"grad_norm": 0.12847809493541718,
"learning_rate": 9.373944421667265e-05,
"loss": 0.0078,
"step": 4060
},
{
"epoch": 84.79166666666667,
"grad_norm": 0.10404125601053238,
"learning_rate": 9.369932878286691e-05,
"loss": 0.0073,
"step": 4070
},
{
"epoch": 85.0,
"grad_norm": 0.20326335728168488,
"learning_rate": 9.365909387676494e-05,
"loss": 0.0075,
"step": 4080
},
{
"epoch": 85.20833333333333,
"grad_norm": 0.1208629459142685,
"learning_rate": 9.361873960836744e-05,
"loss": 0.0075,
"step": 4090
},
{
"epoch": 85.41666666666667,
"grad_norm": 0.15183036029338837,
"learning_rate": 9.357826608800142e-05,
"loss": 0.0074,
"step": 4100
},
{
"epoch": 85.625,
"grad_norm": 0.11224193871021271,
"learning_rate": 9.353767342631994e-05,
"loss": 0.0072,
"step": 4110
},
{
"epoch": 85.83333333333333,
"grad_norm": 0.14832796156406403,
"learning_rate": 9.34969617343018e-05,
"loss": 0.0076,
"step": 4120
},
{
"epoch": 86.04166666666667,
"grad_norm": 0.13874362409114838,
"learning_rate": 9.345613112325122e-05,
"loss": 0.008,
"step": 4130
},
{
"epoch": 86.25,
"grad_norm": 0.12126526981592178,
"learning_rate": 9.34151817047975e-05,
"loss": 0.0077,
"step": 4140
},
{
"epoch": 86.45833333333333,
"grad_norm": 0.11635075509548187,
"learning_rate": 9.33741135908948e-05,
"loss": 0.008,
"step": 4150
},
{
"epoch": 86.66666666666667,
"grad_norm": 0.09447265416383743,
"learning_rate": 9.33329268938218e-05,
"loss": 0.0069,
"step": 4160
},
{
"epoch": 86.875,
"grad_norm": 0.11846235394477844,
"learning_rate": 9.329162172618132e-05,
"loss": 0.0074,
"step": 4170
},
{
"epoch": 87.08333333333333,
"grad_norm": 0.13078013062477112,
"learning_rate": 9.325019820090013e-05,
"loss": 0.0072,
"step": 4180
},
{
"epoch": 87.29166666666667,
"grad_norm": 0.12578906118869781,
"learning_rate": 9.320865643122855e-05,
"loss": 0.0078,
"step": 4190
},
{
"epoch": 87.5,
"grad_norm": 0.1526239514350891,
"learning_rate": 9.316699653074023e-05,
"loss": 0.0073,
"step": 4200
},
{
"epoch": 87.70833333333333,
"grad_norm": 0.11341243982315063,
"learning_rate": 9.312521861333172e-05,
"loss": 0.0067,
"step": 4210
},
{
"epoch": 87.91666666666667,
"grad_norm": 0.09736169129610062,
"learning_rate": 9.308332279322224e-05,
"loss": 0.0066,
"step": 4220
},
{
"epoch": 88.125,
"grad_norm": 0.13081710040569305,
"learning_rate": 9.304130918495338e-05,
"loss": 0.0074,
"step": 4230
},
{
"epoch": 88.33333333333333,
"grad_norm": 0.12707583606243134,
"learning_rate": 9.299917790338874e-05,
"loss": 0.0076,
"step": 4240
},
{
"epoch": 88.54166666666667,
"grad_norm": 0.11190862953662872,
"learning_rate": 9.295692906371363e-05,
"loss": 0.0068,
"step": 4250
},
{
"epoch": 88.75,
"grad_norm": 0.11754106730222702,
"learning_rate": 9.291456278143476e-05,
"loss": 0.0075,
"step": 4260
},
{
"epoch": 88.95833333333333,
"grad_norm": 0.10456420481204987,
"learning_rate": 9.287207917237994e-05,
"loss": 0.0072,
"step": 4270
},
{
"epoch": 89.16666666666667,
"grad_norm": 0.13785317540168762,
"learning_rate": 9.282947835269773e-05,
"loss": 0.0072,
"step": 4280
},
{
"epoch": 89.375,
"grad_norm": 0.10497057437896729,
"learning_rate": 9.278676043885715e-05,
"loss": 0.0078,
"step": 4290
},
{
"epoch": 89.58333333333333,
"grad_norm": 0.10352105647325516,
"learning_rate": 9.274392554764733e-05,
"loss": 0.0073,
"step": 4300
},
{
"epoch": 89.79166666666667,
"grad_norm": 0.1163288876414299,
"learning_rate": 9.270097379617723e-05,
"loss": 0.0073,
"step": 4310
},
{
"epoch": 90.0,
"grad_norm": 0.17180398106575012,
"learning_rate": 9.26579053018753e-05,
"loss": 0.0071,
"step": 4320
},
{
"epoch": 90.20833333333333,
"grad_norm": 0.15238836407661438,
"learning_rate": 9.261472018248918e-05,
"loss": 0.0072,
"step": 4330
},
{
"epoch": 90.41666666666667,
"grad_norm": 0.12145853042602539,
"learning_rate": 9.25714185560853e-05,
"loss": 0.0076,
"step": 4340
},
{
"epoch": 90.625,
"grad_norm": 0.1380954384803772,
"learning_rate": 9.252800054104868e-05,
"loss": 0.0073,
"step": 4350
},
{
"epoch": 90.83333333333333,
"grad_norm": 0.14991872012615204,
"learning_rate": 9.248446625608252e-05,
"loss": 0.0072,
"step": 4360
},
{
"epoch": 91.04166666666667,
"grad_norm": 0.15483133494853973,
"learning_rate": 9.244081582020789e-05,
"loss": 0.0083,
"step": 4370
},
{
"epoch": 91.25,
"grad_norm": 0.12043429166078568,
"learning_rate": 9.239704935276339e-05,
"loss": 0.0079,
"step": 4380
},
{
"epoch": 91.45833333333333,
"grad_norm": 0.13251228630542755,
"learning_rate": 9.235316697340489e-05,
"loss": 0.0075,
"step": 4390
},
{
"epoch": 91.66666666666667,
"grad_norm": 0.1269141584634781,
"learning_rate": 9.230916880210512e-05,
"loss": 0.0079,
"step": 4400
},
{
"epoch": 91.875,
"grad_norm": 0.11620093137025833,
"learning_rate": 9.226505495915342e-05,
"loss": 0.0073,
"step": 4410
},
{
"epoch": 92.08333333333333,
"grad_norm": 0.1434793919324875,
"learning_rate": 9.222082556515536e-05,
"loss": 0.0063,
"step": 4420
},
{
"epoch": 92.29166666666667,
"grad_norm": 0.1004461795091629,
"learning_rate": 9.217648074103242e-05,
"loss": 0.008,
"step": 4430
},
{
"epoch": 92.5,
"grad_norm": 0.0979839563369751,
"learning_rate": 9.213202060802161e-05,
"loss": 0.0068,
"step": 4440
},
{
"epoch": 92.70833333333333,
"grad_norm": 0.11008862406015396,
"learning_rate": 9.208744528767528e-05,
"loss": 0.0069,
"step": 4450
},
{
"epoch": 92.91666666666667,
"grad_norm": 0.11195098608732224,
"learning_rate": 9.204275490186064e-05,
"loss": 0.007,
"step": 4460
},
{
"epoch": 93.125,
"grad_norm": 0.13116782903671265,
"learning_rate": 9.199794957275949e-05,
"loss": 0.0068,
"step": 4470
},
{
"epoch": 93.33333333333333,
"grad_norm": 0.10709001123905182,
"learning_rate": 9.19530294228679e-05,
"loss": 0.0062,
"step": 4480
},
{
"epoch": 93.54166666666667,
"grad_norm": 0.11429505795240402,
"learning_rate": 9.190799457499583e-05,
"loss": 0.0072,
"step": 4490
},
{
"epoch": 93.75,
"grad_norm": 0.12184348702430725,
"learning_rate": 9.186284515226686e-05,
"loss": 0.0071,
"step": 4500
},
{
"epoch": 93.95833333333333,
"grad_norm": 0.12104353308677673,
"learning_rate": 9.181758127811777e-05,
"loss": 0.0074,
"step": 4510
},
{
"epoch": 94.16666666666667,
"grad_norm": 0.09736120700836182,
"learning_rate": 9.177220307629825e-05,
"loss": 0.0076,
"step": 4520
},
{
"epoch": 94.375,
"grad_norm": 0.09775745123624802,
"learning_rate": 9.172671067087059e-05,
"loss": 0.0076,
"step": 4530
},
{
"epoch": 94.58333333333333,
"grad_norm": 0.10957901924848557,
"learning_rate": 9.16811041862093e-05,
"loss": 0.0069,
"step": 4540
},
{
"epoch": 94.79166666666667,
"grad_norm": 0.11660820990800858,
"learning_rate": 9.163538374700076e-05,
"loss": 0.0067,
"step": 4550
},
{
"epoch": 95.0,
"grad_norm": 0.1356566995382309,
"learning_rate": 9.158954947824287e-05,
"loss": 0.0065,
"step": 4560
},
{
"epoch": 95.20833333333333,
"grad_norm": 0.1425929218530655,
"learning_rate": 9.154360150524482e-05,
"loss": 0.0069,
"step": 4570
},
{
"epoch": 95.41666666666667,
"grad_norm": 0.13953809440135956,
"learning_rate": 9.14975399536266e-05,
"loss": 0.0078,
"step": 4580
},
{
"epoch": 95.625,
"grad_norm": 0.08912316709756851,
"learning_rate": 9.14513649493187e-05,
"loss": 0.0067,
"step": 4590
},
{
"epoch": 95.83333333333333,
"grad_norm": 0.10334280133247375,
"learning_rate": 9.140507661856187e-05,
"loss": 0.0066,
"step": 4600
},
{
"epoch": 96.04166666666667,
"grad_norm": 0.11234814673662186,
"learning_rate": 9.135867508790661e-05,
"loss": 0.0068,
"step": 4610
},
{
"epoch": 96.25,
"grad_norm": 0.1121845468878746,
"learning_rate": 9.131216048421291e-05,
"loss": 0.0078,
"step": 4620
},
{
"epoch": 96.45833333333333,
"grad_norm": 0.1481083333492279,
"learning_rate": 9.126553293464998e-05,
"loss": 0.0073,
"step": 4630
},
{
"epoch": 96.66666666666667,
"grad_norm": 0.1397561877965927,
"learning_rate": 9.121879256669572e-05,
"loss": 0.0079,
"step": 4640
},
{
"epoch": 96.875,
"grad_norm": 0.1100471243262291,
"learning_rate": 9.117193950813652e-05,
"loss": 0.0072,
"step": 4650
},
{
"epoch": 97.08333333333333,
"grad_norm": 0.18109332025051117,
"learning_rate": 9.112497388706685e-05,
"loss": 0.0071,
"step": 4660
},
{
"epoch": 97.29166666666667,
"grad_norm": 0.16449885070323944,
"learning_rate": 9.10778958318889e-05,
"loss": 0.0081,
"step": 4670
},
{
"epoch": 97.5,
"grad_norm": 0.18169593811035156,
"learning_rate": 9.103070547131232e-05,
"loss": 0.0076,
"step": 4680
},
{
"epoch": 97.70833333333333,
"grad_norm": 0.17230816185474396,
"learning_rate": 9.098340293435375e-05,
"loss": 0.0075,
"step": 4690
},
{
"epoch": 97.91666666666667,
"grad_norm": 0.11778809130191803,
"learning_rate": 9.093598835033649e-05,
"loss": 0.0072,
"step": 4700
},
{
"epoch": 98.125,
"grad_norm": 0.15728609263896942,
"learning_rate": 9.088846184889021e-05,
"loss": 0.0072,
"step": 4710
},
{
"epoch": 98.33333333333333,
"grad_norm": 0.11238937824964523,
"learning_rate": 9.084082355995057e-05,
"loss": 0.0073,
"step": 4720
},
{
"epoch": 98.54166666666667,
"grad_norm": 0.11571408063173294,
"learning_rate": 9.079307361375882e-05,
"loss": 0.0067,
"step": 4730
},
{
"epoch": 98.75,
"grad_norm": 0.12732599675655365,
"learning_rate": 9.074521214086149e-05,
"loss": 0.0072,
"step": 4740
},
{
"epoch": 98.95833333333333,
"grad_norm": 0.11861906200647354,
"learning_rate": 9.069723927211001e-05,
"loss": 0.0073,
"step": 4750
},
{
"epoch": 99.16666666666667,
"grad_norm": 0.12790387868881226,
"learning_rate": 9.064915513866037e-05,
"loss": 0.007,
"step": 4760
},
{
"epoch": 99.375,
"grad_norm": 0.14003939926624298,
"learning_rate": 9.060095987197279e-05,
"loss": 0.0075,
"step": 4770
},
{
"epoch": 99.58333333333333,
"grad_norm": 0.18221960961818695,
"learning_rate": 9.055265360381126e-05,
"loss": 0.0079,
"step": 4780
},
{
"epoch": 99.79166666666667,
"grad_norm": 0.18938899040222168,
"learning_rate": 9.050423646624326e-05,
"loss": 0.0078,
"step": 4790
},
{
"epoch": 100.0,
"grad_norm": 0.1797226518392563,
"learning_rate": 9.045570859163943e-05,
"loss": 0.007,
"step": 4800
},
{
"epoch": 100.20833333333333,
"grad_norm": 0.11891371011734009,
"learning_rate": 9.04070701126731e-05,
"loss": 0.0074,
"step": 4810
},
{
"epoch": 100.41666666666667,
"grad_norm": 0.11718389391899109,
"learning_rate": 9.035832116232001e-05,
"loss": 0.0078,
"step": 4820
},
{
"epoch": 100.625,
"grad_norm": 0.1415216028690338,
"learning_rate": 9.030946187385796e-05,
"loss": 0.0075,
"step": 4830
},
{
"epoch": 100.83333333333333,
"grad_norm": 0.14168231189250946,
"learning_rate": 9.026049238086635e-05,
"loss": 0.0065,
"step": 4840
},
{
"epoch": 101.04166666666667,
"grad_norm": 0.17353275418281555,
"learning_rate": 9.021141281722591e-05,
"loss": 0.0067,
"step": 4850
},
{
"epoch": 101.25,
"grad_norm": 0.13674576580524445,
"learning_rate": 9.01622233171183e-05,
"loss": 0.0074,
"step": 4860
},
{
"epoch": 101.45833333333333,
"grad_norm": 0.16381537914276123,
"learning_rate": 9.011292401502574e-05,
"loss": 0.0067,
"step": 4870
},
{
"epoch": 101.66666666666667,
"grad_norm": 0.12143448740243912,
"learning_rate": 9.006351504573063e-05,
"loss": 0.0073,
"step": 4880
},
{
"epoch": 101.875,
"grad_norm": 0.14107128977775574,
"learning_rate": 9.001399654431519e-05,
"loss": 0.0065,
"step": 4890
},
{
"epoch": 102.08333333333333,
"grad_norm": 0.12365766614675522,
"learning_rate": 8.996436864616116e-05,
"loss": 0.0071,
"step": 4900
},
{
"epoch": 102.29166666666667,
"grad_norm": 0.11717549711465836,
"learning_rate": 8.991463148694925e-05,
"loss": 0.0071,
"step": 4910
},
{
"epoch": 102.5,
"grad_norm": 0.12707993388175964,
"learning_rate": 8.986478520265902e-05,
"loss": 0.007,
"step": 4920
},
{
"epoch": 102.70833333333333,
"grad_norm": 0.1060505360364914,
"learning_rate": 8.981482992956827e-05,
"loss": 0.007,
"step": 4930
},
{
"epoch": 102.91666666666667,
"grad_norm": 0.0786166563630104,
"learning_rate": 8.976476580425282e-05,
"loss": 0.0068,
"step": 4940
},
{
"epoch": 103.125,
"grad_norm": 0.10416026413440704,
"learning_rate": 8.971459296358606e-05,
"loss": 0.0075,
"step": 4950
},
{
"epoch": 103.33333333333333,
"grad_norm": 0.12413540482521057,
"learning_rate": 8.966431154473864e-05,
"loss": 0.0066,
"step": 4960
},
{
"epoch": 103.54166666666667,
"grad_norm": 0.09850534051656723,
"learning_rate": 8.961392168517803e-05,
"loss": 0.0067,
"step": 4970
},
{
"epoch": 103.75,
"grad_norm": 0.11118543148040771,
"learning_rate": 8.956342352266821e-05,
"loss": 0.0058,
"step": 4980
},
{
"epoch": 103.95833333333333,
"grad_norm": 0.11706725507974625,
"learning_rate": 8.95128171952692e-05,
"loss": 0.0068,
"step": 4990
},
{
"epoch": 104.16666666666667,
"grad_norm": 0.10897029936313629,
"learning_rate": 8.946210284133676e-05,
"loss": 0.0064,
"step": 5000
}
],
"logging_steps": 10,
"max_steps": 20000,
"num_input_tokens_seen": 0,
"num_train_epochs": 417,
"save_steps": 1000,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": false
},
"attributes": {}
}
},
"total_flos": 0.0,
"train_batch_size": 512,
"trial_name": null,
"trial_params": null
}