QJerry's picture
Initial commit.
b4bf644 verified
{
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 2.1333333333333333,
"eval_steps": 500,
"global_step": 250,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.008533333333333334,
"grad_norm": 231.34270101410158,
"learning_rate": 0.0,
"loss": 8.0033,
"step": 1
},
{
"epoch": 0.017066666666666667,
"grad_norm": 222.45613156024717,
"learning_rate": 3.010299956639811e-07,
"loss": 8.0428,
"step": 2
},
{
"epoch": 0.0256,
"grad_norm": 215.11231622980122,
"learning_rate": 4.771212547196623e-07,
"loss": 8.1972,
"step": 3
},
{
"epoch": 0.034133333333333335,
"grad_norm": 219.60924103962475,
"learning_rate": 6.020599913279622e-07,
"loss": 7.9839,
"step": 4
},
{
"epoch": 0.042666666666666665,
"grad_norm": 215.38857509452538,
"learning_rate": 6.989700043360186e-07,
"loss": 7.9458,
"step": 5
},
{
"epoch": 0.0512,
"grad_norm": 216.6292736162405,
"learning_rate": 7.781512503836435e-07,
"loss": 8.0918,
"step": 6
},
{
"epoch": 0.05973333333333333,
"grad_norm": 221.48329860849555,
"learning_rate": 8.450980400142567e-07,
"loss": 7.6396,
"step": 7
},
{
"epoch": 0.06826666666666667,
"grad_norm": 209.19887181519408,
"learning_rate": 9.030899869919433e-07,
"loss": 7.9538,
"step": 8
},
{
"epoch": 0.0768,
"grad_norm": 212.49168182248923,
"learning_rate": 9.542425094393247e-07,
"loss": 7.956,
"step": 9
},
{
"epoch": 0.08533333333333333,
"grad_norm": 210.10834258781824,
"learning_rate": 9.999999999999997e-07,
"loss": 7.8862,
"step": 10
},
{
"epoch": 0.09386666666666667,
"grad_norm": 202.27608183186166,
"learning_rate": 1.0413926851582248e-06,
"loss": 7.4513,
"step": 11
},
{
"epoch": 0.1024,
"grad_norm": 193.55936185702825,
"learning_rate": 1.0791812460476246e-06,
"loss": 7.4564,
"step": 12
},
{
"epoch": 0.11093333333333333,
"grad_norm": 193.33017014294484,
"learning_rate": 1.1139433523068364e-06,
"loss": 6.787,
"step": 13
},
{
"epoch": 0.11946666666666667,
"grad_norm": 184.58026709266622,
"learning_rate": 1.1461280356782378e-06,
"loss": 6.6556,
"step": 14
},
{
"epoch": 0.128,
"grad_norm": 173.93108257115804,
"learning_rate": 1.176091259055681e-06,
"loss": 6.8126,
"step": 15
},
{
"epoch": 0.13653333333333334,
"grad_norm": 159.06078707329158,
"learning_rate": 1.2041199826559244e-06,
"loss": 6.0696,
"step": 16
},
{
"epoch": 0.14506666666666668,
"grad_norm": 144.47206558492545,
"learning_rate": 1.230448921378274e-06,
"loss": 5.8741,
"step": 17
},
{
"epoch": 0.1536,
"grad_norm": 124.25199240731514,
"learning_rate": 1.2552725051033058e-06,
"loss": 6.4679,
"step": 18
},
{
"epoch": 0.16213333333333332,
"grad_norm": 117.71459376788206,
"learning_rate": 1.2787536009528286e-06,
"loss": 5.8792,
"step": 19
},
{
"epoch": 0.17066666666666666,
"grad_norm": 98.0143135672668,
"learning_rate": 1.301029995663981e-06,
"loss": 5.7364,
"step": 20
},
{
"epoch": 0.1792,
"grad_norm": 70.62207198023327,
"learning_rate": 1.322219294733919e-06,
"loss": 6.1405,
"step": 21
},
{
"epoch": 0.18773333333333334,
"grad_norm": 61.18474481475652,
"learning_rate": 1.3424226808222062e-06,
"loss": 5.5889,
"step": 22
},
{
"epoch": 0.19626666666666667,
"grad_norm": 53.31741120769673,
"learning_rate": 1.3617278360175927e-06,
"loss": 5.3036,
"step": 23
},
{
"epoch": 0.2048,
"grad_norm": 42.39349303788407,
"learning_rate": 1.3802112417116059e-06,
"loss": 5.9642,
"step": 24
},
{
"epoch": 0.21333333333333335,
"grad_norm": 38.660534953497795,
"learning_rate": 1.3979400086720373e-06,
"loss": 6.0086,
"step": 25
},
{
"epoch": 0.22186666666666666,
"grad_norm": 32.07764741790126,
"learning_rate": 1.4149733479708177e-06,
"loss": 5.6643,
"step": 26
},
{
"epoch": 0.2304,
"grad_norm": 25.028488406885337,
"learning_rate": 1.431363764158987e-06,
"loss": 5.2058,
"step": 27
},
{
"epoch": 0.23893333333333333,
"grad_norm": 26.07639533284245,
"learning_rate": 1.4471580313422189e-06,
"loss": 4.8004,
"step": 28
},
{
"epoch": 0.24746666666666667,
"grad_norm": 21.2010515923868,
"learning_rate": 1.4623979978989559e-06,
"loss": 5.2692,
"step": 29
},
{
"epoch": 0.256,
"grad_norm": 19.136682470240157,
"learning_rate": 1.477121254719662e-06,
"loss": 5.1682,
"step": 30
},
{
"epoch": 0.26453333333333334,
"grad_norm": 22.363719632711973,
"learning_rate": 1.4913616938342723e-06,
"loss": 5.8755,
"step": 31
},
{
"epoch": 0.2730666666666667,
"grad_norm": 18.759763083192176,
"learning_rate": 1.5051499783199057e-06,
"loss": 4.656,
"step": 32
},
{
"epoch": 0.2816,
"grad_norm": 19.3591101676801,
"learning_rate": 1.5185139398778872e-06,
"loss": 5.0382,
"step": 33
},
{
"epoch": 0.29013333333333335,
"grad_norm": 18.93526312077878,
"learning_rate": 1.5314789170422548e-06,
"loss": 5.2733,
"step": 34
},
{
"epoch": 0.2986666666666667,
"grad_norm": 18.674257823898586,
"learning_rate": 1.544068044350275e-06,
"loss": 5.101,
"step": 35
},
{
"epoch": 0.3072,
"grad_norm": 17.08780568204542,
"learning_rate": 1.556302500767287e-06,
"loss": 4.7201,
"step": 36
},
{
"epoch": 0.3157333333333333,
"grad_norm": 19.267517838381355,
"learning_rate": 1.5682017240669948e-06,
"loss": 5.2867,
"step": 37
},
{
"epoch": 0.32426666666666665,
"grad_norm": 18.184288973685927,
"learning_rate": 1.57978359661681e-06,
"loss": 5.1484,
"step": 38
},
{
"epoch": 0.3328,
"grad_norm": 18.50588565713833,
"learning_rate": 1.5910646070264987e-06,
"loss": 5.0841,
"step": 39
},
{
"epoch": 0.3413333333333333,
"grad_norm": 20.00324375550594,
"learning_rate": 1.602059991327962e-06,
"loss": 5.3427,
"step": 40
},
{
"epoch": 0.34986666666666666,
"grad_norm": 18.167691169804883,
"learning_rate": 1.6127838567197353e-06,
"loss": 5.0728,
"step": 41
},
{
"epoch": 0.3584,
"grad_norm": 18.674761969544367,
"learning_rate": 1.6232492903979003e-06,
"loss": 5.0627,
"step": 42
},
{
"epoch": 0.36693333333333333,
"grad_norm": 17.20625840701983,
"learning_rate": 1.633468455579586e-06,
"loss": 4.7326,
"step": 43
},
{
"epoch": 0.37546666666666667,
"grad_norm": 18.940586556170768,
"learning_rate": 1.643452676486187e-06,
"loss": 5.0623,
"step": 44
},
{
"epoch": 0.384,
"grad_norm": 16.508592622361657,
"learning_rate": 1.6532125137753431e-06,
"loss": 4.3398,
"step": 45
},
{
"epoch": 0.39253333333333335,
"grad_norm": 18.88828805204721,
"learning_rate": 1.6627578316815738e-06,
"loss": 4.9771,
"step": 46
},
{
"epoch": 0.4010666666666667,
"grad_norm": 15.580054007792855,
"learning_rate": 1.672097857935717e-06,
"loss": 4.0601,
"step": 47
},
{
"epoch": 0.4096,
"grad_norm": 17.934643242134936,
"learning_rate": 1.6812412373755868e-06,
"loss": 4.7386,
"step": 48
},
{
"epoch": 0.41813333333333336,
"grad_norm": 16.802048621838498,
"learning_rate": 1.6901960800285134e-06,
"loss": 4.3118,
"step": 49
},
{
"epoch": 0.4266666666666667,
"grad_norm": 18.92271445418054,
"learning_rate": 1.6989700043360184e-06,
"loss": 4.7678,
"step": 50
},
{
"epoch": 0.4352,
"grad_norm": 16.825531514403565,
"learning_rate": 1.707570176097936e-06,
"loss": 4.09,
"step": 51
},
{
"epoch": 0.4437333333333333,
"grad_norm": 17.235188635315886,
"learning_rate": 1.716003343634799e-06,
"loss": 4.2779,
"step": 52
},
{
"epoch": 0.45226666666666665,
"grad_norm": 18.166659760546757,
"learning_rate": 1.7242758696007888e-06,
"loss": 4.2348,
"step": 53
},
{
"epoch": 0.4608,
"grad_norm": 18.879052137730344,
"learning_rate": 1.7323937598229684e-06,
"loss": 4.4625,
"step": 54
},
{
"epoch": 0.4693333333333333,
"grad_norm": 19.006170776563348,
"learning_rate": 1.7403626894942437e-06,
"loss": 4.2942,
"step": 55
},
{
"epoch": 0.47786666666666666,
"grad_norm": 19.315665667678836,
"learning_rate": 1.7481880270062002e-06,
"loss": 4.1825,
"step": 56
},
{
"epoch": 0.4864,
"grad_norm": 18.44355038438234,
"learning_rate": 1.7558748556724912e-06,
"loss": 3.8468,
"step": 57
},
{
"epoch": 0.49493333333333334,
"grad_norm": 19.75148178529509,
"learning_rate": 1.7634279935629368e-06,
"loss": 4.099,
"step": 58
},
{
"epoch": 0.5034666666666666,
"grad_norm": 19.002733535887344,
"learning_rate": 1.7708520116421439e-06,
"loss": 3.8604,
"step": 59
},
{
"epoch": 0.512,
"grad_norm": 19.561516392754022,
"learning_rate": 1.7781512503836432e-06,
"loss": 3.7147,
"step": 60
},
{
"epoch": 0.5205333333333333,
"grad_norm": 18.095989714574884,
"learning_rate": 1.7853298350107666e-06,
"loss": 3.4101,
"step": 61
},
{
"epoch": 0.5290666666666667,
"grad_norm": 18.710104039370346,
"learning_rate": 1.7923916894982536e-06,
"loss": 3.3494,
"step": 62
},
{
"epoch": 0.5376,
"grad_norm": 18.676494100466652,
"learning_rate": 1.7993405494535814e-06,
"loss": 3.2121,
"step": 63
},
{
"epoch": 0.5461333333333334,
"grad_norm": 19.871653149070237,
"learning_rate": 1.8061799739838866e-06,
"loss": 3.3171,
"step": 64
},
{
"epoch": 0.5546666666666666,
"grad_norm": 20.376954529048405,
"learning_rate": 1.8129133566428552e-06,
"loss": 3.3528,
"step": 65
},
{
"epoch": 0.5632,
"grad_norm": 20.251598153805123,
"learning_rate": 1.8195439355418683e-06,
"loss": 3.1833,
"step": 66
},
{
"epoch": 0.5717333333333333,
"grad_norm": 19.44626118241266,
"learning_rate": 1.826074802700826e-06,
"loss": 2.9975,
"step": 67
},
{
"epoch": 0.5802666666666667,
"grad_norm": 18.230010490142433,
"learning_rate": 1.8325089127062361e-06,
"loss": 2.7141,
"step": 68
},
{
"epoch": 0.5888,
"grad_norm": 19.672034786384422,
"learning_rate": 1.8388490907372552e-06,
"loss": 2.7342,
"step": 69
},
{
"epoch": 0.5973333333333334,
"grad_norm": 20.431907892006116,
"learning_rate": 1.8450980400142566e-06,
"loss": 2.8332,
"step": 70
},
{
"epoch": 0.6058666666666667,
"grad_norm": 20.936816395090222,
"learning_rate": 1.851258348719075e-06,
"loss": 2.6939,
"step": 71
},
{
"epoch": 0.6144,
"grad_norm": 18.78824631153452,
"learning_rate": 1.857332496431268e-06,
"loss": 2.3357,
"step": 72
},
{
"epoch": 0.6229333333333333,
"grad_norm": 19.94754779630663,
"learning_rate": 1.8633228601204554e-06,
"loss": 2.3903,
"step": 73
},
{
"epoch": 0.6314666666666666,
"grad_norm": 20.795786885743603,
"learning_rate": 1.8692317197309759e-06,
"loss": 2.3105,
"step": 74
},
{
"epoch": 0.64,
"grad_norm": 22.39299642885025,
"learning_rate": 1.8750612633916996e-06,
"loss": 2.3909,
"step": 75
},
{
"epoch": 0.6485333333333333,
"grad_norm": 20.92445445380723,
"learning_rate": 1.880813592280791e-06,
"loss": 2.1323,
"step": 76
},
{
"epoch": 0.6570666666666667,
"grad_norm": 19.657343750620992,
"learning_rate": 1.8864907251724815e-06,
"loss": 1.8835,
"step": 77
},
{
"epoch": 0.6656,
"grad_norm": 20.47587021316379,
"learning_rate": 1.89209460269048e-06,
"loss": 1.8998,
"step": 78
},
{
"epoch": 0.6741333333333334,
"grad_norm": 20.25205700634583,
"learning_rate": 1.897627091290441e-06,
"loss": 1.7855,
"step": 79
},
{
"epoch": 0.6826666666666666,
"grad_norm": 21.14208582351207,
"learning_rate": 1.903089986991943e-06,
"loss": 1.8428,
"step": 80
},
{
"epoch": 0.6912,
"grad_norm": 20.39475158794498,
"learning_rate": 1.9084850188786494e-06,
"loss": 1.7485,
"step": 81
},
{
"epoch": 0.6997333333333333,
"grad_norm": 16.571971790449002,
"learning_rate": 1.9138138523837166e-06,
"loss": 1.4696,
"step": 82
},
{
"epoch": 0.7082666666666667,
"grad_norm": 15.676999411458654,
"learning_rate": 1.919078092376074e-06,
"loss": 1.388,
"step": 83
},
{
"epoch": 0.7168,
"grad_norm": 14.1970537594678,
"learning_rate": 1.9242792860618812e-06,
"loss": 1.361,
"step": 84
},
{
"epoch": 0.7253333333333334,
"grad_norm": 12.809108973893466,
"learning_rate": 1.9294189257142923e-06,
"loss": 1.3529,
"step": 85
},
{
"epoch": 0.7338666666666667,
"grad_norm": 12.601555234808817,
"learning_rate": 1.934498451243567e-06,
"loss": 1.3159,
"step": 86
},
{
"epoch": 0.7424,
"grad_norm": 11.144989228891582,
"learning_rate": 1.939519252618618e-06,
"loss": 1.2511,
"step": 87
},
{
"epoch": 0.7509333333333333,
"grad_norm": 9.96803209356588,
"learning_rate": 1.9444826721501684e-06,
"loss": 1.0659,
"step": 88
},
{
"epoch": 0.7594666666666666,
"grad_norm": 12.566400178736489,
"learning_rate": 1.949390006644912e-06,
"loss": 1.1682,
"step": 89
},
{
"epoch": 0.768,
"grad_norm": 13.274690475734735,
"learning_rate": 1.9542425094393244e-06,
"loss": 1.09,
"step": 90
},
{
"epoch": 0.7765333333333333,
"grad_norm": 14.71924760305363,
"learning_rate": 1.9590413923210933e-06,
"loss": 1.0736,
"step": 91
},
{
"epoch": 0.7850666666666667,
"grad_norm": 15.224266478058043,
"learning_rate": 1.963787827345555e-06,
"loss": 1.0324,
"step": 92
},
{
"epoch": 0.7936,
"grad_norm": 15.73634400307161,
"learning_rate": 1.968482948553935e-06,
"loss": 1.0381,
"step": 93
},
{
"epoch": 0.8021333333333334,
"grad_norm": 16.5663026295097,
"learning_rate": 1.9731278535996984e-06,
"loss": 0.9833,
"step": 94
},
{
"epoch": 0.8106666666666666,
"grad_norm": 14.713574967698303,
"learning_rate": 1.9777236052888472e-06,
"loss": 0.8242,
"step": 95
},
{
"epoch": 0.8192,
"grad_norm": 16.467974476225343,
"learning_rate": 1.982271233039568e-06,
"loss": 0.9301,
"step": 96
},
{
"epoch": 0.8277333333333333,
"grad_norm": 16.39536283109591,
"learning_rate": 1.9867717342662444e-06,
"loss": 0.8342,
"step": 97
},
{
"epoch": 0.8362666666666667,
"grad_norm": 16.834584306117144,
"learning_rate": 1.9912260756924947e-06,
"loss": 0.8117,
"step": 98
},
{
"epoch": 0.8448,
"grad_norm": 14.449603139318016,
"learning_rate": 1.9956351945975495e-06,
"loss": 0.718,
"step": 99
},
{
"epoch": 0.8533333333333334,
"grad_norm": 12.454426811073354,
"learning_rate": 1.9999999999999995e-06,
"loss": 0.6327,
"step": 100
},
{
"epoch": 0.8618666666666667,
"grad_norm": 17.3183204974823,
"learning_rate": 2e-06,
"loss": 0.6041,
"step": 101
},
{
"epoch": 0.8704,
"grad_norm": 13.572018144464437,
"learning_rate": 2e-06,
"loss": 0.5131,
"step": 102
},
{
"epoch": 0.8789333333333333,
"grad_norm": 9.256319104232254,
"learning_rate": 2e-06,
"loss": 0.5273,
"step": 103
},
{
"epoch": 0.8874666666666666,
"grad_norm": 7.425863956831629,
"learning_rate": 2e-06,
"loss": 0.4786,
"step": 104
},
{
"epoch": 0.896,
"grad_norm": 8.97923808648426,
"learning_rate": 2e-06,
"loss": 0.4902,
"step": 105
},
{
"epoch": 0.9045333333333333,
"grad_norm": 7.94937375079227,
"learning_rate": 2e-06,
"loss": 0.4941,
"step": 106
},
{
"epoch": 0.9130666666666667,
"grad_norm": 7.729957259085908,
"learning_rate": 2e-06,
"loss": 0.4249,
"step": 107
},
{
"epoch": 0.9216,
"grad_norm": 7.382589023982135,
"learning_rate": 2e-06,
"loss": 0.4148,
"step": 108
},
{
"epoch": 0.9301333333333334,
"grad_norm": 6.478191175550658,
"learning_rate": 2e-06,
"loss": 0.3995,
"step": 109
},
{
"epoch": 0.9386666666666666,
"grad_norm": 5.982915715313309,
"learning_rate": 2e-06,
"loss": 0.3787,
"step": 110
},
{
"epoch": 0.9472,
"grad_norm": 4.896676216886559,
"learning_rate": 2e-06,
"loss": 0.3324,
"step": 111
},
{
"epoch": 0.9557333333333333,
"grad_norm": 4.274518589330525,
"learning_rate": 2e-06,
"loss": 0.3323,
"step": 112
},
{
"epoch": 0.9642666666666667,
"grad_norm": 3.8910829818375,
"learning_rate": 2e-06,
"loss": 0.2959,
"step": 113
},
{
"epoch": 0.9728,
"grad_norm": 3.7211299941728337,
"learning_rate": 2e-06,
"loss": 0.297,
"step": 114
},
{
"epoch": 0.9813333333333333,
"grad_norm": 3.283798245531902,
"learning_rate": 2e-06,
"loss": 0.2667,
"step": 115
},
{
"epoch": 0.9898666666666667,
"grad_norm": 3.508078652121097,
"learning_rate": 2e-06,
"loss": 0.2968,
"step": 116
},
{
"epoch": 0.9984,
"grad_norm": 3.5010931487735597,
"learning_rate": 2e-06,
"loss": 0.2574,
"step": 117
},
{
"epoch": 1.0069333333333332,
"grad_norm": 3.3107051665235905,
"learning_rate": 2e-06,
"loss": 0.2489,
"step": 118
},
{
"epoch": 1.0154666666666667,
"grad_norm": 2.60365618979484,
"learning_rate": 2e-06,
"loss": 0.2505,
"step": 119
},
{
"epoch": 1.024,
"grad_norm": 2.4786955014392107,
"learning_rate": 2e-06,
"loss": 0.2274,
"step": 120
},
{
"epoch": 1.0325333333333333,
"grad_norm": 2.8706599108871482,
"learning_rate": 2e-06,
"loss": 0.2868,
"step": 121
},
{
"epoch": 1.0410666666666666,
"grad_norm": 3.3367705901809583,
"learning_rate": 2e-06,
"loss": 0.273,
"step": 122
},
{
"epoch": 1.0496,
"grad_norm": 2.0507711355777363,
"learning_rate": 2e-06,
"loss": 0.2181,
"step": 123
},
{
"epoch": 1.0581333333333334,
"grad_norm": 2.050269304590008,
"learning_rate": 2e-06,
"loss": 0.2229,
"step": 124
},
{
"epoch": 1.0666666666666667,
"grad_norm": 1.9138641254623618,
"learning_rate": 2e-06,
"loss": 0.2158,
"step": 125
},
{
"epoch": 1.0752,
"grad_norm": 1.7243593408385853,
"learning_rate": 2e-06,
"loss": 0.2144,
"step": 126
},
{
"epoch": 1.0837333333333334,
"grad_norm": 2.0841717622377667,
"learning_rate": 2e-06,
"loss": 0.1734,
"step": 127
},
{
"epoch": 1.0922666666666667,
"grad_norm": 1.7715662019414709,
"learning_rate": 2e-06,
"loss": 0.192,
"step": 128
},
{
"epoch": 1.1008,
"grad_norm": 1.7802480590149752,
"learning_rate": 2e-06,
"loss": 0.1879,
"step": 129
},
{
"epoch": 1.1093333333333333,
"grad_norm": 1.7527310994752934,
"learning_rate": 2e-06,
"loss": 0.1979,
"step": 130
},
{
"epoch": 1.1178666666666666,
"grad_norm": 1.6688568823942918,
"learning_rate": 2e-06,
"loss": 0.1894,
"step": 131
},
{
"epoch": 1.1264,
"grad_norm": 1.9228661315273043,
"learning_rate": 2e-06,
"loss": 0.1863,
"step": 132
},
{
"epoch": 1.1349333333333333,
"grad_norm": 1.5840739308357017,
"learning_rate": 2e-06,
"loss": 0.1509,
"step": 133
},
{
"epoch": 1.1434666666666666,
"grad_norm": 1.6155880007021268,
"learning_rate": 2e-06,
"loss": 0.1508,
"step": 134
},
{
"epoch": 1.152,
"grad_norm": 1.5565556176306672,
"learning_rate": 2e-06,
"loss": 0.1339,
"step": 135
},
{
"epoch": 1.1605333333333334,
"grad_norm": 1.2327392943177917,
"learning_rate": 2e-06,
"loss": 0.162,
"step": 136
},
{
"epoch": 1.1690666666666667,
"grad_norm": 1.1175126889594371,
"learning_rate": 2e-06,
"loss": 0.1504,
"step": 137
},
{
"epoch": 1.1776,
"grad_norm": 1.0234683665505797,
"learning_rate": 2e-06,
"loss": 0.1622,
"step": 138
},
{
"epoch": 1.1861333333333333,
"grad_norm": 0.8025189409961947,
"learning_rate": 2e-06,
"loss": 0.1266,
"step": 139
},
{
"epoch": 1.1946666666666665,
"grad_norm": 0.917718049574188,
"learning_rate": 2e-06,
"loss": 0.1333,
"step": 140
},
{
"epoch": 1.2032,
"grad_norm": 0.8553193541068539,
"learning_rate": 2e-06,
"loss": 0.1007,
"step": 141
},
{
"epoch": 1.2117333333333333,
"grad_norm": 0.8517678389454441,
"learning_rate": 2e-06,
"loss": 0.1359,
"step": 142
},
{
"epoch": 1.2202666666666666,
"grad_norm": 0.6950206358336558,
"learning_rate": 2e-06,
"loss": 0.1446,
"step": 143
},
{
"epoch": 1.2288000000000001,
"grad_norm": 0.7307968218899772,
"learning_rate": 2e-06,
"loss": 0.1401,
"step": 144
},
{
"epoch": 1.2373333333333334,
"grad_norm": 0.63300619575367,
"learning_rate": 2e-06,
"loss": 0.1474,
"step": 145
},
{
"epoch": 1.2458666666666667,
"grad_norm": 0.6353347808938816,
"learning_rate": 2e-06,
"loss": 0.1387,
"step": 146
},
{
"epoch": 1.2544,
"grad_norm": 0.5034304301868344,
"learning_rate": 2e-06,
"loss": 0.1223,
"step": 147
},
{
"epoch": 1.2629333333333332,
"grad_norm": 0.5040806017733501,
"learning_rate": 2e-06,
"loss": 0.1191,
"step": 148
},
{
"epoch": 1.2714666666666667,
"grad_norm": 0.4409461366225314,
"learning_rate": 2e-06,
"loss": 0.0969,
"step": 149
},
{
"epoch": 1.28,
"grad_norm": 0.5127705546071599,
"learning_rate": 2e-06,
"loss": 0.1088,
"step": 150
},
{
"epoch": 1.2885333333333333,
"grad_norm": 0.45510061969744225,
"learning_rate": 2e-06,
"loss": 0.1003,
"step": 151
},
{
"epoch": 1.2970666666666666,
"grad_norm": 0.41758162851175296,
"learning_rate": 2e-06,
"loss": 0.1247,
"step": 152
},
{
"epoch": 1.3056,
"grad_norm": 0.37704705762864665,
"learning_rate": 2e-06,
"loss": 0.103,
"step": 153
},
{
"epoch": 1.3141333333333334,
"grad_norm": 0.5586623569851862,
"learning_rate": 2e-06,
"loss": 0.1601,
"step": 154
},
{
"epoch": 1.3226666666666667,
"grad_norm": 0.46195551422136105,
"learning_rate": 2e-06,
"loss": 0.1374,
"step": 155
},
{
"epoch": 1.3312,
"grad_norm": 0.343093548707341,
"learning_rate": 2e-06,
"loss": 0.0941,
"step": 156
},
{
"epoch": 1.3397333333333332,
"grad_norm": 0.39257169120413016,
"learning_rate": 2e-06,
"loss": 0.0895,
"step": 157
},
{
"epoch": 1.3482666666666667,
"grad_norm": 0.4384934691842106,
"learning_rate": 2e-06,
"loss": 0.0942,
"step": 158
},
{
"epoch": 1.3568,
"grad_norm": 0.35616301762971647,
"learning_rate": 2e-06,
"loss": 0.1003,
"step": 159
},
{
"epoch": 1.3653333333333333,
"grad_norm": 0.29786532010683625,
"learning_rate": 2e-06,
"loss": 0.1037,
"step": 160
},
{
"epoch": 1.3738666666666668,
"grad_norm": 0.2946397050466001,
"learning_rate": 2e-06,
"loss": 0.0939,
"step": 161
},
{
"epoch": 1.3824,
"grad_norm": 0.3222496606745091,
"learning_rate": 2e-06,
"loss": 0.1243,
"step": 162
},
{
"epoch": 1.3909333333333334,
"grad_norm": 0.32912983758734565,
"learning_rate": 2e-06,
"loss": 0.1187,
"step": 163
},
{
"epoch": 1.3994666666666666,
"grad_norm": 0.2905712575341462,
"learning_rate": 2e-06,
"loss": 0.1055,
"step": 164
},
{
"epoch": 1.408,
"grad_norm": 0.2546454307119994,
"learning_rate": 2e-06,
"loss": 0.1127,
"step": 165
},
{
"epoch": 1.4165333333333332,
"grad_norm": 0.24261844656179513,
"learning_rate": 2e-06,
"loss": 0.0877,
"step": 166
},
{
"epoch": 1.4250666666666667,
"grad_norm": 0.27532498274009637,
"learning_rate": 2e-06,
"loss": 0.1041,
"step": 167
},
{
"epoch": 1.4336,
"grad_norm": 0.22379144098339965,
"learning_rate": 2e-06,
"loss": 0.107,
"step": 168
},
{
"epoch": 1.4421333333333333,
"grad_norm": 0.2553489194035564,
"learning_rate": 2e-06,
"loss": 0.1024,
"step": 169
},
{
"epoch": 1.4506666666666668,
"grad_norm": 0.26786337913337943,
"learning_rate": 2e-06,
"loss": 0.112,
"step": 170
},
{
"epoch": 1.4592,
"grad_norm": 0.21817003581749791,
"learning_rate": 2e-06,
"loss": 0.1017,
"step": 171
},
{
"epoch": 1.4677333333333333,
"grad_norm": 0.248801300603125,
"learning_rate": 2e-06,
"loss": 0.1074,
"step": 172
},
{
"epoch": 1.4762666666666666,
"grad_norm": 0.20753754481502557,
"learning_rate": 2e-06,
"loss": 0.0584,
"step": 173
},
{
"epoch": 1.4848,
"grad_norm": 0.21283270546700547,
"learning_rate": 2e-06,
"loss": 0.0925,
"step": 174
},
{
"epoch": 1.4933333333333334,
"grad_norm": 0.20676886828247096,
"learning_rate": 2e-06,
"loss": 0.0934,
"step": 175
},
{
"epoch": 1.5018666666666667,
"grad_norm": 0.2107516370604524,
"learning_rate": 2e-06,
"loss": 0.1065,
"step": 176
},
{
"epoch": 1.5104,
"grad_norm": 0.18723401435843423,
"learning_rate": 2e-06,
"loss": 0.0888,
"step": 177
},
{
"epoch": 1.5189333333333335,
"grad_norm": 0.17168054092247184,
"learning_rate": 2e-06,
"loss": 0.0839,
"step": 178
},
{
"epoch": 1.5274666666666668,
"grad_norm": 0.22217432369323692,
"learning_rate": 2e-06,
"loss": 0.1114,
"step": 179
},
{
"epoch": 1.536,
"grad_norm": 0.20054756436379942,
"learning_rate": 2e-06,
"loss": 0.1059,
"step": 180
},
{
"epoch": 1.5445333333333333,
"grad_norm": 0.17112943568900219,
"learning_rate": 2e-06,
"loss": 0.1011,
"step": 181
},
{
"epoch": 1.5530666666666666,
"grad_norm": 0.1801780865943037,
"learning_rate": 2e-06,
"loss": 0.1043,
"step": 182
},
{
"epoch": 1.5615999999999999,
"grad_norm": 0.1489551265133503,
"learning_rate": 2e-06,
"loss": 0.0835,
"step": 183
},
{
"epoch": 1.5701333333333334,
"grad_norm": 0.12784009081886896,
"learning_rate": 2e-06,
"loss": 0.0734,
"step": 184
},
{
"epoch": 1.5786666666666667,
"grad_norm": 0.15063862973393297,
"learning_rate": 2e-06,
"loss": 0.0814,
"step": 185
},
{
"epoch": 1.5872000000000002,
"grad_norm": 0.16830135837193463,
"learning_rate": 2e-06,
"loss": 0.0979,
"step": 186
},
{
"epoch": 1.5957333333333334,
"grad_norm": 0.15645064346050705,
"learning_rate": 2e-06,
"loss": 0.0919,
"step": 187
},
{
"epoch": 1.6042666666666667,
"grad_norm": 0.15532682208873283,
"learning_rate": 2e-06,
"loss": 0.0826,
"step": 188
},
{
"epoch": 1.6128,
"grad_norm": 0.14604498768520882,
"learning_rate": 2e-06,
"loss": 0.0812,
"step": 189
},
{
"epoch": 1.6213333333333333,
"grad_norm": 0.15047459920762304,
"learning_rate": 2e-06,
"loss": 0.0819,
"step": 190
},
{
"epoch": 1.6298666666666666,
"grad_norm": 0.13506492605417952,
"learning_rate": 2e-06,
"loss": 0.0828,
"step": 191
},
{
"epoch": 1.6383999999999999,
"grad_norm": 0.16728340655746288,
"learning_rate": 2e-06,
"loss": 0.0898,
"step": 192
},
{
"epoch": 1.6469333333333334,
"grad_norm": 0.13293548807855468,
"learning_rate": 2e-06,
"loss": 0.0872,
"step": 193
},
{
"epoch": 1.6554666666666666,
"grad_norm": 0.15114994456783581,
"learning_rate": 2e-06,
"loss": 0.1064,
"step": 194
},
{
"epoch": 1.6640000000000001,
"grad_norm": 0.2763610273018382,
"learning_rate": 2e-06,
"loss": 0.0962,
"step": 195
},
{
"epoch": 1.6725333333333334,
"grad_norm": 0.19218667192978522,
"learning_rate": 2e-06,
"loss": 0.1231,
"step": 196
},
{
"epoch": 1.6810666666666667,
"grad_norm": 0.1759813811884021,
"learning_rate": 2e-06,
"loss": 0.1275,
"step": 197
},
{
"epoch": 1.6896,
"grad_norm": 0.23643403793218365,
"learning_rate": 2e-06,
"loss": 0.113,
"step": 198
},
{
"epoch": 1.6981333333333333,
"grad_norm": 0.14783260420442404,
"learning_rate": 2e-06,
"loss": 0.0943,
"step": 199
},
{
"epoch": 1.7066666666666666,
"grad_norm": 0.1487943350613104,
"learning_rate": 2e-06,
"loss": 0.0764,
"step": 200
},
{
"epoch": 1.7151999999999998,
"grad_norm": 0.19914125356354254,
"learning_rate": 2e-06,
"loss": 0.1013,
"step": 201
},
{
"epoch": 1.7237333333333333,
"grad_norm": 0.12537281498141217,
"learning_rate": 2e-06,
"loss": 0.0777,
"step": 202
},
{
"epoch": 1.7322666666666666,
"grad_norm": 0.1767937007320728,
"learning_rate": 2e-06,
"loss": 0.118,
"step": 203
},
{
"epoch": 1.7408000000000001,
"grad_norm": 0.14194243607616083,
"learning_rate": 2e-06,
"loss": 0.1003,
"step": 204
},
{
"epoch": 1.7493333333333334,
"grad_norm": 0.14241856961958102,
"learning_rate": 2e-06,
"loss": 0.0859,
"step": 205
},
{
"epoch": 1.7578666666666667,
"grad_norm": 0.15059728789938148,
"learning_rate": 2e-06,
"loss": 0.1025,
"step": 206
},
{
"epoch": 1.7664,
"grad_norm": 0.12356605444934549,
"learning_rate": 2e-06,
"loss": 0.0685,
"step": 207
},
{
"epoch": 1.7749333333333333,
"grad_norm": 0.1347741179623485,
"learning_rate": 2e-06,
"loss": 0.0919,
"step": 208
},
{
"epoch": 1.7834666666666665,
"grad_norm": 0.16384025120459972,
"learning_rate": 2e-06,
"loss": 0.1275,
"step": 209
},
{
"epoch": 1.792,
"grad_norm": 0.1547368272007134,
"learning_rate": 2e-06,
"loss": 0.1034,
"step": 210
},
{
"epoch": 1.8005333333333333,
"grad_norm": 0.1508173894314888,
"learning_rate": 2e-06,
"loss": 0.1189,
"step": 211
},
{
"epoch": 1.8090666666666668,
"grad_norm": 0.11273720836845945,
"learning_rate": 2e-06,
"loss": 0.0819,
"step": 212
},
{
"epoch": 1.8176,
"grad_norm": 0.1370467950644329,
"learning_rate": 2e-06,
"loss": 0.1047,
"step": 213
},
{
"epoch": 1.8261333333333334,
"grad_norm": 0.15215414425843596,
"learning_rate": 2e-06,
"loss": 0.0809,
"step": 214
},
{
"epoch": 1.8346666666666667,
"grad_norm": 0.14172137223312858,
"learning_rate": 2e-06,
"loss": 0.1084,
"step": 215
},
{
"epoch": 1.8432,
"grad_norm": 0.1250546529620546,
"learning_rate": 2e-06,
"loss": 0.0846,
"step": 216
},
{
"epoch": 1.8517333333333332,
"grad_norm": 0.11551276620454004,
"learning_rate": 2e-06,
"loss": 0.0842,
"step": 217
},
{
"epoch": 1.8602666666666665,
"grad_norm": 0.15488866600145418,
"learning_rate": 2e-06,
"loss": 0.1142,
"step": 218
},
{
"epoch": 1.8688,
"grad_norm": 0.09888514261121689,
"learning_rate": 2e-06,
"loss": 0.0747,
"step": 219
},
{
"epoch": 1.8773333333333333,
"grad_norm": 0.17601030049607388,
"learning_rate": 2e-06,
"loss": 0.0879,
"step": 220
},
{
"epoch": 1.8858666666666668,
"grad_norm": 0.13287826620781495,
"learning_rate": 2e-06,
"loss": 0.1019,
"step": 221
},
{
"epoch": 1.8944,
"grad_norm": 0.1120897766089151,
"learning_rate": 2e-06,
"loss": 0.0989,
"step": 222
},
{
"epoch": 1.9029333333333334,
"grad_norm": 0.09605600538431752,
"learning_rate": 2e-06,
"loss": 0.078,
"step": 223
},
{
"epoch": 1.9114666666666666,
"grad_norm": 0.16091684838539397,
"learning_rate": 2e-06,
"loss": 0.1165,
"step": 224
},
{
"epoch": 1.92,
"grad_norm": 0.11547806398976826,
"learning_rate": 2e-06,
"loss": 0.1019,
"step": 225
},
{
"epoch": 1.9285333333333332,
"grad_norm": 0.09623585559903236,
"learning_rate": 2e-06,
"loss": 0.0835,
"step": 226
},
{
"epoch": 1.9370666666666667,
"grad_norm": 0.10202216244458817,
"learning_rate": 2e-06,
"loss": 0.0855,
"step": 227
},
{
"epoch": 1.9456,
"grad_norm": 0.09812509999148626,
"learning_rate": 2e-06,
"loss": 0.0848,
"step": 228
},
{
"epoch": 1.9541333333333335,
"grad_norm": 0.09785418954242836,
"learning_rate": 2e-06,
"loss": 0.0728,
"step": 229
},
{
"epoch": 1.9626666666666668,
"grad_norm": 0.12069392338959019,
"learning_rate": 2e-06,
"loss": 0.0991,
"step": 230
},
{
"epoch": 1.9712,
"grad_norm": 0.09026614699065032,
"learning_rate": 2e-06,
"loss": 0.0868,
"step": 231
},
{
"epoch": 1.9797333333333333,
"grad_norm": 0.11392173491116057,
"learning_rate": 2e-06,
"loss": 0.0881,
"step": 232
},
{
"epoch": 1.9882666666666666,
"grad_norm": 0.07647157666220379,
"learning_rate": 2e-06,
"loss": 0.0707,
"step": 233
},
{
"epoch": 1.9968,
"grad_norm": 0.2615871810434646,
"learning_rate": 2e-06,
"loss": 0.0783,
"step": 234
},
{
"epoch": 2.005333333333333,
"grad_norm": 0.1164061845548817,
"learning_rate": 2e-06,
"loss": 0.1068,
"step": 235
},
{
"epoch": 2.0138666666666665,
"grad_norm": 0.1274946547304048,
"learning_rate": 2e-06,
"loss": 0.1466,
"step": 236
},
{
"epoch": 2.0224,
"grad_norm": 0.10440697270222883,
"learning_rate": 2e-06,
"loss": 0.1057,
"step": 237
},
{
"epoch": 2.0309333333333335,
"grad_norm": 0.11367932619665701,
"learning_rate": 2e-06,
"loss": 0.0992,
"step": 238
},
{
"epoch": 2.0394666666666668,
"grad_norm": 0.11578345009673556,
"learning_rate": 2e-06,
"loss": 0.1107,
"step": 239
},
{
"epoch": 2.048,
"grad_norm": 0.1017539667951395,
"learning_rate": 2e-06,
"loss": 0.0923,
"step": 240
},
{
"epoch": 2.0565333333333333,
"grad_norm": 0.08861401409428807,
"learning_rate": 2e-06,
"loss": 0.0981,
"step": 241
},
{
"epoch": 2.0650666666666666,
"grad_norm": 0.11224980464500939,
"learning_rate": 2e-06,
"loss": 0.0892,
"step": 242
},
{
"epoch": 2.0736,
"grad_norm": 0.09792882549178875,
"learning_rate": 2e-06,
"loss": 0.0837,
"step": 243
},
{
"epoch": 2.082133333333333,
"grad_norm": 0.09054800454160102,
"learning_rate": 2e-06,
"loss": 0.0847,
"step": 244
},
{
"epoch": 2.0906666666666665,
"grad_norm": 0.11222395275466081,
"learning_rate": 2e-06,
"loss": 0.1116,
"step": 245
},
{
"epoch": 2.0992,
"grad_norm": 0.07018643906900571,
"learning_rate": 2e-06,
"loss": 0.0704,
"step": 246
},
{
"epoch": 2.1077333333333335,
"grad_norm": 0.10244058239571911,
"learning_rate": 2e-06,
"loss": 0.0953,
"step": 247
},
{
"epoch": 2.1162666666666667,
"grad_norm": 0.09606567143160881,
"learning_rate": 2e-06,
"loss": 0.0977,
"step": 248
},
{
"epoch": 2.1248,
"grad_norm": 0.12177051733074949,
"learning_rate": 2e-06,
"loss": 0.0801,
"step": 249
},
{
"epoch": 2.1333333333333333,
"grad_norm": 0.10822207908015202,
"learning_rate": 2e-06,
"loss": 0.1102,
"step": 250
}
],
"logging_steps": 1,
"max_steps": 301,
"num_input_tokens_seen": 0,
"num_train_epochs": 3,
"save_steps": 10,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": false
},
"attributes": {}
}
},
"total_flos": 3.9469401678765097e+18,
"train_batch_size": 16,
"trial_name": null,
"trial_params": null
}