jinjaedev's picture
add: model
2b3031c
{
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 2.977777777777778,
"eval_steps": 500,
"global_step": 336,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.008888888888888889,
"grad_norm": 0.12853842973709106,
"learning_rate": 4e-05,
"loss": 1.435,
"step": 1
},
{
"epoch": 0.017777777777777778,
"grad_norm": 0.1351887285709381,
"learning_rate": 8e-05,
"loss": 1.4834,
"step": 2
},
{
"epoch": 0.02666666666666667,
"grad_norm": 0.1353459358215332,
"learning_rate": 0.00012,
"loss": 1.4884,
"step": 3
},
{
"epoch": 0.035555555555555556,
"grad_norm": 0.15532286465168,
"learning_rate": 0.00016,
"loss": 1.4011,
"step": 4
},
{
"epoch": 0.044444444444444446,
"grad_norm": 0.18807101249694824,
"learning_rate": 0.0002,
"loss": 1.2824,
"step": 5
},
{
"epoch": 0.05333333333333334,
"grad_norm": 0.21187615394592285,
"learning_rate": 0.00019939577039274927,
"loss": 1.1333,
"step": 6
},
{
"epoch": 0.06222222222222222,
"grad_norm": 0.2363642305135727,
"learning_rate": 0.0001987915407854985,
"loss": 1.1263,
"step": 7
},
{
"epoch": 0.07111111111111111,
"grad_norm": 0.23471707105636597,
"learning_rate": 0.00019818731117824773,
"loss": 0.9295,
"step": 8
},
{
"epoch": 0.08,
"grad_norm": 0.2460624724626541,
"learning_rate": 0.00019758308157099698,
"loss": 0.7405,
"step": 9
},
{
"epoch": 0.08888888888888889,
"grad_norm": 0.7134775519371033,
"learning_rate": 0.00019697885196374624,
"loss": 0.6167,
"step": 10
},
{
"epoch": 0.09777777777777778,
"grad_norm": 0.2952987551689148,
"learning_rate": 0.0001963746223564955,
"loss": 0.4617,
"step": 11
},
{
"epoch": 0.10666666666666667,
"grad_norm": 0.2638149559497833,
"learning_rate": 0.00019577039274924472,
"loss": 0.3641,
"step": 12
},
{
"epoch": 0.11555555555555555,
"grad_norm": 0.21738190948963165,
"learning_rate": 0.00019516616314199395,
"loss": 0.2669,
"step": 13
},
{
"epoch": 0.12444444444444444,
"grad_norm": 0.15935368835926056,
"learning_rate": 0.0001945619335347432,
"loss": 0.1899,
"step": 14
},
{
"epoch": 0.13333333333333333,
"grad_norm": 0.11436018347740173,
"learning_rate": 0.00019395770392749247,
"loss": 0.1529,
"step": 15
},
{
"epoch": 0.14222222222222222,
"grad_norm": 0.11110496520996094,
"learning_rate": 0.00019335347432024172,
"loss": 0.1928,
"step": 16
},
{
"epoch": 0.1511111111111111,
"grad_norm": 0.09791559725999832,
"learning_rate": 0.00019274924471299093,
"loss": 0.2024,
"step": 17
},
{
"epoch": 0.16,
"grad_norm": 0.07391936331987381,
"learning_rate": 0.00019214501510574018,
"loss": 0.1278,
"step": 18
},
{
"epoch": 0.1688888888888889,
"grad_norm": 0.08692853152751923,
"learning_rate": 0.00019154078549848944,
"loss": 0.1588,
"step": 19
},
{
"epoch": 0.17777777777777778,
"grad_norm": 0.08260414749383926,
"learning_rate": 0.0001909365558912387,
"loss": 0.1765,
"step": 20
},
{
"epoch": 0.18666666666666668,
"grad_norm": 0.08524943888187408,
"learning_rate": 0.00019033232628398793,
"loss": 0.2432,
"step": 21
},
{
"epoch": 0.19555555555555557,
"grad_norm": 0.08510305732488632,
"learning_rate": 0.00018972809667673716,
"loss": 0.1527,
"step": 22
},
{
"epoch": 0.20444444444444446,
"grad_norm": 0.07516520470380783,
"learning_rate": 0.0001891238670694864,
"loss": 0.1394,
"step": 23
},
{
"epoch": 0.21333333333333335,
"grad_norm": 0.08073515444993973,
"learning_rate": 0.00018851963746223567,
"loss": 0.1754,
"step": 24
},
{
"epoch": 0.2222222222222222,
"grad_norm": 0.06894166767597198,
"learning_rate": 0.0001879154078549849,
"loss": 0.1352,
"step": 25
},
{
"epoch": 0.2311111111111111,
"grad_norm": 0.07681784778833389,
"learning_rate": 0.00018731117824773416,
"loss": 0.1514,
"step": 26
},
{
"epoch": 0.24,
"grad_norm": 0.06964302062988281,
"learning_rate": 0.00018670694864048338,
"loss": 0.1408,
"step": 27
},
{
"epoch": 0.24888888888888888,
"grad_norm": 0.08564883470535278,
"learning_rate": 0.00018610271903323264,
"loss": 0.194,
"step": 28
},
{
"epoch": 0.2577777777777778,
"grad_norm": 0.07006793469190598,
"learning_rate": 0.0001854984894259819,
"loss": 0.1454,
"step": 29
},
{
"epoch": 0.26666666666666666,
"grad_norm": 0.07050830870866776,
"learning_rate": 0.00018489425981873113,
"loss": 0.134,
"step": 30
},
{
"epoch": 0.27555555555555555,
"grad_norm": 0.0687691867351532,
"learning_rate": 0.00018429003021148036,
"loss": 0.122,
"step": 31
},
{
"epoch": 0.28444444444444444,
"grad_norm": 0.8294079899787903,
"learning_rate": 0.00018368580060422961,
"loss": 0.1737,
"step": 32
},
{
"epoch": 0.29333333333333333,
"grad_norm": 0.0775313451886177,
"learning_rate": 0.00018308157099697887,
"loss": 0.1249,
"step": 33
},
{
"epoch": 0.3022222222222222,
"grad_norm": 0.08075764775276184,
"learning_rate": 0.0001824773413897281,
"loss": 0.1596,
"step": 34
},
{
"epoch": 0.3111111111111111,
"grad_norm": 0.09499762207269669,
"learning_rate": 0.00018187311178247736,
"loss": 0.1788,
"step": 35
},
{
"epoch": 0.32,
"grad_norm": 0.09979691356420517,
"learning_rate": 0.00018126888217522659,
"loss": 0.1286,
"step": 36
},
{
"epoch": 0.3288888888888889,
"grad_norm": 0.1078299731016159,
"learning_rate": 0.00018066465256797584,
"loss": 0.1473,
"step": 37
},
{
"epoch": 0.3377777777777778,
"grad_norm": 0.11813590675592422,
"learning_rate": 0.0001800604229607251,
"loss": 0.1577,
"step": 38
},
{
"epoch": 0.3466666666666667,
"grad_norm": 0.12400685250759125,
"learning_rate": 0.00017945619335347433,
"loss": 0.1554,
"step": 39
},
{
"epoch": 0.35555555555555557,
"grad_norm": 0.13364343345165253,
"learning_rate": 0.00017885196374622359,
"loss": 0.1937,
"step": 40
},
{
"epoch": 0.36444444444444446,
"grad_norm": 0.1314571350812912,
"learning_rate": 0.00017824773413897281,
"loss": 0.1417,
"step": 41
},
{
"epoch": 0.37333333333333335,
"grad_norm": 0.14195436239242554,
"learning_rate": 0.00017764350453172207,
"loss": 0.1471,
"step": 42
},
{
"epoch": 0.38222222222222224,
"grad_norm": 0.14103101193904877,
"learning_rate": 0.0001770392749244713,
"loss": 0.1512,
"step": 43
},
{
"epoch": 0.39111111111111113,
"grad_norm": 0.15249131619930267,
"learning_rate": 0.00017643504531722056,
"loss": 0.1261,
"step": 44
},
{
"epoch": 0.4,
"grad_norm": 0.16161827743053436,
"learning_rate": 0.0001758308157099698,
"loss": 0.1361,
"step": 45
},
{
"epoch": 0.4088888888888889,
"grad_norm": 0.15586595237255096,
"learning_rate": 0.00017522658610271904,
"loss": 0.1368,
"step": 46
},
{
"epoch": 0.4177777777777778,
"grad_norm": 0.14314575493335724,
"learning_rate": 0.00017462235649546827,
"loss": 0.1449,
"step": 47
},
{
"epoch": 0.4266666666666667,
"grad_norm": 0.11395762860774994,
"learning_rate": 0.00017401812688821753,
"loss": 0.1285,
"step": 48
},
{
"epoch": 0.43555555555555553,
"grad_norm": 0.09165538102388382,
"learning_rate": 0.0001734138972809668,
"loss": 0.1531,
"step": 49
},
{
"epoch": 0.4444444444444444,
"grad_norm": 0.08022209256887436,
"learning_rate": 0.00017280966767371602,
"loss": 0.1078,
"step": 50
},
{
"epoch": 0.4533333333333333,
"grad_norm": 0.08753547072410583,
"learning_rate": 0.00017220543806646527,
"loss": 0.1511,
"step": 51
},
{
"epoch": 0.4622222222222222,
"grad_norm": 0.09489995241165161,
"learning_rate": 0.0001716012084592145,
"loss": 0.1109,
"step": 52
},
{
"epoch": 0.4711111111111111,
"grad_norm": 0.09574859589338303,
"learning_rate": 0.00017099697885196376,
"loss": 0.112,
"step": 53
},
{
"epoch": 0.48,
"grad_norm": 0.10898902267217636,
"learning_rate": 0.000170392749244713,
"loss": 0.1055,
"step": 54
},
{
"epoch": 0.4888888888888889,
"grad_norm": 0.1365131437778473,
"learning_rate": 0.00016978851963746225,
"loss": 0.1231,
"step": 55
},
{
"epoch": 0.49777777777777776,
"grad_norm": 0.13064222037792206,
"learning_rate": 0.00016918429003021147,
"loss": 0.1426,
"step": 56
},
{
"epoch": 0.5066666666666667,
"grad_norm": 0.15198342502117157,
"learning_rate": 0.00016858006042296073,
"loss": 0.1152,
"step": 57
},
{
"epoch": 0.5155555555555555,
"grad_norm": 0.14036396145820618,
"learning_rate": 0.00016797583081571,
"loss": 0.0877,
"step": 58
},
{
"epoch": 0.5244444444444445,
"grad_norm": 0.12717780470848083,
"learning_rate": 0.00016737160120845922,
"loss": 0.1527,
"step": 59
},
{
"epoch": 0.5333333333333333,
"grad_norm": 0.09991107136011124,
"learning_rate": 0.00016676737160120847,
"loss": 0.1184,
"step": 60
},
{
"epoch": 0.5422222222222223,
"grad_norm": 0.08420077711343765,
"learning_rate": 0.0001661631419939577,
"loss": 0.1162,
"step": 61
},
{
"epoch": 0.5511111111111111,
"grad_norm": 0.07980040460824966,
"learning_rate": 0.00016555891238670696,
"loss": 0.1154,
"step": 62
},
{
"epoch": 0.56,
"grad_norm": 0.07247896492481232,
"learning_rate": 0.00016495468277945622,
"loss": 0.1431,
"step": 63
},
{
"epoch": 0.5688888888888889,
"grad_norm": 0.06688614189624786,
"learning_rate": 0.00016435045317220545,
"loss": 0.1054,
"step": 64
},
{
"epoch": 0.5777777777777777,
"grad_norm": 0.059071995317935944,
"learning_rate": 0.00016374622356495468,
"loss": 0.0957,
"step": 65
},
{
"epoch": 0.5866666666666667,
"grad_norm": 0.05386095494031906,
"learning_rate": 0.00016314199395770393,
"loss": 0.1225,
"step": 66
},
{
"epoch": 0.5955555555555555,
"grad_norm": 0.04684595763683319,
"learning_rate": 0.0001625377643504532,
"loss": 0.0944,
"step": 67
},
{
"epoch": 0.6044444444444445,
"grad_norm": 0.0526355542242527,
"learning_rate": 0.00016193353474320242,
"loss": 0.1067,
"step": 68
},
{
"epoch": 0.6133333333333333,
"grad_norm": 0.05670945346355438,
"learning_rate": 0.00016132930513595165,
"loss": 0.1201,
"step": 69
},
{
"epoch": 0.6222222222222222,
"grad_norm": 0.056082066148519516,
"learning_rate": 0.0001607250755287009,
"loss": 0.1068,
"step": 70
},
{
"epoch": 0.6311111111111111,
"grad_norm": 0.044239770621061325,
"learning_rate": 0.00016012084592145016,
"loss": 0.0701,
"step": 71
},
{
"epoch": 0.64,
"grad_norm": 0.06141743063926697,
"learning_rate": 0.00015951661631419942,
"loss": 0.1047,
"step": 72
},
{
"epoch": 0.6488888888888888,
"grad_norm": 0.06362797319889069,
"learning_rate": 0.00015891238670694865,
"loss": 0.15,
"step": 73
},
{
"epoch": 0.6577777777777778,
"grad_norm": 0.057470619678497314,
"learning_rate": 0.00015830815709969788,
"loss": 0.1157,
"step": 74
},
{
"epoch": 0.6666666666666666,
"grad_norm": 0.057423558086156845,
"learning_rate": 0.00015770392749244713,
"loss": 0.1046,
"step": 75
},
{
"epoch": 0.6755555555555556,
"grad_norm": 0.052142687141895294,
"learning_rate": 0.0001570996978851964,
"loss": 0.0964,
"step": 76
},
{
"epoch": 0.6844444444444444,
"grad_norm": 0.06471661478281021,
"learning_rate": 0.00015649546827794562,
"loss": 0.188,
"step": 77
},
{
"epoch": 0.6933333333333334,
"grad_norm": 0.054023627191782,
"learning_rate": 0.00015589123867069485,
"loss": 0.1177,
"step": 78
},
{
"epoch": 0.7022222222222222,
"grad_norm": 0.051102183759212494,
"learning_rate": 0.0001552870090634441,
"loss": 0.1012,
"step": 79
},
{
"epoch": 0.7111111111111111,
"grad_norm": 0.06166974827647209,
"learning_rate": 0.00015468277945619336,
"loss": 0.1576,
"step": 80
},
{
"epoch": 0.72,
"grad_norm": 0.049090635031461716,
"learning_rate": 0.00015407854984894262,
"loss": 0.1162,
"step": 81
},
{
"epoch": 0.7288888888888889,
"grad_norm": 0.05077630653977394,
"learning_rate": 0.00015347432024169185,
"loss": 0.0921,
"step": 82
},
{
"epoch": 0.7377777777777778,
"grad_norm": 0.0594823993742466,
"learning_rate": 0.00015287009063444108,
"loss": 0.0842,
"step": 83
},
{
"epoch": 0.7466666666666667,
"grad_norm": 0.049247365444898605,
"learning_rate": 0.00015226586102719034,
"loss": 0.087,
"step": 84
},
{
"epoch": 0.7555555555555555,
"grad_norm": 0.058970123529434204,
"learning_rate": 0.0001516616314199396,
"loss": 0.1541,
"step": 85
},
{
"epoch": 0.7644444444444445,
"grad_norm": 0.07077732682228088,
"learning_rate": 0.00015105740181268885,
"loss": 0.1124,
"step": 86
},
{
"epoch": 0.7733333333333333,
"grad_norm": 0.04939179867506027,
"learning_rate": 0.00015045317220543805,
"loss": 0.0978,
"step": 87
},
{
"epoch": 0.7822222222222223,
"grad_norm": 0.06014474108815193,
"learning_rate": 0.0001498489425981873,
"loss": 0.1195,
"step": 88
},
{
"epoch": 0.7911111111111111,
"grad_norm": 0.05583404749631882,
"learning_rate": 0.00014924471299093656,
"loss": 0.141,
"step": 89
},
{
"epoch": 0.8,
"grad_norm": 0.053725555539131165,
"learning_rate": 0.00014864048338368582,
"loss": 0.1149,
"step": 90
},
{
"epoch": 0.8088888888888889,
"grad_norm": 0.044657181948423386,
"learning_rate": 0.00014803625377643505,
"loss": 0.0721,
"step": 91
},
{
"epoch": 0.8177777777777778,
"grad_norm": 0.06342475116252899,
"learning_rate": 0.00014743202416918428,
"loss": 0.1177,
"step": 92
},
{
"epoch": 0.8266666666666667,
"grad_norm": 0.056376609951257706,
"learning_rate": 0.00014682779456193354,
"loss": 0.0976,
"step": 93
},
{
"epoch": 0.8355555555555556,
"grad_norm": 0.05411997064948082,
"learning_rate": 0.0001462235649546828,
"loss": 0.1059,
"step": 94
},
{
"epoch": 0.8444444444444444,
"grad_norm": 0.056368228048086166,
"learning_rate": 0.00014561933534743205,
"loss": 0.1133,
"step": 95
},
{
"epoch": 0.8533333333333334,
"grad_norm": 0.05209295451641083,
"learning_rate": 0.00014501510574018128,
"loss": 0.0996,
"step": 96
},
{
"epoch": 0.8622222222222222,
"grad_norm": 0.054722413420677185,
"learning_rate": 0.0001444108761329305,
"loss": 0.1029,
"step": 97
},
{
"epoch": 0.8711111111111111,
"grad_norm": 0.05473008751869202,
"learning_rate": 0.00014380664652567977,
"loss": 0.1176,
"step": 98
},
{
"epoch": 0.88,
"grad_norm": 0.05287059769034386,
"learning_rate": 0.00014320241691842902,
"loss": 0.0909,
"step": 99
},
{
"epoch": 0.8888888888888888,
"grad_norm": 0.04134868085384369,
"learning_rate": 0.00014259818731117825,
"loss": 0.0673,
"step": 100
},
{
"epoch": 0.8977777777777778,
"grad_norm": 0.048795074224472046,
"learning_rate": 0.00014199395770392748,
"loss": 0.0761,
"step": 101
},
{
"epoch": 0.9066666666666666,
"grad_norm": 0.06269072741270065,
"learning_rate": 0.00014138972809667674,
"loss": 0.1244,
"step": 102
},
{
"epoch": 0.9155555555555556,
"grad_norm": 0.05946790799498558,
"learning_rate": 0.000140785498489426,
"loss": 0.1307,
"step": 103
},
{
"epoch": 0.9244444444444444,
"grad_norm": 0.059073008596897125,
"learning_rate": 0.00014018126888217525,
"loss": 0.1274,
"step": 104
},
{
"epoch": 0.9333333333333333,
"grad_norm": 0.058441124856472015,
"learning_rate": 0.00013957703927492448,
"loss": 0.1185,
"step": 105
},
{
"epoch": 0.9422222222222222,
"grad_norm": 0.06066688522696495,
"learning_rate": 0.0001389728096676737,
"loss": 0.116,
"step": 106
},
{
"epoch": 0.9511111111111111,
"grad_norm": 0.05696433410048485,
"learning_rate": 0.00013836858006042297,
"loss": 0.0981,
"step": 107
},
{
"epoch": 0.96,
"grad_norm": 0.04884543642401695,
"learning_rate": 0.00013776435045317222,
"loss": 0.0844,
"step": 108
},
{
"epoch": 0.9688888888888889,
"grad_norm": 0.05151006579399109,
"learning_rate": 0.00013716012084592145,
"loss": 0.1165,
"step": 109
},
{
"epoch": 0.9777777777777777,
"grad_norm": 0.048714157193899155,
"learning_rate": 0.0001365558912386707,
"loss": 0.0914,
"step": 110
},
{
"epoch": 0.9866666666666667,
"grad_norm": 0.05728358030319214,
"learning_rate": 0.00013595166163141994,
"loss": 0.096,
"step": 111
},
{
"epoch": 0.9955555555555555,
"grad_norm": 0.04793373495340347,
"learning_rate": 0.0001353474320241692,
"loss": 0.0732,
"step": 112
},
{
"epoch": 1.0,
"grad_norm": 0.0691237822175026,
"learning_rate": 0.00013474320241691845,
"loss": 0.0772,
"step": 113
},
{
"epoch": 1.008888888888889,
"grad_norm": 0.059231679886579514,
"learning_rate": 0.00013413897280966768,
"loss": 0.1035,
"step": 114
},
{
"epoch": 1.0177777777777777,
"grad_norm": 0.050710082054138184,
"learning_rate": 0.0001335347432024169,
"loss": 0.0927,
"step": 115
},
{
"epoch": 1.0266666666666666,
"grad_norm": 0.052448518574237823,
"learning_rate": 0.00013293051359516617,
"loss": 0.0927,
"step": 116
},
{
"epoch": 1.0355555555555556,
"grad_norm": 0.05111970752477646,
"learning_rate": 0.00013232628398791543,
"loss": 0.101,
"step": 117
},
{
"epoch": 1.0444444444444445,
"grad_norm": 0.050373584032058716,
"learning_rate": 0.00013172205438066465,
"loss": 0.0958,
"step": 118
},
{
"epoch": 1.0533333333333332,
"grad_norm": 0.053760871291160583,
"learning_rate": 0.0001311178247734139,
"loss": 0.1004,
"step": 119
},
{
"epoch": 1.0622222222222222,
"grad_norm": 0.050390031188726425,
"learning_rate": 0.00013051359516616314,
"loss": 0.098,
"step": 120
},
{
"epoch": 1.0711111111111111,
"grad_norm": 0.056723542511463165,
"learning_rate": 0.0001299093655589124,
"loss": 0.1019,
"step": 121
},
{
"epoch": 1.08,
"grad_norm": 0.05544177070260048,
"learning_rate": 0.00012930513595166163,
"loss": 0.105,
"step": 122
},
{
"epoch": 1.0888888888888888,
"grad_norm": 0.05266315117478371,
"learning_rate": 0.00012870090634441088,
"loss": 0.0852,
"step": 123
},
{
"epoch": 1.0977777777777777,
"grad_norm": 0.05095309391617775,
"learning_rate": 0.0001280966767371601,
"loss": 0.0883,
"step": 124
},
{
"epoch": 1.1066666666666667,
"grad_norm": 0.052665866911411285,
"learning_rate": 0.00012749244712990937,
"loss": 0.0821,
"step": 125
},
{
"epoch": 1.1155555555555556,
"grad_norm": 0.05651025474071503,
"learning_rate": 0.00012688821752265863,
"loss": 0.0923,
"step": 126
},
{
"epoch": 1.1244444444444444,
"grad_norm": 0.053802527487277985,
"learning_rate": 0.00012628398791540786,
"loss": 0.0934,
"step": 127
},
{
"epoch": 1.1333333333333333,
"grad_norm": 0.04798378795385361,
"learning_rate": 0.0001256797583081571,
"loss": 0.0745,
"step": 128
},
{
"epoch": 1.1422222222222222,
"grad_norm": 0.04485182464122772,
"learning_rate": 0.00012507552870090634,
"loss": 0.0687,
"step": 129
},
{
"epoch": 1.1511111111111112,
"grad_norm": 0.05560389533638954,
"learning_rate": 0.0001244712990936556,
"loss": 0.1228,
"step": 130
},
{
"epoch": 1.16,
"grad_norm": 0.053619932383298874,
"learning_rate": 0.00012386706948640483,
"loss": 0.1016,
"step": 131
},
{
"epoch": 1.1688888888888889,
"grad_norm": 0.061660535633563995,
"learning_rate": 0.00012326283987915408,
"loss": 0.1084,
"step": 132
},
{
"epoch": 1.1777777777777778,
"grad_norm": 0.05607709661126137,
"learning_rate": 0.00012265861027190334,
"loss": 0.1173,
"step": 133
},
{
"epoch": 1.1866666666666668,
"grad_norm": 0.06121942773461342,
"learning_rate": 0.00012205438066465258,
"loss": 0.1047,
"step": 134
},
{
"epoch": 1.1955555555555555,
"grad_norm": 0.058909133076667786,
"learning_rate": 0.00012145015105740183,
"loss": 0.0945,
"step": 135
},
{
"epoch": 1.2044444444444444,
"grad_norm": 0.04819121211767197,
"learning_rate": 0.00012084592145015106,
"loss": 0.0814,
"step": 136
},
{
"epoch": 1.2133333333333334,
"grad_norm": 0.052952077239751816,
"learning_rate": 0.0001202416918429003,
"loss": 0.0723,
"step": 137
},
{
"epoch": 1.2222222222222223,
"grad_norm": 0.059440117329359055,
"learning_rate": 0.00011963746223564956,
"loss": 0.1039,
"step": 138
},
{
"epoch": 1.231111111111111,
"grad_norm": 0.06102529540657997,
"learning_rate": 0.0001190332326283988,
"loss": 0.0946,
"step": 139
},
{
"epoch": 1.24,
"grad_norm": 0.05853147804737091,
"learning_rate": 0.00011842900302114803,
"loss": 0.0928,
"step": 140
},
{
"epoch": 1.248888888888889,
"grad_norm": 0.05324235185980797,
"learning_rate": 0.00011782477341389729,
"loss": 0.0656,
"step": 141
},
{
"epoch": 1.2577777777777777,
"grad_norm": 0.060984380543231964,
"learning_rate": 0.00011722054380664653,
"loss": 0.114,
"step": 142
},
{
"epoch": 1.2666666666666666,
"grad_norm": 0.05423833429813385,
"learning_rate": 0.00011661631419939579,
"loss": 0.0758,
"step": 143
},
{
"epoch": 1.2755555555555556,
"grad_norm": 0.05878995731472969,
"learning_rate": 0.00011601208459214503,
"loss": 0.095,
"step": 144
},
{
"epoch": 1.2844444444444445,
"grad_norm": 0.05326640605926514,
"learning_rate": 0.00011540785498489426,
"loss": 0.0893,
"step": 145
},
{
"epoch": 1.2933333333333334,
"grad_norm": 0.045536670833826065,
"learning_rate": 0.00011480362537764352,
"loss": 0.0756,
"step": 146
},
{
"epoch": 1.3022222222222222,
"grad_norm": 0.06222836673259735,
"learning_rate": 0.00011419939577039276,
"loss": 0.0832,
"step": 147
},
{
"epoch": 1.3111111111111111,
"grad_norm": 0.05563228577375412,
"learning_rate": 0.00011359516616314202,
"loss": 0.0987,
"step": 148
},
{
"epoch": 1.32,
"grad_norm": 0.05855840817093849,
"learning_rate": 0.00011299093655589123,
"loss": 0.1012,
"step": 149
},
{
"epoch": 1.3288888888888888,
"grad_norm": 0.06626389175653458,
"learning_rate": 0.00011238670694864049,
"loss": 0.1326,
"step": 150
},
{
"epoch": 1.3377777777777777,
"grad_norm": 0.050519317388534546,
"learning_rate": 0.00011178247734138973,
"loss": 0.0673,
"step": 151
},
{
"epoch": 1.3466666666666667,
"grad_norm": 0.057173047214746475,
"learning_rate": 0.00011117824773413899,
"loss": 0.0813,
"step": 152
},
{
"epoch": 1.3555555555555556,
"grad_norm": 0.04732273891568184,
"learning_rate": 0.00011057401812688822,
"loss": 0.0611,
"step": 153
},
{
"epoch": 1.3644444444444446,
"grad_norm": 0.058079130947589874,
"learning_rate": 0.00010996978851963746,
"loss": 0.111,
"step": 154
},
{
"epoch": 1.3733333333333333,
"grad_norm": 0.054955486208200455,
"learning_rate": 0.00010936555891238672,
"loss": 0.0819,
"step": 155
},
{
"epoch": 1.3822222222222222,
"grad_norm": 0.06241566315293312,
"learning_rate": 0.00010876132930513596,
"loss": 0.0897,
"step": 156
},
{
"epoch": 1.3911111111111112,
"grad_norm": 0.06284183263778687,
"learning_rate": 0.00010815709969788522,
"loss": 0.0995,
"step": 157
},
{
"epoch": 1.4,
"grad_norm": 0.05234519764780998,
"learning_rate": 0.00010755287009063443,
"loss": 0.0886,
"step": 158
},
{
"epoch": 1.4088888888888889,
"grad_norm": 0.05802811682224274,
"learning_rate": 0.00010694864048338369,
"loss": 0.0867,
"step": 159
},
{
"epoch": 1.4177777777777778,
"grad_norm": 0.05341397225856781,
"learning_rate": 0.00010634441087613293,
"loss": 0.0822,
"step": 160
},
{
"epoch": 1.4266666666666667,
"grad_norm": 0.07113339751958847,
"learning_rate": 0.00010574018126888219,
"loss": 0.1002,
"step": 161
},
{
"epoch": 1.4355555555555555,
"grad_norm": 0.06063013896346092,
"learning_rate": 0.00010513595166163142,
"loss": 0.0981,
"step": 162
},
{
"epoch": 1.4444444444444444,
"grad_norm": 0.06280765682458878,
"learning_rate": 0.00010453172205438066,
"loss": 0.0872,
"step": 163
},
{
"epoch": 1.4533333333333334,
"grad_norm": 0.053992606699466705,
"learning_rate": 0.00010392749244712992,
"loss": 0.0811,
"step": 164
},
{
"epoch": 1.462222222222222,
"grad_norm": 0.06484760344028473,
"learning_rate": 0.00010332326283987916,
"loss": 0.1499,
"step": 165
},
{
"epoch": 1.471111111111111,
"grad_norm": 0.04423009976744652,
"learning_rate": 0.00010271903323262842,
"loss": 0.0587,
"step": 166
},
{
"epoch": 1.48,
"grad_norm": 0.05195729061961174,
"learning_rate": 0.00010211480362537765,
"loss": 0.0756,
"step": 167
},
{
"epoch": 1.488888888888889,
"grad_norm": 0.07213317602872849,
"learning_rate": 0.00010151057401812689,
"loss": 0.1274,
"step": 168
},
{
"epoch": 1.4977777777777779,
"grad_norm": 0.07075338065624237,
"learning_rate": 0.00010090634441087615,
"loss": 0.1482,
"step": 169
},
{
"epoch": 1.5066666666666668,
"grad_norm": 0.05478464439511299,
"learning_rate": 0.00010030211480362539,
"loss": 0.0757,
"step": 170
},
{
"epoch": 1.5155555555555555,
"grad_norm": 0.05618472024798393,
"learning_rate": 9.969788519637463e-05,
"loss": 0.0809,
"step": 171
},
{
"epoch": 1.5244444444444445,
"grad_norm": 0.05127232149243355,
"learning_rate": 9.909365558912386e-05,
"loss": 0.0738,
"step": 172
},
{
"epoch": 1.5333333333333332,
"grad_norm": 0.05737868323922157,
"learning_rate": 9.848942598187312e-05,
"loss": 0.0944,
"step": 173
},
{
"epoch": 1.5422222222222222,
"grad_norm": 0.05908210948109627,
"learning_rate": 9.788519637462236e-05,
"loss": 0.0892,
"step": 174
},
{
"epoch": 1.551111111111111,
"grad_norm": 0.04666788876056671,
"learning_rate": 9.72809667673716e-05,
"loss": 0.059,
"step": 175
},
{
"epoch": 1.56,
"grad_norm": 0.06086019426584244,
"learning_rate": 9.667673716012086e-05,
"loss": 0.0967,
"step": 176
},
{
"epoch": 1.568888888888889,
"grad_norm": 0.07607266306877136,
"learning_rate": 9.607250755287009e-05,
"loss": 0.1171,
"step": 177
},
{
"epoch": 1.5777777777777777,
"grad_norm": 0.05511125177145004,
"learning_rate": 9.546827794561935e-05,
"loss": 0.0803,
"step": 178
},
{
"epoch": 1.5866666666666667,
"grad_norm": 0.04639158770442009,
"learning_rate": 9.486404833836858e-05,
"loss": 0.0552,
"step": 179
},
{
"epoch": 1.5955555555555554,
"grad_norm": 0.06064977869391441,
"learning_rate": 9.425981873111783e-05,
"loss": 0.1009,
"step": 180
},
{
"epoch": 1.6044444444444443,
"grad_norm": 0.0693751648068428,
"learning_rate": 9.365558912386708e-05,
"loss": 0.1033,
"step": 181
},
{
"epoch": 1.6133333333333333,
"grad_norm": 0.060564182698726654,
"learning_rate": 9.305135951661632e-05,
"loss": 0.0783,
"step": 182
},
{
"epoch": 1.6222222222222222,
"grad_norm": 0.051936618983745575,
"learning_rate": 9.244712990936556e-05,
"loss": 0.0789,
"step": 183
},
{
"epoch": 1.6311111111111112,
"grad_norm": 0.0632539689540863,
"learning_rate": 9.184290030211481e-05,
"loss": 0.1033,
"step": 184
},
{
"epoch": 1.6400000000000001,
"grad_norm": 0.06275516003370285,
"learning_rate": 9.123867069486405e-05,
"loss": 0.0837,
"step": 185
},
{
"epoch": 1.6488888888888888,
"grad_norm": 0.07486943155527115,
"learning_rate": 9.063444108761329e-05,
"loss": 0.1463,
"step": 186
},
{
"epoch": 1.6577777777777778,
"grad_norm": 0.061665549874305725,
"learning_rate": 9.003021148036255e-05,
"loss": 0.0962,
"step": 187
},
{
"epoch": 1.6666666666666665,
"grad_norm": 0.058605264872312546,
"learning_rate": 8.942598187311179e-05,
"loss": 0.0903,
"step": 188
},
{
"epoch": 1.6755555555555555,
"grad_norm": 0.05885601043701172,
"learning_rate": 8.882175226586104e-05,
"loss": 0.0792,
"step": 189
},
{
"epoch": 1.6844444444444444,
"grad_norm": 0.06224210560321808,
"learning_rate": 8.821752265861028e-05,
"loss": 0.0985,
"step": 190
},
{
"epoch": 1.6933333333333334,
"grad_norm": 0.0739174336194992,
"learning_rate": 8.761329305135952e-05,
"loss": 0.1079,
"step": 191
},
{
"epoch": 1.7022222222222223,
"grad_norm": 0.06836007535457611,
"learning_rate": 8.700906344410877e-05,
"loss": 0.122,
"step": 192
},
{
"epoch": 1.7111111111111112,
"grad_norm": 0.06372584402561188,
"learning_rate": 8.640483383685801e-05,
"loss": 0.1006,
"step": 193
},
{
"epoch": 1.72,
"grad_norm": 0.05704513192176819,
"learning_rate": 8.580060422960725e-05,
"loss": 0.0856,
"step": 194
},
{
"epoch": 1.728888888888889,
"grad_norm": 0.06607326865196228,
"learning_rate": 8.51963746223565e-05,
"loss": 0.0851,
"step": 195
},
{
"epoch": 1.7377777777777776,
"grad_norm": 0.06291351467370987,
"learning_rate": 8.459214501510574e-05,
"loss": 0.1026,
"step": 196
},
{
"epoch": 1.7466666666666666,
"grad_norm": 0.055036935955286026,
"learning_rate": 8.3987915407855e-05,
"loss": 0.0721,
"step": 197
},
{
"epoch": 1.7555555555555555,
"grad_norm": 0.06576612591743469,
"learning_rate": 8.338368580060424e-05,
"loss": 0.1199,
"step": 198
},
{
"epoch": 1.7644444444444445,
"grad_norm": 0.0656011551618576,
"learning_rate": 8.277945619335348e-05,
"loss": 0.0947,
"step": 199
},
{
"epoch": 1.7733333333333334,
"grad_norm": 0.05662452057003975,
"learning_rate": 8.217522658610272e-05,
"loss": 0.0783,
"step": 200
},
{
"epoch": 1.7822222222222224,
"grad_norm": 0.05521798133850098,
"learning_rate": 8.157099697885197e-05,
"loss": 0.0635,
"step": 201
},
{
"epoch": 1.791111111111111,
"grad_norm": 0.06891798228025436,
"learning_rate": 8.096676737160121e-05,
"loss": 0.1013,
"step": 202
},
{
"epoch": 1.8,
"grad_norm": 0.06973979622125626,
"learning_rate": 8.036253776435045e-05,
"loss": 0.0787,
"step": 203
},
{
"epoch": 1.8088888888888888,
"grad_norm": 0.06616077572107315,
"learning_rate": 7.975830815709971e-05,
"loss": 0.0817,
"step": 204
},
{
"epoch": 1.8177777777777777,
"grad_norm": 0.06029290705919266,
"learning_rate": 7.915407854984894e-05,
"loss": 0.0806,
"step": 205
},
{
"epoch": 1.8266666666666667,
"grad_norm": 0.06291759759187698,
"learning_rate": 7.85498489425982e-05,
"loss": 0.087,
"step": 206
},
{
"epoch": 1.8355555555555556,
"grad_norm": 0.05678003653883934,
"learning_rate": 7.794561933534742e-05,
"loss": 0.0738,
"step": 207
},
{
"epoch": 1.8444444444444446,
"grad_norm": 0.05496233329176903,
"learning_rate": 7.734138972809668e-05,
"loss": 0.0835,
"step": 208
},
{
"epoch": 1.8533333333333335,
"grad_norm": 0.057058099657297134,
"learning_rate": 7.673716012084592e-05,
"loss": 0.0764,
"step": 209
},
{
"epoch": 1.8622222222222222,
"grad_norm": 0.05875209718942642,
"learning_rate": 7.613293051359517e-05,
"loss": 0.0734,
"step": 210
},
{
"epoch": 1.871111111111111,
"grad_norm": 0.06268563121557236,
"learning_rate": 7.552870090634442e-05,
"loss": 0.0791,
"step": 211
},
{
"epoch": 1.88,
"grad_norm": 0.08160948008298874,
"learning_rate": 7.492447129909365e-05,
"loss": 0.1602,
"step": 212
},
{
"epoch": 1.8888888888888888,
"grad_norm": 0.06325849145650864,
"learning_rate": 7.432024169184291e-05,
"loss": 0.0955,
"step": 213
},
{
"epoch": 1.8977777777777778,
"grad_norm": 0.06835322082042694,
"learning_rate": 7.371601208459214e-05,
"loss": 0.1167,
"step": 214
},
{
"epoch": 1.9066666666666667,
"grad_norm": 0.06621617823839188,
"learning_rate": 7.31117824773414e-05,
"loss": 0.104,
"step": 215
},
{
"epoch": 1.9155555555555557,
"grad_norm": 0.0520428791642189,
"learning_rate": 7.250755287009064e-05,
"loss": 0.0595,
"step": 216
},
{
"epoch": 1.9244444444444444,
"grad_norm": 0.05874223634600639,
"learning_rate": 7.190332326283988e-05,
"loss": 0.0734,
"step": 217
},
{
"epoch": 1.9333333333333333,
"grad_norm": 0.06542330980300903,
"learning_rate": 7.129909365558913e-05,
"loss": 0.0957,
"step": 218
},
{
"epoch": 1.942222222222222,
"grad_norm": 0.05599142238497734,
"learning_rate": 7.069486404833837e-05,
"loss": 0.0804,
"step": 219
},
{
"epoch": 1.951111111111111,
"grad_norm": 0.058727771043777466,
"learning_rate": 7.009063444108763e-05,
"loss": 0.0812,
"step": 220
},
{
"epoch": 1.96,
"grad_norm": 0.050783053040504456,
"learning_rate": 6.948640483383686e-05,
"loss": 0.073,
"step": 221
},
{
"epoch": 1.968888888888889,
"grad_norm": 0.058176856487989426,
"learning_rate": 6.888217522658611e-05,
"loss": 0.0941,
"step": 222
},
{
"epoch": 1.9777777777777779,
"grad_norm": 0.06019238755106926,
"learning_rate": 6.827794561933535e-05,
"loss": 0.0804,
"step": 223
},
{
"epoch": 1.9866666666666668,
"grad_norm": 0.052067600190639496,
"learning_rate": 6.76737160120846e-05,
"loss": 0.0664,
"step": 224
},
{
"epoch": 1.9955555555555555,
"grad_norm": 0.05987400561571121,
"learning_rate": 6.706948640483384e-05,
"loss": 0.087,
"step": 225
},
{
"epoch": 2.0,
"grad_norm": 0.08068395406007767,
"learning_rate": 6.646525679758308e-05,
"loss": 0.0728,
"step": 226
},
{
"epoch": 2.008888888888889,
"grad_norm": 0.056796178221702576,
"learning_rate": 6.586102719033233e-05,
"loss": 0.0844,
"step": 227
},
{
"epoch": 2.017777777777778,
"grad_norm": 0.05155782401561737,
"learning_rate": 6.525679758308157e-05,
"loss": 0.0668,
"step": 228
},
{
"epoch": 2.026666666666667,
"grad_norm": 0.050025951117277145,
"learning_rate": 6.465256797583081e-05,
"loss": 0.0632,
"step": 229
},
{
"epoch": 2.0355555555555553,
"grad_norm": 0.06146937608718872,
"learning_rate": 6.404833836858006e-05,
"loss": 0.1061,
"step": 230
},
{
"epoch": 2.0444444444444443,
"grad_norm": 0.05745534226298332,
"learning_rate": 6.344410876132931e-05,
"loss": 0.0775,
"step": 231
},
{
"epoch": 2.0533333333333332,
"grad_norm": 0.058149635791778564,
"learning_rate": 6.283987915407856e-05,
"loss": 0.0812,
"step": 232
},
{
"epoch": 2.062222222222222,
"grad_norm": 0.052630528807640076,
"learning_rate": 6.22356495468278e-05,
"loss": 0.0715,
"step": 233
},
{
"epoch": 2.071111111111111,
"grad_norm": 0.053744129836559296,
"learning_rate": 6.163141993957704e-05,
"loss": 0.064,
"step": 234
},
{
"epoch": 2.08,
"grad_norm": 0.05753091350197792,
"learning_rate": 6.102719033232629e-05,
"loss": 0.0769,
"step": 235
},
{
"epoch": 2.088888888888889,
"grad_norm": 0.06525509059429169,
"learning_rate": 6.042296072507553e-05,
"loss": 0.0861,
"step": 236
},
{
"epoch": 2.097777777777778,
"grad_norm": 0.060992028564214706,
"learning_rate": 5.981873111782478e-05,
"loss": 0.0916,
"step": 237
},
{
"epoch": 2.1066666666666665,
"grad_norm": 0.05694571137428284,
"learning_rate": 5.9214501510574015e-05,
"loss": 0.0718,
"step": 238
},
{
"epoch": 2.1155555555555554,
"grad_norm": 0.06200471892952919,
"learning_rate": 5.8610271903323265e-05,
"loss": 0.0765,
"step": 239
},
{
"epoch": 2.1244444444444444,
"grad_norm": 0.07638643682003021,
"learning_rate": 5.8006042296072515e-05,
"loss": 0.1205,
"step": 240
},
{
"epoch": 2.1333333333333333,
"grad_norm": 0.05985346809029579,
"learning_rate": 5.740181268882176e-05,
"loss": 0.0633,
"step": 241
},
{
"epoch": 2.1422222222222222,
"grad_norm": 0.06811255216598511,
"learning_rate": 5.679758308157101e-05,
"loss": 0.0716,
"step": 242
},
{
"epoch": 2.151111111111111,
"grad_norm": 0.07051990926265717,
"learning_rate": 5.6193353474320244e-05,
"loss": 0.0985,
"step": 243
},
{
"epoch": 2.16,
"grad_norm": 0.06572071462869644,
"learning_rate": 5.5589123867069494e-05,
"loss": 0.0645,
"step": 244
},
{
"epoch": 2.168888888888889,
"grad_norm": 0.06567268073558807,
"learning_rate": 5.498489425981873e-05,
"loss": 0.0602,
"step": 245
},
{
"epoch": 2.1777777777777776,
"grad_norm": 0.0646674782037735,
"learning_rate": 5.438066465256798e-05,
"loss": 0.0679,
"step": 246
},
{
"epoch": 2.1866666666666665,
"grad_norm": 0.06456337124109268,
"learning_rate": 5.3776435045317216e-05,
"loss": 0.0706,
"step": 247
},
{
"epoch": 2.1955555555555555,
"grad_norm": 0.07218114286661148,
"learning_rate": 5.3172205438066466e-05,
"loss": 0.076,
"step": 248
},
{
"epoch": 2.2044444444444444,
"grad_norm": 0.07510354369878769,
"learning_rate": 5.256797583081571e-05,
"loss": 0.0817,
"step": 249
},
{
"epoch": 2.2133333333333334,
"grad_norm": 0.07315120100975037,
"learning_rate": 5.196374622356496e-05,
"loss": 0.0725,
"step": 250
},
{
"epoch": 2.2222222222222223,
"grad_norm": 0.08618611097335815,
"learning_rate": 5.135951661631421e-05,
"loss": 0.099,
"step": 251
},
{
"epoch": 2.2311111111111113,
"grad_norm": 0.07698719948530197,
"learning_rate": 5.0755287009063445e-05,
"loss": 0.0878,
"step": 252
},
{
"epoch": 2.24,
"grad_norm": 0.06022505462169647,
"learning_rate": 5.0151057401812695e-05,
"loss": 0.0558,
"step": 253
},
{
"epoch": 2.2488888888888887,
"grad_norm": 0.06770103424787521,
"learning_rate": 4.954682779456193e-05,
"loss": 0.0729,
"step": 254
},
{
"epoch": 2.2577777777777777,
"grad_norm": 0.08226872980594635,
"learning_rate": 4.894259818731118e-05,
"loss": 0.0953,
"step": 255
},
{
"epoch": 2.2666666666666666,
"grad_norm": 0.07327685505151749,
"learning_rate": 4.833836858006043e-05,
"loss": 0.088,
"step": 256
},
{
"epoch": 2.2755555555555556,
"grad_norm": 0.0711284875869751,
"learning_rate": 4.7734138972809674e-05,
"loss": 0.0689,
"step": 257
},
{
"epoch": 2.2844444444444445,
"grad_norm": 0.08122266829013824,
"learning_rate": 4.712990936555892e-05,
"loss": 0.1304,
"step": 258
},
{
"epoch": 2.2933333333333334,
"grad_norm": 0.06601269543170929,
"learning_rate": 4.652567975830816e-05,
"loss": 0.0544,
"step": 259
},
{
"epoch": 2.3022222222222224,
"grad_norm": 0.08035172522068024,
"learning_rate": 4.5921450151057403e-05,
"loss": 0.0809,
"step": 260
},
{
"epoch": 2.311111111111111,
"grad_norm": 0.07023400068283081,
"learning_rate": 4.5317220543806646e-05,
"loss": 0.0719,
"step": 261
},
{
"epoch": 2.32,
"grad_norm": 0.07323497533798218,
"learning_rate": 4.4712990936555896e-05,
"loss": 0.0757,
"step": 262
},
{
"epoch": 2.328888888888889,
"grad_norm": 0.0711096003651619,
"learning_rate": 4.410876132930514e-05,
"loss": 0.079,
"step": 263
},
{
"epoch": 2.3377777777777777,
"grad_norm": 0.08337131887674332,
"learning_rate": 4.350453172205438e-05,
"loss": 0.0863,
"step": 264
},
{
"epoch": 2.3466666666666667,
"grad_norm": 0.06306735426187515,
"learning_rate": 4.2900302114803626e-05,
"loss": 0.0544,
"step": 265
},
{
"epoch": 2.3555555555555556,
"grad_norm": 0.06520617753267288,
"learning_rate": 4.229607250755287e-05,
"loss": 0.0492,
"step": 266
},
{
"epoch": 2.3644444444444446,
"grad_norm": 0.07521840184926987,
"learning_rate": 4.169184290030212e-05,
"loss": 0.0817,
"step": 267
},
{
"epoch": 2.3733333333333335,
"grad_norm": 0.11388452351093292,
"learning_rate": 4.108761329305136e-05,
"loss": 0.1195,
"step": 268
},
{
"epoch": 2.3822222222222225,
"grad_norm": 0.0842316523194313,
"learning_rate": 4.0483383685800605e-05,
"loss": 0.0697,
"step": 269
},
{
"epoch": 2.391111111111111,
"grad_norm": 0.0726594477891922,
"learning_rate": 3.9879154078549855e-05,
"loss": 0.0685,
"step": 270
},
{
"epoch": 2.4,
"grad_norm": 0.07490499317646027,
"learning_rate": 3.92749244712991e-05,
"loss": 0.0753,
"step": 271
},
{
"epoch": 2.408888888888889,
"grad_norm": 0.08467234671115875,
"learning_rate": 3.867069486404834e-05,
"loss": 0.0902,
"step": 272
},
{
"epoch": 2.417777777777778,
"grad_norm": 0.07775551825761795,
"learning_rate": 3.8066465256797584e-05,
"loss": 0.0749,
"step": 273
},
{
"epoch": 2.4266666666666667,
"grad_norm": 0.07680890709161758,
"learning_rate": 3.746223564954683e-05,
"loss": 0.0839,
"step": 274
},
{
"epoch": 2.4355555555555557,
"grad_norm": 0.07432601600885391,
"learning_rate": 3.685800604229607e-05,
"loss": 0.0718,
"step": 275
},
{
"epoch": 2.4444444444444446,
"grad_norm": 0.0697220042347908,
"learning_rate": 3.625377643504532e-05,
"loss": 0.0581,
"step": 276
},
{
"epoch": 2.453333333333333,
"grad_norm": 0.0710417628288269,
"learning_rate": 3.564954682779456e-05,
"loss": 0.0741,
"step": 277
},
{
"epoch": 2.462222222222222,
"grad_norm": 0.07673481106758118,
"learning_rate": 3.504531722054381e-05,
"loss": 0.0792,
"step": 278
},
{
"epoch": 2.471111111111111,
"grad_norm": 0.07718473672866821,
"learning_rate": 3.4441087613293056e-05,
"loss": 0.0786,
"step": 279
},
{
"epoch": 2.48,
"grad_norm": 0.0753309354186058,
"learning_rate": 3.38368580060423e-05,
"loss": 0.0651,
"step": 280
},
{
"epoch": 2.488888888888889,
"grad_norm": 0.06466688960790634,
"learning_rate": 3.323262839879154e-05,
"loss": 0.0662,
"step": 281
},
{
"epoch": 2.497777777777778,
"grad_norm": 0.06847023218870163,
"learning_rate": 3.2628398791540785e-05,
"loss": 0.0606,
"step": 282
},
{
"epoch": 2.506666666666667,
"grad_norm": 0.08267179876565933,
"learning_rate": 3.202416918429003e-05,
"loss": 0.0963,
"step": 283
},
{
"epoch": 2.5155555555555553,
"grad_norm": 0.07589060813188553,
"learning_rate": 3.141993957703928e-05,
"loss": 0.0811,
"step": 284
},
{
"epoch": 2.5244444444444447,
"grad_norm": 0.07186582684516907,
"learning_rate": 3.081570996978852e-05,
"loss": 0.0727,
"step": 285
},
{
"epoch": 2.533333333333333,
"grad_norm": 0.06798484176397324,
"learning_rate": 3.0211480362537764e-05,
"loss": 0.0683,
"step": 286
},
{
"epoch": 2.542222222222222,
"grad_norm": 0.06041852384805679,
"learning_rate": 2.9607250755287007e-05,
"loss": 0.0549,
"step": 287
},
{
"epoch": 2.551111111111111,
"grad_norm": 0.07672443240880966,
"learning_rate": 2.9003021148036257e-05,
"loss": 0.0835,
"step": 288
},
{
"epoch": 2.56,
"grad_norm": 0.06650765985250473,
"learning_rate": 2.8398791540785504e-05,
"loss": 0.0625,
"step": 289
},
{
"epoch": 2.568888888888889,
"grad_norm": 0.07676387578248978,
"learning_rate": 2.7794561933534747e-05,
"loss": 0.0804,
"step": 290
},
{
"epoch": 2.5777777777777775,
"grad_norm": 0.06516220420598984,
"learning_rate": 2.719033232628399e-05,
"loss": 0.0558,
"step": 291
},
{
"epoch": 2.586666666666667,
"grad_norm": 0.06658012419939041,
"learning_rate": 2.6586102719033233e-05,
"loss": 0.0656,
"step": 292
},
{
"epoch": 2.5955555555555554,
"grad_norm": 0.06700943410396576,
"learning_rate": 2.598187311178248e-05,
"loss": 0.0652,
"step": 293
},
{
"epoch": 2.6044444444444443,
"grad_norm": 0.08271019905805588,
"learning_rate": 2.5377643504531723e-05,
"loss": 0.0939,
"step": 294
},
{
"epoch": 2.6133333333333333,
"grad_norm": 0.06946663558483124,
"learning_rate": 2.4773413897280966e-05,
"loss": 0.0608,
"step": 295
},
{
"epoch": 2.6222222222222222,
"grad_norm": 0.06652197986841202,
"learning_rate": 2.4169184290030216e-05,
"loss": 0.063,
"step": 296
},
{
"epoch": 2.631111111111111,
"grad_norm": 0.05776477977633476,
"learning_rate": 2.356495468277946e-05,
"loss": 0.0519,
"step": 297
},
{
"epoch": 2.64,
"grad_norm": 0.06055834889411926,
"learning_rate": 2.2960725075528702e-05,
"loss": 0.0587,
"step": 298
},
{
"epoch": 2.648888888888889,
"grad_norm": 0.0723641887307167,
"learning_rate": 2.2356495468277948e-05,
"loss": 0.0673,
"step": 299
},
{
"epoch": 2.6577777777777776,
"grad_norm": 0.06614179909229279,
"learning_rate": 2.175226586102719e-05,
"loss": 0.0609,
"step": 300
},
{
"epoch": 2.6666666666666665,
"grad_norm": 0.07408380508422852,
"learning_rate": 2.1148036253776434e-05,
"loss": 0.073,
"step": 301
},
{
"epoch": 2.6755555555555555,
"grad_norm": 0.08053004741668701,
"learning_rate": 2.054380664652568e-05,
"loss": 0.084,
"step": 302
},
{
"epoch": 2.6844444444444444,
"grad_norm": 0.061500728130340576,
"learning_rate": 1.9939577039274927e-05,
"loss": 0.0478,
"step": 303
},
{
"epoch": 2.6933333333333334,
"grad_norm": 0.06272031366825104,
"learning_rate": 1.933534743202417e-05,
"loss": 0.0557,
"step": 304
},
{
"epoch": 2.7022222222222223,
"grad_norm": 0.08150549232959747,
"learning_rate": 1.8731117824773413e-05,
"loss": 0.0878,
"step": 305
},
{
"epoch": 2.7111111111111112,
"grad_norm": 0.08058076351881027,
"learning_rate": 1.812688821752266e-05,
"loss": 0.0708,
"step": 306
},
{
"epoch": 2.7199999999999998,
"grad_norm": 0.07689347863197327,
"learning_rate": 1.7522658610271906e-05,
"loss": 0.0827,
"step": 307
},
{
"epoch": 2.728888888888889,
"grad_norm": 0.07880861312150955,
"learning_rate": 1.691842900302115e-05,
"loss": 0.1007,
"step": 308
},
{
"epoch": 2.7377777777777776,
"grad_norm": 0.0824202448129654,
"learning_rate": 1.6314199395770393e-05,
"loss": 0.0773,
"step": 309
},
{
"epoch": 2.7466666666666666,
"grad_norm": 0.07320031523704529,
"learning_rate": 1.570996978851964e-05,
"loss": 0.0742,
"step": 310
},
{
"epoch": 2.7555555555555555,
"grad_norm": 0.0690142959356308,
"learning_rate": 1.5105740181268882e-05,
"loss": 0.0557,
"step": 311
},
{
"epoch": 2.7644444444444445,
"grad_norm": 0.062487728893756866,
"learning_rate": 1.4501510574018129e-05,
"loss": 0.0624,
"step": 312
},
{
"epoch": 2.7733333333333334,
"grad_norm": 0.07230405509471893,
"learning_rate": 1.3897280966767373e-05,
"loss": 0.0713,
"step": 313
},
{
"epoch": 2.7822222222222224,
"grad_norm": 0.08470380306243896,
"learning_rate": 1.3293051359516617e-05,
"loss": 0.1038,
"step": 314
},
{
"epoch": 2.7911111111111113,
"grad_norm": 0.06646347045898438,
"learning_rate": 1.2688821752265861e-05,
"loss": 0.0612,
"step": 315
},
{
"epoch": 2.8,
"grad_norm": 0.07566383481025696,
"learning_rate": 1.2084592145015108e-05,
"loss": 0.0645,
"step": 316
},
{
"epoch": 2.8088888888888888,
"grad_norm": 0.07404222339391708,
"learning_rate": 1.1480362537764351e-05,
"loss": 0.0677,
"step": 317
},
{
"epoch": 2.8177777777777777,
"grad_norm": 0.07574770599603653,
"learning_rate": 1.0876132930513596e-05,
"loss": 0.0828,
"step": 318
},
{
"epoch": 2.8266666666666667,
"grad_norm": 0.08625300973653793,
"learning_rate": 1.027190332326284e-05,
"loss": 0.0852,
"step": 319
},
{
"epoch": 2.8355555555555556,
"grad_norm": 0.0686657726764679,
"learning_rate": 9.667673716012085e-06,
"loss": 0.0584,
"step": 320
},
{
"epoch": 2.8444444444444446,
"grad_norm": 0.0677306279540062,
"learning_rate": 9.06344410876133e-06,
"loss": 0.0712,
"step": 321
},
{
"epoch": 2.8533333333333335,
"grad_norm": 0.06888636946678162,
"learning_rate": 8.459214501510575e-06,
"loss": 0.0703,
"step": 322
},
{
"epoch": 2.862222222222222,
"grad_norm": 0.06507274508476257,
"learning_rate": 7.85498489425982e-06,
"loss": 0.0594,
"step": 323
},
{
"epoch": 2.871111111111111,
"grad_norm": 0.07514124363660812,
"learning_rate": 7.250755287009064e-06,
"loss": 0.0753,
"step": 324
},
{
"epoch": 2.88,
"grad_norm": 0.0745137482881546,
"learning_rate": 6.646525679758308e-06,
"loss": 0.0802,
"step": 325
},
{
"epoch": 2.888888888888889,
"grad_norm": 0.07600755989551544,
"learning_rate": 6.042296072507554e-06,
"loss": 0.0763,
"step": 326
},
{
"epoch": 2.897777777777778,
"grad_norm": 0.05982338637113571,
"learning_rate": 5.438066465256798e-06,
"loss": 0.0496,
"step": 327
},
{
"epoch": 2.9066666666666667,
"grad_norm": 0.06928596645593643,
"learning_rate": 4.833836858006043e-06,
"loss": 0.0626,
"step": 328
},
{
"epoch": 2.9155555555555557,
"grad_norm": 0.06719228625297546,
"learning_rate": 4.229607250755287e-06,
"loss": 0.0644,
"step": 329
},
{
"epoch": 2.924444444444444,
"grad_norm": 0.06885026395320892,
"learning_rate": 3.625377643504532e-06,
"loss": 0.0723,
"step": 330
},
{
"epoch": 2.9333333333333336,
"grad_norm": 0.07556895166635513,
"learning_rate": 3.021148036253777e-06,
"loss": 0.0746,
"step": 331
},
{
"epoch": 2.942222222222222,
"grad_norm": 0.08047506213188171,
"learning_rate": 2.4169184290030213e-06,
"loss": 0.0876,
"step": 332
},
{
"epoch": 2.951111111111111,
"grad_norm": 0.08711687475442886,
"learning_rate": 1.812688821752266e-06,
"loss": 0.1013,
"step": 333
},
{
"epoch": 2.96,
"grad_norm": 0.07905985414981842,
"learning_rate": 1.2084592145015106e-06,
"loss": 0.0794,
"step": 334
},
{
"epoch": 2.968888888888889,
"grad_norm": 0.0679263323545456,
"learning_rate": 6.042296072507553e-07,
"loss": 0.0551,
"step": 335
},
{
"epoch": 2.977777777777778,
"grad_norm": 0.07112424075603485,
"learning_rate": 0.0,
"loss": 0.0743,
"step": 336
}
],
"logging_steps": 1,
"max_steps": 336,
"num_input_tokens_seen": 0,
"num_train_epochs": 3,
"save_steps": 500,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": true
},
"attributes": {}
}
},
"total_flos": 3.934810290318336e+17,
"train_batch_size": 2,
"trial_name": null,
"trial_params": null
}