{ "best_metric": null, "best_model_checkpoint": null, "epoch": 1.3906666666666667, "eval_steps": 500, "global_step": 3000, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.0003333333333333333, "grad_norm": 3.953395366668701, "learning_rate": 1.6666666666666668e-07, "loss": 0.9747, "step": 1 }, { "epoch": 0.0006666666666666666, "grad_norm": 3.7105355262756348, "learning_rate": 3.3333333333333335e-07, "loss": 0.8304, "step": 2 }, { "epoch": 0.001, "grad_norm": 6.670517444610596, "learning_rate": 5.000000000000001e-07, "loss": 0.9317, "step": 3 }, { "epoch": 0.0013333333333333333, "grad_norm": 4.584139347076416, "learning_rate": 6.666666666666667e-07, "loss": 0.9126, "step": 4 }, { "epoch": 0.0016666666666666668, "grad_norm": 3.9163777828216553, "learning_rate": 8.333333333333333e-07, "loss": 0.8644, "step": 5 }, { "epoch": 0.002, "grad_norm": 3.7514755725860596, "learning_rate": 1.0000000000000002e-06, "loss": 0.8892, "step": 6 }, { "epoch": 0.0023333333333333335, "grad_norm": 3.733147621154785, "learning_rate": 1.1666666666666668e-06, "loss": 0.8965, "step": 7 }, { "epoch": 0.0026666666666666666, "grad_norm": 3.3413407802581787, "learning_rate": 1.3333333333333334e-06, "loss": 0.7998, "step": 8 }, { "epoch": 0.003, "grad_norm": 2.669220447540283, "learning_rate": 1.5e-06, "loss": 0.7651, "step": 9 }, { "epoch": 0.0033333333333333335, "grad_norm": 2.563971757888794, "learning_rate": 1.6666666666666667e-06, "loss": 0.7428, "step": 10 }, { "epoch": 0.0036666666666666666, "grad_norm": 3.6352648735046387, "learning_rate": 1.8333333333333335e-06, "loss": 0.7849, "step": 11 }, { "epoch": 0.004, "grad_norm": 2.3276443481445312, "learning_rate": 2.0000000000000003e-06, "loss": 0.6952, "step": 12 }, { "epoch": 0.004333333333333333, "grad_norm": 2.1801578998565674, "learning_rate": 2.166666666666667e-06, "loss": 0.73, "step": 13 }, { "epoch": 0.004666666666666667, "grad_norm": 2.4430813789367676, "learning_rate": 2.3333333333333336e-06, "loss": 0.7127, "step": 14 }, { "epoch": 0.005, "grad_norm": 2.101902961730957, "learning_rate": 2.5e-06, "loss": 0.7021, "step": 15 }, { "epoch": 0.005333333333333333, "grad_norm": 1.8234139680862427, "learning_rate": 2.666666666666667e-06, "loss": 0.6086, "step": 16 }, { "epoch": 0.005666666666666667, "grad_norm": 1.7481471300125122, "learning_rate": 2.8333333333333335e-06, "loss": 0.565, "step": 17 }, { "epoch": 0.006, "grad_norm": 1.9656072854995728, "learning_rate": 3e-06, "loss": 0.6514, "step": 18 }, { "epoch": 0.006333333333333333, "grad_norm": 2.0986952781677246, "learning_rate": 3.166666666666667e-06, "loss": 0.6746, "step": 19 }, { "epoch": 0.006666666666666667, "grad_norm": 2.565603017807007, "learning_rate": 3.3333333333333333e-06, "loss": 0.6086, "step": 20 }, { "epoch": 0.007, "grad_norm": 1.5754969120025635, "learning_rate": 3.5000000000000004e-06, "loss": 0.4919, "step": 21 }, { "epoch": 0.007333333333333333, "grad_norm": 1.8095873594284058, "learning_rate": 3.666666666666667e-06, "loss": 0.5612, "step": 22 }, { "epoch": 0.007666666666666666, "grad_norm": 1.721886396408081, "learning_rate": 3.833333333333334e-06, "loss": 0.5356, "step": 23 }, { "epoch": 0.008, "grad_norm": 2.14868426322937, "learning_rate": 4.000000000000001e-06, "loss": 0.5967, "step": 24 }, { "epoch": 0.008333333333333333, "grad_norm": 1.7181668281555176, "learning_rate": 4.166666666666667e-06, "loss": 0.5642, "step": 25 }, { "epoch": 0.008666666666666666, "grad_norm": 1.891082525253296, "learning_rate": 4.333333333333334e-06, "loss": 0.5229, "step": 26 }, { "epoch": 0.009, "grad_norm": 1.5455230474472046, "learning_rate": 4.5e-06, "loss": 0.5411, "step": 27 }, { "epoch": 0.009333333333333334, "grad_norm": 3.7377946376800537, "learning_rate": 4.666666666666667e-06, "loss": 0.5927, "step": 28 }, { "epoch": 0.009666666666666667, "grad_norm": 2.113539218902588, "learning_rate": 4.833333333333333e-06, "loss": 0.4808, "step": 29 }, { "epoch": 0.01, "grad_norm": 1.7574840784072876, "learning_rate": 5e-06, "loss": 0.5038, "step": 30 }, { "epoch": 0.010333333333333333, "grad_norm": 1.6850998401641846, "learning_rate": 5.166666666666667e-06, "loss": 0.457, "step": 31 }, { "epoch": 0.010666666666666666, "grad_norm": 2.484438180923462, "learning_rate": 5.333333333333334e-06, "loss": 0.4746, "step": 32 }, { "epoch": 0.011, "grad_norm": 1.663460373878479, "learning_rate": 5.500000000000001e-06, "loss": 0.4883, "step": 33 }, { "epoch": 0.011333333333333334, "grad_norm": 1.6798481941223145, "learning_rate": 5.666666666666667e-06, "loss": 0.4467, "step": 34 }, { "epoch": 0.011666666666666667, "grad_norm": 1.7533687353134155, "learning_rate": 5.833333333333334e-06, "loss": 0.4775, "step": 35 }, { "epoch": 0.012, "grad_norm": 1.9110267162322998, "learning_rate": 6e-06, "loss": 0.4316, "step": 36 }, { "epoch": 0.012333333333333333, "grad_norm": 1.731864333152771, "learning_rate": 6.166666666666667e-06, "loss": 0.4988, "step": 37 }, { "epoch": 0.012666666666666666, "grad_norm": 1.82390558719635, "learning_rate": 6.333333333333334e-06, "loss": 0.466, "step": 38 }, { "epoch": 0.013, "grad_norm": 1.8916178941726685, "learning_rate": 6.5000000000000004e-06, "loss": 0.4821, "step": 39 }, { "epoch": 0.013333333333333334, "grad_norm": 1.750315546989441, "learning_rate": 6.666666666666667e-06, "loss": 0.444, "step": 40 }, { "epoch": 0.013666666666666667, "grad_norm": 1.6363168954849243, "learning_rate": 6.833333333333333e-06, "loss": 0.372, "step": 41 }, { "epoch": 0.014, "grad_norm": 1.7785207033157349, "learning_rate": 7.000000000000001e-06, "loss": 0.3779, "step": 42 }, { "epoch": 0.014333333333333333, "grad_norm": 1.7099310159683228, "learning_rate": 7.166666666666667e-06, "loss": 0.4722, "step": 43 }, { "epoch": 0.014666666666666666, "grad_norm": 1.3298712968826294, "learning_rate": 7.333333333333334e-06, "loss": 0.3492, "step": 44 }, { "epoch": 0.015, "grad_norm": 1.817345142364502, "learning_rate": 7.5e-06, "loss": 0.4189, "step": 45 }, { "epoch": 0.015333333333333332, "grad_norm": 1.3972567319869995, "learning_rate": 7.666666666666667e-06, "loss": 0.3355, "step": 46 }, { "epoch": 0.015666666666666666, "grad_norm": 1.35780668258667, "learning_rate": 7.833333333333333e-06, "loss": 0.3737, "step": 47 }, { "epoch": 0.016, "grad_norm": 1.6960091590881348, "learning_rate": 8.000000000000001e-06, "loss": 0.4332, "step": 48 }, { "epoch": 0.01633333333333333, "grad_norm": 1.568686842918396, "learning_rate": 8.166666666666668e-06, "loss": 0.3888, "step": 49 }, { "epoch": 0.016666666666666666, "grad_norm": 1.4132697582244873, "learning_rate": 8.333333333333334e-06, "loss": 0.3322, "step": 50 }, { "epoch": 0.017, "grad_norm": 1.659246802330017, "learning_rate": 8.500000000000002e-06, "loss": 0.4567, "step": 51 }, { "epoch": 0.017333333333333333, "grad_norm": 1.9844367504119873, "learning_rate": 8.666666666666668e-06, "loss": 0.3974, "step": 52 }, { "epoch": 0.017666666666666667, "grad_norm": 1.6027755737304688, "learning_rate": 8.833333333333334e-06, "loss": 0.3917, "step": 53 }, { "epoch": 0.018, "grad_norm": 1.453019618988037, "learning_rate": 9e-06, "loss": 0.3336, "step": 54 }, { "epoch": 0.018333333333333333, "grad_norm": 1.4241881370544434, "learning_rate": 9.166666666666666e-06, "loss": 0.3451, "step": 55 }, { "epoch": 0.018666666666666668, "grad_norm": 1.5545347929000854, "learning_rate": 9.333333333333334e-06, "loss": 0.3593, "step": 56 }, { "epoch": 0.019, "grad_norm": 1.2675824165344238, "learning_rate": 9.5e-06, "loss": 0.3397, "step": 57 }, { "epoch": 0.019333333333333334, "grad_norm": 1.5485769510269165, "learning_rate": 9.666666666666667e-06, "loss": 0.3582, "step": 58 }, { "epoch": 0.019666666666666666, "grad_norm": 1.6267204284667969, "learning_rate": 9.833333333333333e-06, "loss": 0.3371, "step": 59 }, { "epoch": 0.02, "grad_norm": 1.4819341897964478, "learning_rate": 1e-05, "loss": 0.3979, "step": 60 }, { "epoch": 0.02033333333333333, "grad_norm": 1.523547887802124, "learning_rate": 1.0166666666666667e-05, "loss": 0.39, "step": 61 }, { "epoch": 0.020666666666666667, "grad_norm": 1.4726427793502808, "learning_rate": 1.0333333333333333e-05, "loss": 0.356, "step": 62 }, { "epoch": 0.021, "grad_norm": 1.332187533378601, "learning_rate": 1.05e-05, "loss": 0.3099, "step": 63 }, { "epoch": 0.021333333333333333, "grad_norm": 1.4094098806381226, "learning_rate": 1.0666666666666667e-05, "loss": 0.3192, "step": 64 }, { "epoch": 0.021666666666666667, "grad_norm": 1.6353566646575928, "learning_rate": 1.0833333333333334e-05, "loss": 0.3261, "step": 65 }, { "epoch": 0.022, "grad_norm": 1.5030579566955566, "learning_rate": 1.1000000000000001e-05, "loss": 0.3929, "step": 66 }, { "epoch": 0.022333333333333334, "grad_norm": 2.1083621978759766, "learning_rate": 1.1166666666666668e-05, "loss": 0.461, "step": 67 }, { "epoch": 0.02266666666666667, "grad_norm": 1.6705724000930786, "learning_rate": 1.1333333333333334e-05, "loss": 0.3947, "step": 68 }, { "epoch": 0.023, "grad_norm": 1.413004994392395, "learning_rate": 1.1500000000000002e-05, "loss": 0.3224, "step": 69 }, { "epoch": 0.023333333333333334, "grad_norm": 1.6950210332870483, "learning_rate": 1.1666666666666668e-05, "loss": 0.3763, "step": 70 }, { "epoch": 0.023666666666666666, "grad_norm": 1.4866547584533691, "learning_rate": 1.1833333333333334e-05, "loss": 0.3239, "step": 71 }, { "epoch": 0.024, "grad_norm": 1.546217441558838, "learning_rate": 1.2e-05, "loss": 0.3684, "step": 72 }, { "epoch": 0.024333333333333332, "grad_norm": 1.6388611793518066, "learning_rate": 1.2166666666666668e-05, "loss": 0.342, "step": 73 }, { "epoch": 0.024666666666666667, "grad_norm": 1.426133155822754, "learning_rate": 1.2333333333333334e-05, "loss": 0.2835, "step": 74 }, { "epoch": 0.025, "grad_norm": 1.5605098009109497, "learning_rate": 1.25e-05, "loss": 0.3053, "step": 75 }, { "epoch": 0.025333333333333333, "grad_norm": 2.0954012870788574, "learning_rate": 1.2666666666666668e-05, "loss": 0.3634, "step": 76 }, { "epoch": 0.025666666666666667, "grad_norm": 1.7222869396209717, "learning_rate": 1.2833333333333333e-05, "loss": 0.4678, "step": 77 }, { "epoch": 0.026, "grad_norm": 2.151477813720703, "learning_rate": 1.3000000000000001e-05, "loss": 0.3732, "step": 78 }, { "epoch": 0.026333333333333334, "grad_norm": 1.4184696674346924, "learning_rate": 1.3166666666666665e-05, "loss": 0.3863, "step": 79 }, { "epoch": 0.02666666666666667, "grad_norm": 1.5404107570648193, "learning_rate": 1.3333333333333333e-05, "loss": 0.3362, "step": 80 }, { "epoch": 0.027, "grad_norm": 1.4057250022888184, "learning_rate": 1.3500000000000001e-05, "loss": 0.3278, "step": 81 }, { "epoch": 0.027333333333333334, "grad_norm": 1.4827985763549805, "learning_rate": 1.3666666666666666e-05, "loss": 0.3566, "step": 82 }, { "epoch": 0.027666666666666666, "grad_norm": 1.567644476890564, "learning_rate": 1.3833333333333334e-05, "loss": 0.3622, "step": 83 }, { "epoch": 0.028, "grad_norm": 1.6166788339614868, "learning_rate": 1.4000000000000001e-05, "loss": 0.3744, "step": 84 }, { "epoch": 0.028333333333333332, "grad_norm": 1.5404103994369507, "learning_rate": 1.4166666666666668e-05, "loss": 0.3182, "step": 85 }, { "epoch": 0.028666666666666667, "grad_norm": 1.6452393531799316, "learning_rate": 1.4333333333333334e-05, "loss": 0.3414, "step": 86 }, { "epoch": 0.029, "grad_norm": 1.4937787055969238, "learning_rate": 1.45e-05, "loss": 0.3932, "step": 87 }, { "epoch": 0.029333333333333333, "grad_norm": 1.7709240913391113, "learning_rate": 1.4666666666666668e-05, "loss": 0.4493, "step": 88 }, { "epoch": 0.029666666666666668, "grad_norm": 1.826235055923462, "learning_rate": 1.4833333333333336e-05, "loss": 0.4358, "step": 89 }, { "epoch": 0.03, "grad_norm": 1.2349361181259155, "learning_rate": 1.5e-05, "loss": 0.3008, "step": 90 }, { "epoch": 0.030333333333333334, "grad_norm": 1.6294262409210205, "learning_rate": 1.5166666666666668e-05, "loss": 0.3861, "step": 91 }, { "epoch": 0.030666666666666665, "grad_norm": 1.4110265970230103, "learning_rate": 1.5333333333333334e-05, "loss": 0.3231, "step": 92 }, { "epoch": 0.031, "grad_norm": 1.3174939155578613, "learning_rate": 1.55e-05, "loss": 0.3513, "step": 93 }, { "epoch": 0.03133333333333333, "grad_norm": 1.34541916847229, "learning_rate": 1.5666666666666667e-05, "loss": 0.2929, "step": 94 }, { "epoch": 0.03166666666666667, "grad_norm": 1.528634786605835, "learning_rate": 1.5833333333333333e-05, "loss": 0.3563, "step": 95 }, { "epoch": 0.032, "grad_norm": 1.9558664560317993, "learning_rate": 1.6000000000000003e-05, "loss": 0.4464, "step": 96 }, { "epoch": 0.03233333333333333, "grad_norm": 1.5986521244049072, "learning_rate": 1.6166666666666665e-05, "loss": 0.3489, "step": 97 }, { "epoch": 0.03266666666666666, "grad_norm": 1.6344914436340332, "learning_rate": 1.6333333333333335e-05, "loss": 0.3991, "step": 98 }, { "epoch": 0.033, "grad_norm": 1.7303506135940552, "learning_rate": 1.65e-05, "loss": 0.4274, "step": 99 }, { "epoch": 0.03333333333333333, "grad_norm": 1.5459728240966797, "learning_rate": 1.6666666666666667e-05, "loss": 0.3306, "step": 100 }, { "epoch": 0.033666666666666664, "grad_norm": 1.6818580627441406, "learning_rate": 1.6833333333333334e-05, "loss": 0.3574, "step": 101 }, { "epoch": 0.034, "grad_norm": 1.5971468687057495, "learning_rate": 1.7000000000000003e-05, "loss": 0.3785, "step": 102 }, { "epoch": 0.034333333333333334, "grad_norm": 1.766853928565979, "learning_rate": 1.7166666666666666e-05, "loss": 0.353, "step": 103 }, { "epoch": 0.034666666666666665, "grad_norm": 1.368243932723999, "learning_rate": 1.7333333333333336e-05, "loss": 0.3294, "step": 104 }, { "epoch": 0.035, "grad_norm": 1.3657722473144531, "learning_rate": 1.75e-05, "loss": 0.2953, "step": 105 }, { "epoch": 0.035333333333333335, "grad_norm": 1.5740365982055664, "learning_rate": 1.7666666666666668e-05, "loss": 0.3543, "step": 106 }, { "epoch": 0.035666666666666666, "grad_norm": 1.4357829093933105, "learning_rate": 1.7833333333333334e-05, "loss": 0.3239, "step": 107 }, { "epoch": 0.036, "grad_norm": 1.8812717199325562, "learning_rate": 1.8e-05, "loss": 0.4263, "step": 108 }, { "epoch": 0.036333333333333336, "grad_norm": 1.4755126237869263, "learning_rate": 1.8166666666666667e-05, "loss": 0.3344, "step": 109 }, { "epoch": 0.03666666666666667, "grad_norm": 1.595537543296814, "learning_rate": 1.8333333333333333e-05, "loss": 0.3897, "step": 110 }, { "epoch": 0.037, "grad_norm": 1.5346170663833618, "learning_rate": 1.85e-05, "loss": 0.3256, "step": 111 }, { "epoch": 0.037333333333333336, "grad_norm": 1.4340442419052124, "learning_rate": 1.866666666666667e-05, "loss": 0.3085, "step": 112 }, { "epoch": 0.03766666666666667, "grad_norm": 1.5140653848648071, "learning_rate": 1.8833333333333335e-05, "loss": 0.331, "step": 113 }, { "epoch": 0.038, "grad_norm": 1.4573544263839722, "learning_rate": 1.9e-05, "loss": 0.3259, "step": 114 }, { "epoch": 0.03833333333333333, "grad_norm": 1.2812256813049316, "learning_rate": 1.9166666666666667e-05, "loss": 0.3135, "step": 115 }, { "epoch": 0.03866666666666667, "grad_norm": 1.53571617603302, "learning_rate": 1.9333333333333333e-05, "loss": 0.3623, "step": 116 }, { "epoch": 0.039, "grad_norm": 1.4054882526397705, "learning_rate": 1.9500000000000003e-05, "loss": 0.3083, "step": 117 }, { "epoch": 0.03933333333333333, "grad_norm": 1.5709601640701294, "learning_rate": 1.9666666666666666e-05, "loss": 0.3591, "step": 118 }, { "epoch": 0.03966666666666667, "grad_norm": 1.4430993795394897, "learning_rate": 1.9833333333333335e-05, "loss": 0.3235, "step": 119 }, { "epoch": 0.04, "grad_norm": 1.2675756216049194, "learning_rate": 2e-05, "loss": 0.3231, "step": 120 }, { "epoch": 0.04033333333333333, "grad_norm": 1.6907734870910645, "learning_rate": 2.0166666666666668e-05, "loss": 0.3788, "step": 121 }, { "epoch": 0.04066666666666666, "grad_norm": 1.5159516334533691, "learning_rate": 2.0333333333333334e-05, "loss": 0.3519, "step": 122 }, { "epoch": 0.041, "grad_norm": 1.7196882963180542, "learning_rate": 2.05e-05, "loss": 0.3817, "step": 123 }, { "epoch": 0.04133333333333333, "grad_norm": 1.728525996208191, "learning_rate": 2.0666666666666666e-05, "loss": 0.3381, "step": 124 }, { "epoch": 0.041666666666666664, "grad_norm": 1.74927818775177, "learning_rate": 2.0833333333333336e-05, "loss": 0.4133, "step": 125 }, { "epoch": 0.042, "grad_norm": 2.214763641357422, "learning_rate": 2.1e-05, "loss": 0.475, "step": 126 }, { "epoch": 0.042333333333333334, "grad_norm": 1.4449557065963745, "learning_rate": 2.116666666666667e-05, "loss": 0.3355, "step": 127 }, { "epoch": 0.042666666666666665, "grad_norm": 1.3350657224655151, "learning_rate": 2.1333333333333335e-05, "loss": 0.2971, "step": 128 }, { "epoch": 0.043, "grad_norm": 1.3243197202682495, "learning_rate": 2.15e-05, "loss": 0.2936, "step": 129 }, { "epoch": 0.043333333333333335, "grad_norm": 1.6345150470733643, "learning_rate": 2.1666666666666667e-05, "loss": 0.3521, "step": 130 }, { "epoch": 0.043666666666666666, "grad_norm": 2.0870022773742676, "learning_rate": 2.1833333333333333e-05, "loss": 0.4417, "step": 131 }, { "epoch": 0.044, "grad_norm": 1.5308624505996704, "learning_rate": 2.2000000000000003e-05, "loss": 0.3224, "step": 132 }, { "epoch": 0.044333333333333336, "grad_norm": 1.4620624780654907, "learning_rate": 2.216666666666667e-05, "loss": 0.3224, "step": 133 }, { "epoch": 0.04466666666666667, "grad_norm": 1.4036201238632202, "learning_rate": 2.2333333333333335e-05, "loss": 0.3004, "step": 134 }, { "epoch": 0.045, "grad_norm": 1.735681176185608, "learning_rate": 2.25e-05, "loss": 0.3303, "step": 135 }, { "epoch": 0.04533333333333334, "grad_norm": 1.4971989393234253, "learning_rate": 2.2666666666666668e-05, "loss": 0.3153, "step": 136 }, { "epoch": 0.04566666666666667, "grad_norm": 3.4707398414611816, "learning_rate": 2.2833333333333334e-05, "loss": 0.4312, "step": 137 }, { "epoch": 0.046, "grad_norm": 1.7263460159301758, "learning_rate": 2.3000000000000003e-05, "loss": 0.3923, "step": 138 }, { "epoch": 0.04633333333333333, "grad_norm": 1.3158482313156128, "learning_rate": 2.3166666666666666e-05, "loss": 0.3108, "step": 139 }, { "epoch": 0.04666666666666667, "grad_norm": 1.5561543703079224, "learning_rate": 2.3333333333333336e-05, "loss": 0.3619, "step": 140 }, { "epoch": 0.047, "grad_norm": 1.5590838193893433, "learning_rate": 2.35e-05, "loss": 0.3413, "step": 141 }, { "epoch": 0.04733333333333333, "grad_norm": 1.9386111497879028, "learning_rate": 2.3666666666666668e-05, "loss": 0.4538, "step": 142 }, { "epoch": 0.04766666666666667, "grad_norm": 1.4611613750457764, "learning_rate": 2.3833333333333334e-05, "loss": 0.3328, "step": 143 }, { "epoch": 0.048, "grad_norm": 1.4083524942398071, "learning_rate": 2.4e-05, "loss": 0.3683, "step": 144 }, { "epoch": 0.04833333333333333, "grad_norm": 4.442422866821289, "learning_rate": 2.4166666666666667e-05, "loss": 0.342, "step": 145 }, { "epoch": 0.048666666666666664, "grad_norm": 1.897199273109436, "learning_rate": 2.4333333333333336e-05, "loss": 0.3359, "step": 146 }, { "epoch": 0.049, "grad_norm": 1.455759882926941, "learning_rate": 2.45e-05, "loss": 0.3557, "step": 147 }, { "epoch": 0.04933333333333333, "grad_norm": 1.732920527458191, "learning_rate": 2.466666666666667e-05, "loss": 0.3624, "step": 148 }, { "epoch": 0.049666666666666665, "grad_norm": 1.6186577081680298, "learning_rate": 2.4833333333333335e-05, "loss": 0.4221, "step": 149 }, { "epoch": 0.05, "grad_norm": 2.151060104370117, "learning_rate": 2.5e-05, "loss": 0.4304, "step": 150 }, { "epoch": 0.050333333333333334, "grad_norm": 1.517791748046875, "learning_rate": 2.5166666666666667e-05, "loss": 0.3217, "step": 151 }, { "epoch": 0.050666666666666665, "grad_norm": 1.5455111265182495, "learning_rate": 2.5333333333333337e-05, "loss": 0.3484, "step": 152 }, { "epoch": 0.051, "grad_norm": 1.3353674411773682, "learning_rate": 2.5500000000000003e-05, "loss": 0.286, "step": 153 }, { "epoch": 0.051333333333333335, "grad_norm": 1.4271986484527588, "learning_rate": 2.5666666666666666e-05, "loss": 0.353, "step": 154 }, { "epoch": 0.051666666666666666, "grad_norm": 1.733125925064087, "learning_rate": 2.5833333333333336e-05, "loss": 0.3943, "step": 155 }, { "epoch": 0.052, "grad_norm": 6.120161533355713, "learning_rate": 2.6000000000000002e-05, "loss": 0.3833, "step": 156 }, { "epoch": 0.052333333333333336, "grad_norm": 1.6967121362686157, "learning_rate": 2.6166666666666668e-05, "loss": 0.3778, "step": 157 }, { "epoch": 0.05266666666666667, "grad_norm": 1.9036916494369507, "learning_rate": 2.633333333333333e-05, "loss": 0.2843, "step": 158 }, { "epoch": 0.053, "grad_norm": 1.7140095233917236, "learning_rate": 2.6500000000000004e-05, "loss": 0.3918, "step": 159 }, { "epoch": 0.05333333333333334, "grad_norm": 1.3422181606292725, "learning_rate": 2.6666666666666667e-05, "loss": 0.3402, "step": 160 }, { "epoch": 0.05366666666666667, "grad_norm": 1.3878352642059326, "learning_rate": 2.6833333333333333e-05, "loss": 0.3169, "step": 161 }, { "epoch": 0.054, "grad_norm": 1.446089744567871, "learning_rate": 2.7000000000000002e-05, "loss": 0.3438, "step": 162 }, { "epoch": 0.05433333333333333, "grad_norm": 1.2851896286010742, "learning_rate": 2.716666666666667e-05, "loss": 0.2795, "step": 163 }, { "epoch": 0.05466666666666667, "grad_norm": 1.4944298267364502, "learning_rate": 2.733333333333333e-05, "loss": 0.3463, "step": 164 }, { "epoch": 0.055, "grad_norm": 1.5940018892288208, "learning_rate": 2.7500000000000004e-05, "loss": 0.3653, "step": 165 }, { "epoch": 0.05533333333333333, "grad_norm": 1.2155016660690308, "learning_rate": 2.7666666666666667e-05, "loss": 0.3007, "step": 166 }, { "epoch": 0.05566666666666667, "grad_norm": 1.7410703897476196, "learning_rate": 2.7833333333333333e-05, "loss": 0.3656, "step": 167 }, { "epoch": 0.056, "grad_norm": 1.5186805725097656, "learning_rate": 2.8000000000000003e-05, "loss": 0.3309, "step": 168 }, { "epoch": 0.05633333333333333, "grad_norm": 1.3507519960403442, "learning_rate": 2.816666666666667e-05, "loss": 0.3209, "step": 169 }, { "epoch": 0.056666666666666664, "grad_norm": 1.378380298614502, "learning_rate": 2.8333333333333335e-05, "loss": 0.3257, "step": 170 }, { "epoch": 0.057, "grad_norm": 1.413633108139038, "learning_rate": 2.8499999999999998e-05, "loss": 0.3067, "step": 171 }, { "epoch": 0.05733333333333333, "grad_norm": 1.3859586715698242, "learning_rate": 2.8666666666666668e-05, "loss": 0.3464, "step": 172 }, { "epoch": 0.057666666666666665, "grad_norm": 1.281520128250122, "learning_rate": 2.8833333333333334e-05, "loss": 0.3538, "step": 173 }, { "epoch": 0.058, "grad_norm": 1.6939369440078735, "learning_rate": 2.9e-05, "loss": 0.4368, "step": 174 }, { "epoch": 0.058333333333333334, "grad_norm": 1.7700634002685547, "learning_rate": 2.916666666666667e-05, "loss": 0.33, "step": 175 }, { "epoch": 0.058666666666666666, "grad_norm": 1.4249154329299927, "learning_rate": 2.9333333333333336e-05, "loss": 0.3226, "step": 176 }, { "epoch": 0.059, "grad_norm": 1.3474069833755493, "learning_rate": 2.95e-05, "loss": 0.2756, "step": 177 }, { "epoch": 0.059333333333333335, "grad_norm": 1.2740994691848755, "learning_rate": 2.9666666666666672e-05, "loss": 0.266, "step": 178 }, { "epoch": 0.059666666666666666, "grad_norm": 1.8142409324645996, "learning_rate": 2.9833333333333335e-05, "loss": 0.3101, "step": 179 }, { "epoch": 0.06, "grad_norm": 1.4520740509033203, "learning_rate": 3e-05, "loss": 0.3521, "step": 180 }, { "epoch": 0.060333333333333336, "grad_norm": 1.609920859336853, "learning_rate": 3.016666666666667e-05, "loss": 0.3578, "step": 181 }, { "epoch": 0.06066666666666667, "grad_norm": 1.3788601160049438, "learning_rate": 3.0333333333333337e-05, "loss": 0.3204, "step": 182 }, { "epoch": 0.061, "grad_norm": 1.3609263896942139, "learning_rate": 3.05e-05, "loss": 0.3246, "step": 183 }, { "epoch": 0.06133333333333333, "grad_norm": 1.382299780845642, "learning_rate": 3.066666666666667e-05, "loss": 0.3385, "step": 184 }, { "epoch": 0.06166666666666667, "grad_norm": 1.9848756790161133, "learning_rate": 3.0833333333333335e-05, "loss": 0.3731, "step": 185 }, { "epoch": 0.062, "grad_norm": 1.4903755187988281, "learning_rate": 3.1e-05, "loss": 0.3489, "step": 186 }, { "epoch": 0.06233333333333333, "grad_norm": 1.3801896572113037, "learning_rate": 3.116666666666667e-05, "loss": 0.3621, "step": 187 }, { "epoch": 0.06266666666666666, "grad_norm": 1.6879767179489136, "learning_rate": 3.1333333333333334e-05, "loss": 0.451, "step": 188 }, { "epoch": 0.063, "grad_norm": 1.4495042562484741, "learning_rate": 3.15e-05, "loss": 0.2778, "step": 189 }, { "epoch": 0.06333333333333334, "grad_norm": 1.290792465209961, "learning_rate": 3.1666666666666666e-05, "loss": 0.2716, "step": 190 }, { "epoch": 0.06366666666666666, "grad_norm": 1.9189130067825317, "learning_rate": 3.183333333333334e-05, "loss": 0.4117, "step": 191 }, { "epoch": 0.064, "grad_norm": 1.5139693021774292, "learning_rate": 3.2000000000000005e-05, "loss": 0.3266, "step": 192 }, { "epoch": 0.06433333333333334, "grad_norm": 1.7017555236816406, "learning_rate": 3.2166666666666665e-05, "loss": 0.3157, "step": 193 }, { "epoch": 0.06466666666666666, "grad_norm": 1.440495252609253, "learning_rate": 3.233333333333333e-05, "loss": 0.3303, "step": 194 }, { "epoch": 0.065, "grad_norm": 1.4504367113113403, "learning_rate": 3.2500000000000004e-05, "loss": 0.2769, "step": 195 }, { "epoch": 0.06533333333333333, "grad_norm": 1.375322937965393, "learning_rate": 3.266666666666667e-05, "loss": 0.3783, "step": 196 }, { "epoch": 0.06566666666666666, "grad_norm": 1.6191874742507935, "learning_rate": 3.283333333333333e-05, "loss": 0.3312, "step": 197 }, { "epoch": 0.066, "grad_norm": 1.266046166419983, "learning_rate": 3.3e-05, "loss": 0.3533, "step": 198 }, { "epoch": 0.06633333333333333, "grad_norm": 2.0328266620635986, "learning_rate": 3.316666666666667e-05, "loss": 0.4017, "step": 199 }, { "epoch": 0.06666666666666667, "grad_norm": 1.5838234424591064, "learning_rate": 3.3333333333333335e-05, "loss": 0.4061, "step": 200 }, { "epoch": 0.067, "grad_norm": 1.679366946220398, "learning_rate": 3.35e-05, "loss": 0.4266, "step": 201 }, { "epoch": 0.06733333333333333, "grad_norm": 1.5685397386550903, "learning_rate": 3.366666666666667e-05, "loss": 0.4183, "step": 202 }, { "epoch": 0.06766666666666667, "grad_norm": 1.776902198791504, "learning_rate": 3.3833333333333334e-05, "loss": 0.3168, "step": 203 }, { "epoch": 0.068, "grad_norm": 1.7474539279937744, "learning_rate": 3.4000000000000007e-05, "loss": 0.3145, "step": 204 }, { "epoch": 0.06833333333333333, "grad_norm": 1.4013917446136475, "learning_rate": 3.4166666666666666e-05, "loss": 0.3322, "step": 205 }, { "epoch": 0.06866666666666667, "grad_norm": 1.459243655204773, "learning_rate": 3.433333333333333e-05, "loss": 0.3273, "step": 206 }, { "epoch": 0.069, "grad_norm": 1.4038946628570557, "learning_rate": 3.45e-05, "loss": 0.3238, "step": 207 }, { "epoch": 0.06933333333333333, "grad_norm": 1.5630148649215698, "learning_rate": 3.466666666666667e-05, "loss": 0.3368, "step": 208 }, { "epoch": 0.06966666666666667, "grad_norm": 1.4870696067810059, "learning_rate": 3.483333333333334e-05, "loss": 0.377, "step": 209 }, { "epoch": 0.07, "grad_norm": 1.5031110048294067, "learning_rate": 3.5e-05, "loss": 0.3609, "step": 210 }, { "epoch": 0.07033333333333333, "grad_norm": 1.6764661073684692, "learning_rate": 3.516666666666667e-05, "loss": 0.3562, "step": 211 }, { "epoch": 0.07066666666666667, "grad_norm": 1.6077598333358765, "learning_rate": 3.5333333333333336e-05, "loss": 0.3924, "step": 212 }, { "epoch": 0.071, "grad_norm": 1.7674628496170044, "learning_rate": 3.55e-05, "loss": 0.3631, "step": 213 }, { "epoch": 0.07133333333333333, "grad_norm": 1.62470543384552, "learning_rate": 3.566666666666667e-05, "loss": 0.3619, "step": 214 }, { "epoch": 0.07166666666666667, "grad_norm": 1.4642609357833862, "learning_rate": 3.5833333333333335e-05, "loss": 0.3153, "step": 215 }, { "epoch": 0.072, "grad_norm": 1.5644686222076416, "learning_rate": 3.6e-05, "loss": 0.3619, "step": 216 }, { "epoch": 0.07233333333333333, "grad_norm": 1.49044668674469, "learning_rate": 3.6166666666666674e-05, "loss": 0.3836, "step": 217 }, { "epoch": 0.07266666666666667, "grad_norm": 1.7291405200958252, "learning_rate": 3.633333333333333e-05, "loss": 0.4209, "step": 218 }, { "epoch": 0.073, "grad_norm": 1.5071781873703003, "learning_rate": 3.65e-05, "loss": 0.3236, "step": 219 }, { "epoch": 0.07333333333333333, "grad_norm": 2.787971258163452, "learning_rate": 3.6666666666666666e-05, "loss": 0.4086, "step": 220 }, { "epoch": 0.07366666666666667, "grad_norm": 1.4977898597717285, "learning_rate": 3.683333333333334e-05, "loss": 0.3655, "step": 221 }, { "epoch": 0.074, "grad_norm": 1.4775617122650146, "learning_rate": 3.7e-05, "loss": 0.3571, "step": 222 }, { "epoch": 0.07433333333333333, "grad_norm": 1.4579126834869385, "learning_rate": 3.7166666666666664e-05, "loss": 0.3274, "step": 223 }, { "epoch": 0.07466666666666667, "grad_norm": 1.5384258031845093, "learning_rate": 3.733333333333334e-05, "loss": 0.3591, "step": 224 }, { "epoch": 0.075, "grad_norm": 1.308038353919983, "learning_rate": 3.7500000000000003e-05, "loss": 0.279, "step": 225 }, { "epoch": 0.07533333333333334, "grad_norm": 1.5637880563735962, "learning_rate": 3.766666666666667e-05, "loss": 0.2898, "step": 226 }, { "epoch": 0.07566666666666666, "grad_norm": 1.479993462562561, "learning_rate": 3.7833333333333336e-05, "loss": 0.3416, "step": 227 }, { "epoch": 0.076, "grad_norm": 1.6080683469772339, "learning_rate": 3.8e-05, "loss": 0.3692, "step": 228 }, { "epoch": 0.07633333333333334, "grad_norm": 3.331662178039551, "learning_rate": 3.816666666666667e-05, "loss": 0.3672, "step": 229 }, { "epoch": 0.07666666666666666, "grad_norm": 2.0933995246887207, "learning_rate": 3.8333333333333334e-05, "loss": 0.3193, "step": 230 }, { "epoch": 0.077, "grad_norm": 1.4656376838684082, "learning_rate": 3.85e-05, "loss": 0.335, "step": 231 }, { "epoch": 0.07733333333333334, "grad_norm": 1.580031394958496, "learning_rate": 3.866666666666667e-05, "loss": 0.4765, "step": 232 }, { "epoch": 0.07766666666666666, "grad_norm": 1.611729383468628, "learning_rate": 3.883333333333333e-05, "loss": 0.318, "step": 233 }, { "epoch": 0.078, "grad_norm": 1.457902193069458, "learning_rate": 3.9000000000000006e-05, "loss": 0.3561, "step": 234 }, { "epoch": 0.07833333333333334, "grad_norm": 1.4646954536437988, "learning_rate": 3.9166666666666665e-05, "loss": 0.3688, "step": 235 }, { "epoch": 0.07866666666666666, "grad_norm": 1.5438694953918457, "learning_rate": 3.933333333333333e-05, "loss": 0.3741, "step": 236 }, { "epoch": 0.079, "grad_norm": 1.6718634366989136, "learning_rate": 3.9500000000000005e-05, "loss": 0.3651, "step": 237 }, { "epoch": 0.07933333333333334, "grad_norm": 1.49998939037323, "learning_rate": 3.966666666666667e-05, "loss": 0.3971, "step": 238 }, { "epoch": 0.07966666666666666, "grad_norm": 1.4909234046936035, "learning_rate": 3.983333333333333e-05, "loss": 0.3436, "step": 239 }, { "epoch": 0.08, "grad_norm": 1.335534691810608, "learning_rate": 4e-05, "loss": 0.2857, "step": 240 }, { "epoch": 0.08033333333333334, "grad_norm": 1.4363330602645874, "learning_rate": 4.016666666666667e-05, "loss": 0.2972, "step": 241 }, { "epoch": 0.08066666666666666, "grad_norm": 1.5053205490112305, "learning_rate": 4.0333333333333336e-05, "loss": 0.3726, "step": 242 }, { "epoch": 0.081, "grad_norm": 1.5662518739700317, "learning_rate": 4.05e-05, "loss": 0.3822, "step": 243 }, { "epoch": 0.08133333333333333, "grad_norm": 1.5105401277542114, "learning_rate": 4.066666666666667e-05, "loss": 0.3845, "step": 244 }, { "epoch": 0.08166666666666667, "grad_norm": 1.2965208292007446, "learning_rate": 4.0833333333333334e-05, "loss": 0.2714, "step": 245 }, { "epoch": 0.082, "grad_norm": 1.3468542098999023, "learning_rate": 4.1e-05, "loss": 0.3419, "step": 246 }, { "epoch": 0.08233333333333333, "grad_norm": 1.578986644744873, "learning_rate": 4.116666666666667e-05, "loss": 0.4288, "step": 247 }, { "epoch": 0.08266666666666667, "grad_norm": 1.452244520187378, "learning_rate": 4.133333333333333e-05, "loss": 0.3575, "step": 248 }, { "epoch": 0.083, "grad_norm": 1.5739537477493286, "learning_rate": 4.15e-05, "loss": 0.3433, "step": 249 }, { "epoch": 0.08333333333333333, "grad_norm": 1.482478141784668, "learning_rate": 4.166666666666667e-05, "loss": 0.3903, "step": 250 }, { "epoch": 0.08366666666666667, "grad_norm": 1.4102691411972046, "learning_rate": 4.183333333333334e-05, "loss": 0.324, "step": 251 }, { "epoch": 0.084, "grad_norm": 1.3748400211334229, "learning_rate": 4.2e-05, "loss": 0.3348, "step": 252 }, { "epoch": 0.08433333333333333, "grad_norm": 1.3118107318878174, "learning_rate": 4.216666666666667e-05, "loss": 0.2931, "step": 253 }, { "epoch": 0.08466666666666667, "grad_norm": 1.5641124248504639, "learning_rate": 4.233333333333334e-05, "loss": 0.4123, "step": 254 }, { "epoch": 0.085, "grad_norm": 1.3105560541152954, "learning_rate": 4.25e-05, "loss": 0.3441, "step": 255 }, { "epoch": 0.08533333333333333, "grad_norm": 1.5378347635269165, "learning_rate": 4.266666666666667e-05, "loss": 0.3702, "step": 256 }, { "epoch": 0.08566666666666667, "grad_norm": 1.5331541299819946, "learning_rate": 4.2833333333333335e-05, "loss": 0.4366, "step": 257 }, { "epoch": 0.086, "grad_norm": 1.18148672580719, "learning_rate": 4.3e-05, "loss": 0.2741, "step": 258 }, { "epoch": 0.08633333333333333, "grad_norm": 1.4464715719223022, "learning_rate": 4.316666666666667e-05, "loss": 0.334, "step": 259 }, { "epoch": 0.08666666666666667, "grad_norm": 1.552941918373108, "learning_rate": 4.3333333333333334e-05, "loss": 0.3906, "step": 260 }, { "epoch": 0.087, "grad_norm": 1.51602041721344, "learning_rate": 4.35e-05, "loss": 0.3549, "step": 261 }, { "epoch": 0.08733333333333333, "grad_norm": 1.4399656057357788, "learning_rate": 4.3666666666666666e-05, "loss": 0.3437, "step": 262 }, { "epoch": 0.08766666666666667, "grad_norm": 1.3392916917800903, "learning_rate": 4.383333333333334e-05, "loss": 0.2961, "step": 263 }, { "epoch": 0.088, "grad_norm": 1.626286506652832, "learning_rate": 4.4000000000000006e-05, "loss": 0.3532, "step": 264 }, { "epoch": 0.08833333333333333, "grad_norm": 1.6674925088882446, "learning_rate": 4.4166666666666665e-05, "loss": 0.4064, "step": 265 }, { "epoch": 0.08866666666666667, "grad_norm": 1.3257759809494019, "learning_rate": 4.433333333333334e-05, "loss": 0.2652, "step": 266 }, { "epoch": 0.089, "grad_norm": 1.5646772384643555, "learning_rate": 4.4500000000000004e-05, "loss": 0.3433, "step": 267 }, { "epoch": 0.08933333333333333, "grad_norm": 1.5401488542556763, "learning_rate": 4.466666666666667e-05, "loss": 0.4299, "step": 268 }, { "epoch": 0.08966666666666667, "grad_norm": 1.3046114444732666, "learning_rate": 4.483333333333333e-05, "loss": 0.3763, "step": 269 }, { "epoch": 0.09, "grad_norm": 1.4883687496185303, "learning_rate": 4.5e-05, "loss": 0.4005, "step": 270 }, { "epoch": 0.09033333333333333, "grad_norm": 1.20869779586792, "learning_rate": 4.516666666666667e-05, "loss": 0.3037, "step": 271 }, { "epoch": 0.09066666666666667, "grad_norm": 1.4379864931106567, "learning_rate": 4.5333333333333335e-05, "loss": 0.3505, "step": 272 }, { "epoch": 0.091, "grad_norm": 1.5501856803894043, "learning_rate": 4.55e-05, "loss": 0.3676, "step": 273 }, { "epoch": 0.09133333333333334, "grad_norm": 1.6164238452911377, "learning_rate": 4.566666666666667e-05, "loss": 0.3604, "step": 274 }, { "epoch": 0.09166666666666666, "grad_norm": 1.5581339597702026, "learning_rate": 4.5833333333333334e-05, "loss": 0.415, "step": 275 }, { "epoch": 0.092, "grad_norm": 1.9566978216171265, "learning_rate": 4.600000000000001e-05, "loss": 0.2886, "step": 276 }, { "epoch": 0.09233333333333334, "grad_norm": 1.4752821922302246, "learning_rate": 4.6166666666666666e-05, "loss": 0.3575, "step": 277 }, { "epoch": 0.09266666666666666, "grad_norm": 1.5628986358642578, "learning_rate": 4.633333333333333e-05, "loss": 0.3825, "step": 278 }, { "epoch": 0.093, "grad_norm": 2.187627077102661, "learning_rate": 4.6500000000000005e-05, "loss": 0.391, "step": 279 }, { "epoch": 0.09333333333333334, "grad_norm": 1.5310142040252686, "learning_rate": 4.666666666666667e-05, "loss": 0.3838, "step": 280 }, { "epoch": 0.09366666666666666, "grad_norm": 1.543420433998108, "learning_rate": 4.683333333333334e-05, "loss": 0.3011, "step": 281 }, { "epoch": 0.094, "grad_norm": 1.5134119987487793, "learning_rate": 4.7e-05, "loss": 0.3686, "step": 282 }, { "epoch": 0.09433333333333334, "grad_norm": 1.967798113822937, "learning_rate": 4.716666666666667e-05, "loss": 0.4176, "step": 283 }, { "epoch": 0.09466666666666666, "grad_norm": 2.0906894207000732, "learning_rate": 4.7333333333333336e-05, "loss": 0.358, "step": 284 }, { "epoch": 0.095, "grad_norm": 1.3834588527679443, "learning_rate": 4.75e-05, "loss": 0.389, "step": 285 }, { "epoch": 0.09533333333333334, "grad_norm": 1.6481044292449951, "learning_rate": 4.766666666666667e-05, "loss": 0.3488, "step": 286 }, { "epoch": 0.09566666666666666, "grad_norm": 1.325629472732544, "learning_rate": 4.7833333333333335e-05, "loss": 0.3003, "step": 287 }, { "epoch": 0.096, "grad_norm": 1.701684832572937, "learning_rate": 4.8e-05, "loss": 0.4497, "step": 288 }, { "epoch": 0.09633333333333334, "grad_norm": 1.6686456203460693, "learning_rate": 4.8166666666666674e-05, "loss": 0.3482, "step": 289 }, { "epoch": 0.09666666666666666, "grad_norm": 1.8158715963363647, "learning_rate": 4.8333333333333334e-05, "loss": 0.3567, "step": 290 }, { "epoch": 0.097, "grad_norm": 1.6466172933578491, "learning_rate": 4.85e-05, "loss": 0.3868, "step": 291 }, { "epoch": 0.09733333333333333, "grad_norm": 1.4000461101531982, "learning_rate": 4.866666666666667e-05, "loss": 0.3448, "step": 292 }, { "epoch": 0.09766666666666667, "grad_norm": 1.7131824493408203, "learning_rate": 4.883333333333334e-05, "loss": 0.3907, "step": 293 }, { "epoch": 0.098, "grad_norm": 6.926778793334961, "learning_rate": 4.9e-05, "loss": 0.3705, "step": 294 }, { "epoch": 0.09833333333333333, "grad_norm": 1.515509009361267, "learning_rate": 4.9166666666666665e-05, "loss": 0.3596, "step": 295 }, { "epoch": 0.09866666666666667, "grad_norm": 2.7844343185424805, "learning_rate": 4.933333333333334e-05, "loss": 0.3776, "step": 296 }, { "epoch": 0.099, "grad_norm": 1.605407953262329, "learning_rate": 4.9500000000000004e-05, "loss": 0.3319, "step": 297 }, { "epoch": 0.09933333333333333, "grad_norm": 1.6420544385910034, "learning_rate": 4.966666666666667e-05, "loss": 0.4242, "step": 298 }, { "epoch": 0.09966666666666667, "grad_norm": 1.577746868133545, "learning_rate": 4.9833333333333336e-05, "loss": 0.3658, "step": 299 }, { "epoch": 0.1, "grad_norm": 1.9592171907424927, "learning_rate": 5e-05, "loss": 0.3846, "step": 300 }, { "epoch": 0.10033333333333333, "grad_norm": 1.5824711322784424, "learning_rate": 4.998148148148148e-05, "loss": 0.4153, "step": 301 }, { "epoch": 0.10066666666666667, "grad_norm": 1.4897867441177368, "learning_rate": 4.9962962962962964e-05, "loss": 0.3189, "step": 302 }, { "epoch": 0.101, "grad_norm": 1.5191915035247803, "learning_rate": 4.994444444444445e-05, "loss": 0.3831, "step": 303 }, { "epoch": 0.10133333333333333, "grad_norm": 1.619132399559021, "learning_rate": 4.9925925925925926e-05, "loss": 0.3979, "step": 304 }, { "epoch": 0.10166666666666667, "grad_norm": 1.4781115055084229, "learning_rate": 4.9907407407407406e-05, "loss": 0.353, "step": 305 }, { "epoch": 0.102, "grad_norm": 1.4926246404647827, "learning_rate": 4.9888888888888894e-05, "loss": 0.3419, "step": 306 }, { "epoch": 0.10233333333333333, "grad_norm": 1.7952423095703125, "learning_rate": 4.9870370370370375e-05, "loss": 0.5152, "step": 307 }, { "epoch": 0.10266666666666667, "grad_norm": 1.4844441413879395, "learning_rate": 4.9851851851851855e-05, "loss": 0.3638, "step": 308 }, { "epoch": 0.103, "grad_norm": 1.7583948373794556, "learning_rate": 4.9833333333333336e-05, "loss": 0.412, "step": 309 }, { "epoch": 0.10333333333333333, "grad_norm": 1.615587830543518, "learning_rate": 4.981481481481482e-05, "loss": 0.3168, "step": 310 }, { "epoch": 0.10366666666666667, "grad_norm": 1.519759178161621, "learning_rate": 4.97962962962963e-05, "loss": 0.3732, "step": 311 }, { "epoch": 0.104, "grad_norm": 1.3965352773666382, "learning_rate": 4.977777777777778e-05, "loss": 0.4101, "step": 312 }, { "epoch": 0.10433333333333333, "grad_norm": 1.3635843992233276, "learning_rate": 4.975925925925926e-05, "loss": 0.3255, "step": 313 }, { "epoch": 0.10466666666666667, "grad_norm": 1.4801793098449707, "learning_rate": 4.974074074074074e-05, "loss": 0.3583, "step": 314 }, { "epoch": 0.105, "grad_norm": 1.591237187385559, "learning_rate": 4.972222222222223e-05, "loss": 0.3393, "step": 315 }, { "epoch": 0.10533333333333333, "grad_norm": 1.5205988883972168, "learning_rate": 4.970370370370371e-05, "loss": 0.4168, "step": 316 }, { "epoch": 0.10566666666666667, "grad_norm": 1.8333476781845093, "learning_rate": 4.968518518518519e-05, "loss": 0.3803, "step": 317 }, { "epoch": 0.106, "grad_norm": 1.692940592765808, "learning_rate": 4.966666666666667e-05, "loss": 0.3542, "step": 318 }, { "epoch": 0.10633333333333334, "grad_norm": 1.5380736589431763, "learning_rate": 4.964814814814815e-05, "loss": 0.4271, "step": 319 }, { "epoch": 0.10666666666666667, "grad_norm": 1.168047547340393, "learning_rate": 4.962962962962963e-05, "loss": 0.308, "step": 320 }, { "epoch": 0.107, "grad_norm": 1.681167721748352, "learning_rate": 4.961111111111111e-05, "loss": 0.4, "step": 321 }, { "epoch": 0.10733333333333334, "grad_norm": 1.6703509092330933, "learning_rate": 4.959259259259259e-05, "loss": 0.3961, "step": 322 }, { "epoch": 0.10766666666666666, "grad_norm": 1.7819141149520874, "learning_rate": 4.957407407407408e-05, "loss": 0.3836, "step": 323 }, { "epoch": 0.108, "grad_norm": 1.3892372846603394, "learning_rate": 4.955555555555556e-05, "loss": 0.3315, "step": 324 }, { "epoch": 0.10833333333333334, "grad_norm": 1.8924736976623535, "learning_rate": 4.9537037037037035e-05, "loss": 0.3776, "step": 325 }, { "epoch": 0.10866666666666666, "grad_norm": 1.8088842630386353, "learning_rate": 4.951851851851852e-05, "loss": 0.3925, "step": 326 }, { "epoch": 0.109, "grad_norm": 1.5073802471160889, "learning_rate": 4.9500000000000004e-05, "loss": 0.3759, "step": 327 }, { "epoch": 0.10933333333333334, "grad_norm": 1.6175148487091064, "learning_rate": 4.9481481481481485e-05, "loss": 0.4247, "step": 328 }, { "epoch": 0.10966666666666666, "grad_norm": 1.516506314277649, "learning_rate": 4.9462962962962965e-05, "loss": 0.3929, "step": 329 }, { "epoch": 0.11, "grad_norm": 1.4654260873794556, "learning_rate": 4.9444444444444446e-05, "loss": 0.3604, "step": 330 }, { "epoch": 0.11033333333333334, "grad_norm": 2.3211357593536377, "learning_rate": 4.942592592592593e-05, "loss": 0.387, "step": 331 }, { "epoch": 0.11066666666666666, "grad_norm": 1.5019792318344116, "learning_rate": 4.940740740740741e-05, "loss": 0.4104, "step": 332 }, { "epoch": 0.111, "grad_norm": 1.5635384321212769, "learning_rate": 4.938888888888889e-05, "loss": 0.373, "step": 333 }, { "epoch": 0.11133333333333334, "grad_norm": 1.4854447841644287, "learning_rate": 4.937037037037037e-05, "loss": 0.3901, "step": 334 }, { "epoch": 0.11166666666666666, "grad_norm": 1.634382724761963, "learning_rate": 4.935185185185186e-05, "loss": 0.4457, "step": 335 }, { "epoch": 0.112, "grad_norm": 1.4691849946975708, "learning_rate": 4.933333333333334e-05, "loss": 0.3956, "step": 336 }, { "epoch": 0.11233333333333333, "grad_norm": 1.7635351419448853, "learning_rate": 4.931481481481482e-05, "loss": 0.4459, "step": 337 }, { "epoch": 0.11266666666666666, "grad_norm": 1.4270474910736084, "learning_rate": 4.92962962962963e-05, "loss": 0.3152, "step": 338 }, { "epoch": 0.113, "grad_norm": 1.3785789012908936, "learning_rate": 4.927777777777778e-05, "loss": 0.3155, "step": 339 }, { "epoch": 0.11333333333333333, "grad_norm": 1.5080225467681885, "learning_rate": 4.925925925925926e-05, "loss": 0.4339, "step": 340 }, { "epoch": 0.11366666666666667, "grad_norm": 1.536300778388977, "learning_rate": 4.924074074074074e-05, "loss": 0.3227, "step": 341 }, { "epoch": 0.114, "grad_norm": 1.619066834449768, "learning_rate": 4.922222222222222e-05, "loss": 0.4118, "step": 342 }, { "epoch": 0.11433333333333333, "grad_norm": 1.470788598060608, "learning_rate": 4.920370370370371e-05, "loss": 0.3655, "step": 343 }, { "epoch": 0.11466666666666667, "grad_norm": 2.8463382720947266, "learning_rate": 4.918518518518519e-05, "loss": 0.3205, "step": 344 }, { "epoch": 0.115, "grad_norm": 1.6264667510986328, "learning_rate": 4.9166666666666665e-05, "loss": 0.3792, "step": 345 }, { "epoch": 0.11533333333333333, "grad_norm": 1.660156011581421, "learning_rate": 4.9148148148148145e-05, "loss": 0.451, "step": 346 }, { "epoch": 0.11566666666666667, "grad_norm": 1.513501763343811, "learning_rate": 4.912962962962963e-05, "loss": 0.3873, "step": 347 }, { "epoch": 0.116, "grad_norm": 1.311440348625183, "learning_rate": 4.9111111111111114e-05, "loss": 0.2904, "step": 348 }, { "epoch": 0.11633333333333333, "grad_norm": 1.6002171039581299, "learning_rate": 4.9092592592592595e-05, "loss": 0.3901, "step": 349 }, { "epoch": 0.11666666666666667, "grad_norm": 1.3863859176635742, "learning_rate": 4.9074074074074075e-05, "loss": 0.3675, "step": 350 }, { "epoch": 0.117, "grad_norm": 1.4766677618026733, "learning_rate": 4.905555555555556e-05, "loss": 0.3755, "step": 351 }, { "epoch": 0.11733333333333333, "grad_norm": 1.4965181350708008, "learning_rate": 4.903703703703704e-05, "loss": 0.374, "step": 352 }, { "epoch": 0.11766666666666667, "grad_norm": 1.6470006704330444, "learning_rate": 4.901851851851852e-05, "loss": 0.3664, "step": 353 }, { "epoch": 0.118, "grad_norm": 1.9289568662643433, "learning_rate": 4.9e-05, "loss": 0.4022, "step": 354 }, { "epoch": 0.11833333333333333, "grad_norm": 1.4589459896087646, "learning_rate": 4.8981481481481486e-05, "loss": 0.347, "step": 355 }, { "epoch": 0.11866666666666667, "grad_norm": 1.5202605724334717, "learning_rate": 4.896296296296297e-05, "loss": 0.358, "step": 356 }, { "epoch": 0.119, "grad_norm": 1.4946200847625732, "learning_rate": 4.894444444444445e-05, "loss": 0.3375, "step": 357 }, { "epoch": 0.11933333333333333, "grad_norm": 1.8175865411758423, "learning_rate": 4.892592592592593e-05, "loss": 0.4148, "step": 358 }, { "epoch": 0.11966666666666667, "grad_norm": 1.3258353471755981, "learning_rate": 4.890740740740741e-05, "loss": 0.3133, "step": 359 }, { "epoch": 0.12, "grad_norm": 1.7926863431930542, "learning_rate": 4.888888888888889e-05, "loss": 0.5019, "step": 360 }, { "epoch": 0.12033333333333333, "grad_norm": 1.3644227981567383, "learning_rate": 4.887037037037037e-05, "loss": 0.3788, "step": 361 }, { "epoch": 0.12066666666666667, "grad_norm": 1.3067071437835693, "learning_rate": 4.885185185185185e-05, "loss": 0.3615, "step": 362 }, { "epoch": 0.121, "grad_norm": 1.4631500244140625, "learning_rate": 4.883333333333334e-05, "loss": 0.3555, "step": 363 }, { "epoch": 0.12133333333333333, "grad_norm": 1.3096414804458618, "learning_rate": 4.881481481481482e-05, "loss": 0.3161, "step": 364 }, { "epoch": 0.12166666666666667, "grad_norm": 1.5563383102416992, "learning_rate": 4.87962962962963e-05, "loss": 0.3903, "step": 365 }, { "epoch": 0.122, "grad_norm": 1.45024573802948, "learning_rate": 4.8777777777777775e-05, "loss": 0.3335, "step": 366 }, { "epoch": 0.12233333333333334, "grad_norm": 1.3422824144363403, "learning_rate": 4.875925925925926e-05, "loss": 0.3419, "step": 367 }, { "epoch": 0.12266666666666666, "grad_norm": 1.779746651649475, "learning_rate": 4.874074074074074e-05, "loss": 0.4075, "step": 368 }, { "epoch": 0.123, "grad_norm": 1.5517817735671997, "learning_rate": 4.8722222222222224e-05, "loss": 0.3384, "step": 369 }, { "epoch": 0.12333333333333334, "grad_norm": 1.6251047849655151, "learning_rate": 4.8703703703703704e-05, "loss": 0.3878, "step": 370 }, { "epoch": 0.12366666666666666, "grad_norm": 1.40427565574646, "learning_rate": 4.868518518518519e-05, "loss": 0.3203, "step": 371 }, { "epoch": 0.124, "grad_norm": 1.3117016553878784, "learning_rate": 4.866666666666667e-05, "loss": 0.3891, "step": 372 }, { "epoch": 0.12433333333333334, "grad_norm": 1.444316029548645, "learning_rate": 4.864814814814815e-05, "loss": 0.3567, "step": 373 }, { "epoch": 0.12466666666666666, "grad_norm": 1.483818769454956, "learning_rate": 4.862962962962963e-05, "loss": 0.347, "step": 374 }, { "epoch": 0.125, "grad_norm": 5.050604820251465, "learning_rate": 4.8611111111111115e-05, "loss": 0.436, "step": 375 }, { "epoch": 0.12533333333333332, "grad_norm": 2.0448899269104004, "learning_rate": 4.8592592592592596e-05, "loss": 0.3999, "step": 376 }, { "epoch": 0.12566666666666668, "grad_norm": 1.5457038879394531, "learning_rate": 4.857407407407408e-05, "loss": 0.3809, "step": 377 }, { "epoch": 0.126, "grad_norm": 1.1272550821304321, "learning_rate": 4.855555555555556e-05, "loss": 0.2861, "step": 378 }, { "epoch": 0.12633333333333333, "grad_norm": 1.2987323999404907, "learning_rate": 4.8537037037037045e-05, "loss": 0.3667, "step": 379 }, { "epoch": 0.12666666666666668, "grad_norm": 1.317092776298523, "learning_rate": 4.851851851851852e-05, "loss": 0.3122, "step": 380 }, { "epoch": 0.127, "grad_norm": 1.9207242727279663, "learning_rate": 4.85e-05, "loss": 0.4691, "step": 381 }, { "epoch": 0.12733333333333333, "grad_norm": 1.8333582878112793, "learning_rate": 4.848148148148148e-05, "loss": 0.4399, "step": 382 }, { "epoch": 0.12766666666666668, "grad_norm": 1.4632537364959717, "learning_rate": 4.846296296296297e-05, "loss": 0.2977, "step": 383 }, { "epoch": 0.128, "grad_norm": 1.47628915309906, "learning_rate": 4.844444444444445e-05, "loss": 0.3357, "step": 384 }, { "epoch": 0.12833333333333333, "grad_norm": 1.628018856048584, "learning_rate": 4.842592592592593e-05, "loss": 0.3637, "step": 385 }, { "epoch": 0.12866666666666668, "grad_norm": 1.3261082172393799, "learning_rate": 4.840740740740741e-05, "loss": 0.3491, "step": 386 }, { "epoch": 0.129, "grad_norm": 1.5615298748016357, "learning_rate": 4.838888888888889e-05, "loss": 0.3898, "step": 387 }, { "epoch": 0.12933333333333333, "grad_norm": 1.3540629148483276, "learning_rate": 4.837037037037037e-05, "loss": 0.3469, "step": 388 }, { "epoch": 0.12966666666666668, "grad_norm": 1.8067810535430908, "learning_rate": 4.835185185185185e-05, "loss": 0.4265, "step": 389 }, { "epoch": 0.13, "grad_norm": 1.4625282287597656, "learning_rate": 4.8333333333333334e-05, "loss": 0.4109, "step": 390 }, { "epoch": 0.13033333333333333, "grad_norm": 1.2926377058029175, "learning_rate": 4.831481481481482e-05, "loss": 0.35, "step": 391 }, { "epoch": 0.13066666666666665, "grad_norm": 1.5411444902420044, "learning_rate": 4.82962962962963e-05, "loss": 0.3599, "step": 392 }, { "epoch": 0.131, "grad_norm": 1.6826238632202148, "learning_rate": 4.8277777777777776e-05, "loss": 0.5067, "step": 393 }, { "epoch": 0.13133333333333333, "grad_norm": 1.5270205736160278, "learning_rate": 4.825925925925926e-05, "loss": 0.4664, "step": 394 }, { "epoch": 0.13166666666666665, "grad_norm": 1.546836256980896, "learning_rate": 4.8240740740740744e-05, "loss": 0.3871, "step": 395 }, { "epoch": 0.132, "grad_norm": 1.5166618824005127, "learning_rate": 4.8222222222222225e-05, "loss": 0.3154, "step": 396 }, { "epoch": 0.13233333333333333, "grad_norm": 1.4706875085830688, "learning_rate": 4.8203703703703706e-05, "loss": 0.37, "step": 397 }, { "epoch": 0.13266666666666665, "grad_norm": 1.577710509300232, "learning_rate": 4.818518518518519e-05, "loss": 0.3334, "step": 398 }, { "epoch": 0.133, "grad_norm": 2.96756911277771, "learning_rate": 4.8166666666666674e-05, "loss": 0.3901, "step": 399 }, { "epoch": 0.13333333333333333, "grad_norm": 1.3939603567123413, "learning_rate": 4.814814814814815e-05, "loss": 0.3086, "step": 400 }, { "epoch": 0.13366666666666666, "grad_norm": 1.8783942461013794, "learning_rate": 4.812962962962963e-05, "loss": 0.5443, "step": 401 }, { "epoch": 0.134, "grad_norm": 1.639843225479126, "learning_rate": 4.811111111111111e-05, "loss": 0.5519, "step": 402 }, { "epoch": 0.13433333333333333, "grad_norm": 1.6600115299224854, "learning_rate": 4.80925925925926e-05, "loss": 0.3592, "step": 403 }, { "epoch": 0.13466666666666666, "grad_norm": 1.3091179132461548, "learning_rate": 4.807407407407408e-05, "loss": 0.3065, "step": 404 }, { "epoch": 0.135, "grad_norm": 3.4881818294525146, "learning_rate": 4.805555555555556e-05, "loss": 0.3254, "step": 405 }, { "epoch": 0.13533333333333333, "grad_norm": 1.6983367204666138, "learning_rate": 4.803703703703704e-05, "loss": 0.4013, "step": 406 }, { "epoch": 0.13566666666666666, "grad_norm": 1.4208776950836182, "learning_rate": 4.801851851851852e-05, "loss": 0.3775, "step": 407 }, { "epoch": 0.136, "grad_norm": 1.1817011833190918, "learning_rate": 4.8e-05, "loss": 0.3014, "step": 408 }, { "epoch": 0.13633333333333333, "grad_norm": 2.8179917335510254, "learning_rate": 4.798148148148148e-05, "loss": 0.3102, "step": 409 }, { "epoch": 0.13666666666666666, "grad_norm": 1.780457615852356, "learning_rate": 4.796296296296296e-05, "loss": 0.3795, "step": 410 }, { "epoch": 0.137, "grad_norm": 2.187234878540039, "learning_rate": 4.794444444444445e-05, "loss": 0.4098, "step": 411 }, { "epoch": 0.13733333333333334, "grad_norm": 1.4273678064346313, "learning_rate": 4.792592592592593e-05, "loss": 0.3654, "step": 412 }, { "epoch": 0.13766666666666666, "grad_norm": 1.4316853284835815, "learning_rate": 4.790740740740741e-05, "loss": 0.3317, "step": 413 }, { "epoch": 0.138, "grad_norm": 1.5158627033233643, "learning_rate": 4.7888888888888886e-05, "loss": 0.4107, "step": 414 }, { "epoch": 0.13833333333333334, "grad_norm": 1.4416333436965942, "learning_rate": 4.7870370370370373e-05, "loss": 0.356, "step": 415 }, { "epoch": 0.13866666666666666, "grad_norm": 1.600272297859192, "learning_rate": 4.7851851851851854e-05, "loss": 0.4041, "step": 416 }, { "epoch": 0.139, "grad_norm": 1.4517465829849243, "learning_rate": 4.7833333333333335e-05, "loss": 0.3554, "step": 417 }, { "epoch": 0.13933333333333334, "grad_norm": 1.8297104835510254, "learning_rate": 4.7814814814814816e-05, "loss": 0.4244, "step": 418 }, { "epoch": 0.13966666666666666, "grad_norm": 1.4831371307373047, "learning_rate": 4.77962962962963e-05, "loss": 0.3987, "step": 419 }, { "epoch": 0.14, "grad_norm": 1.6603938341140747, "learning_rate": 4.7777777777777784e-05, "loss": 0.4253, "step": 420 }, { "epoch": 0.14033333333333334, "grad_norm": 1.577906847000122, "learning_rate": 4.775925925925926e-05, "loss": 0.4154, "step": 421 }, { "epoch": 0.14066666666666666, "grad_norm": 1.594200611114502, "learning_rate": 4.774074074074074e-05, "loss": 0.3967, "step": 422 }, { "epoch": 0.141, "grad_norm": 1.3381290435791016, "learning_rate": 4.7722222222222226e-05, "loss": 0.3398, "step": 423 }, { "epoch": 0.14133333333333334, "grad_norm": 1.574758768081665, "learning_rate": 4.770370370370371e-05, "loss": 0.2969, "step": 424 }, { "epoch": 0.14166666666666666, "grad_norm": 1.4329252243041992, "learning_rate": 4.768518518518519e-05, "loss": 0.3546, "step": 425 }, { "epoch": 0.142, "grad_norm": 1.4215891361236572, "learning_rate": 4.766666666666667e-05, "loss": 0.3441, "step": 426 }, { "epoch": 0.14233333333333334, "grad_norm": 1.549372673034668, "learning_rate": 4.764814814814815e-05, "loss": 0.3625, "step": 427 }, { "epoch": 0.14266666666666666, "grad_norm": 1.610260009765625, "learning_rate": 4.762962962962963e-05, "loss": 0.3933, "step": 428 }, { "epoch": 0.143, "grad_norm": 1.4108293056488037, "learning_rate": 4.761111111111111e-05, "loss": 0.354, "step": 429 }, { "epoch": 0.14333333333333334, "grad_norm": 2.310365676879883, "learning_rate": 4.759259259259259e-05, "loss": 0.3825, "step": 430 }, { "epoch": 0.14366666666666666, "grad_norm": 1.607605218887329, "learning_rate": 4.757407407407408e-05, "loss": 0.4195, "step": 431 }, { "epoch": 0.144, "grad_norm": 1.4815714359283447, "learning_rate": 4.755555555555556e-05, "loss": 0.3548, "step": 432 }, { "epoch": 0.14433333333333334, "grad_norm": 1.4924988746643066, "learning_rate": 4.753703703703704e-05, "loss": 0.3967, "step": 433 }, { "epoch": 0.14466666666666667, "grad_norm": 2.915475368499756, "learning_rate": 4.751851851851852e-05, "loss": 0.3949, "step": 434 }, { "epoch": 0.145, "grad_norm": 1.5413134098052979, "learning_rate": 4.75e-05, "loss": 0.3973, "step": 435 }, { "epoch": 0.14533333333333334, "grad_norm": 1.9248411655426025, "learning_rate": 4.7481481481481483e-05, "loss": 0.3784, "step": 436 }, { "epoch": 0.14566666666666667, "grad_norm": 1.6248245239257812, "learning_rate": 4.7462962962962964e-05, "loss": 0.4119, "step": 437 }, { "epoch": 0.146, "grad_norm": 1.705633282661438, "learning_rate": 4.7444444444444445e-05, "loss": 0.4396, "step": 438 }, { "epoch": 0.14633333333333334, "grad_norm": 1.4687634706497192, "learning_rate": 4.742592592592593e-05, "loss": 0.3852, "step": 439 }, { "epoch": 0.14666666666666667, "grad_norm": 1.8919180631637573, "learning_rate": 4.740740740740741e-05, "loss": 0.3819, "step": 440 }, { "epoch": 0.147, "grad_norm": 1.371976375579834, "learning_rate": 4.7388888888888894e-05, "loss": 0.3571, "step": 441 }, { "epoch": 0.14733333333333334, "grad_norm": 2.8801138401031494, "learning_rate": 4.737037037037037e-05, "loss": 0.4213, "step": 442 }, { "epoch": 0.14766666666666667, "grad_norm": 1.6173559427261353, "learning_rate": 4.7351851851851856e-05, "loss": 0.3702, "step": 443 }, { "epoch": 0.148, "grad_norm": 1.2258858680725098, "learning_rate": 4.7333333333333336e-05, "loss": 0.3285, "step": 444 }, { "epoch": 0.14833333333333334, "grad_norm": 1.3034180402755737, "learning_rate": 4.731481481481482e-05, "loss": 0.3267, "step": 445 }, { "epoch": 0.14866666666666667, "grad_norm": 1.6660559177398682, "learning_rate": 4.72962962962963e-05, "loss": 0.4348, "step": 446 }, { "epoch": 0.149, "grad_norm": 1.300252079963684, "learning_rate": 4.727777777777778e-05, "loss": 0.3129, "step": 447 }, { "epoch": 0.14933333333333335, "grad_norm": 1.5774869918823242, "learning_rate": 4.7259259259259266e-05, "loss": 0.3948, "step": 448 }, { "epoch": 0.14966666666666667, "grad_norm": 1.485144853591919, "learning_rate": 4.724074074074074e-05, "loss": 0.3215, "step": 449 }, { "epoch": 0.15, "grad_norm": 1.4521360397338867, "learning_rate": 4.722222222222222e-05, "loss": 0.3585, "step": 450 }, { "epoch": 0.15033333333333335, "grad_norm": 1.3035513162612915, "learning_rate": 4.720370370370371e-05, "loss": 0.2725, "step": 451 }, { "epoch": 0.15066666666666667, "grad_norm": 1.727379322052002, "learning_rate": 4.718518518518519e-05, "loss": 0.4097, "step": 452 }, { "epoch": 0.151, "grad_norm": 2.3666672706604004, "learning_rate": 4.716666666666667e-05, "loss": 0.4662, "step": 453 }, { "epoch": 0.15133333333333332, "grad_norm": 1.654421091079712, "learning_rate": 4.714814814814815e-05, "loss": 0.3372, "step": 454 }, { "epoch": 0.15166666666666667, "grad_norm": 1.6819572448730469, "learning_rate": 4.712962962962963e-05, "loss": 0.435, "step": 455 }, { "epoch": 0.152, "grad_norm": 1.5675102472305298, "learning_rate": 4.711111111111111e-05, "loss": 0.4012, "step": 456 }, { "epoch": 0.15233333333333332, "grad_norm": 1.4625293016433716, "learning_rate": 4.709259259259259e-05, "loss": 0.3838, "step": 457 }, { "epoch": 0.15266666666666667, "grad_norm": 1.520033836364746, "learning_rate": 4.7074074074074074e-05, "loss": 0.366, "step": 458 }, { "epoch": 0.153, "grad_norm": 1.2604353427886963, "learning_rate": 4.7055555555555555e-05, "loss": 0.2488, "step": 459 }, { "epoch": 0.15333333333333332, "grad_norm": 1.4598571062088013, "learning_rate": 4.703703703703704e-05, "loss": 0.3245, "step": 460 }, { "epoch": 0.15366666666666667, "grad_norm": 1.609896183013916, "learning_rate": 4.701851851851852e-05, "loss": 0.3609, "step": 461 }, { "epoch": 0.154, "grad_norm": 1.4688657522201538, "learning_rate": 4.7e-05, "loss": 0.3607, "step": 462 }, { "epoch": 0.15433333333333332, "grad_norm": 1.243186354637146, "learning_rate": 4.6981481481481485e-05, "loss": 0.3003, "step": 463 }, { "epoch": 0.15466666666666667, "grad_norm": 1.4108368158340454, "learning_rate": 4.6962962962962966e-05, "loss": 0.3519, "step": 464 }, { "epoch": 0.155, "grad_norm": 7.958014965057373, "learning_rate": 4.6944444444444446e-05, "loss": 0.3188, "step": 465 }, { "epoch": 0.15533333333333332, "grad_norm": 1.6169638633728027, "learning_rate": 4.692592592592593e-05, "loss": 0.3719, "step": 466 }, { "epoch": 0.15566666666666668, "grad_norm": 1.5462708473205566, "learning_rate": 4.690740740740741e-05, "loss": 0.3421, "step": 467 }, { "epoch": 0.156, "grad_norm": 1.8130849599838257, "learning_rate": 4.6888888888888895e-05, "loss": 0.394, "step": 468 }, { "epoch": 0.15633333333333332, "grad_norm": 1.4210973978042603, "learning_rate": 4.687037037037037e-05, "loss": 0.4152, "step": 469 }, { "epoch": 0.15666666666666668, "grad_norm": 1.6681641340255737, "learning_rate": 4.685185185185185e-05, "loss": 0.422, "step": 470 }, { "epoch": 0.157, "grad_norm": 1.3365411758422852, "learning_rate": 4.683333333333334e-05, "loss": 0.3282, "step": 471 }, { "epoch": 0.15733333333333333, "grad_norm": 1.6300495862960815, "learning_rate": 4.681481481481482e-05, "loss": 0.3325, "step": 472 }, { "epoch": 0.15766666666666668, "grad_norm": 1.8083395957946777, "learning_rate": 4.67962962962963e-05, "loss": 0.4878, "step": 473 }, { "epoch": 0.158, "grad_norm": 2.474660634994507, "learning_rate": 4.677777777777778e-05, "loss": 0.3831, "step": 474 }, { "epoch": 0.15833333333333333, "grad_norm": 1.2663764953613281, "learning_rate": 4.675925925925926e-05, "loss": 0.2903, "step": 475 }, { "epoch": 0.15866666666666668, "grad_norm": 1.615507960319519, "learning_rate": 4.674074074074074e-05, "loss": 0.4286, "step": 476 }, { "epoch": 0.159, "grad_norm": 1.31894850730896, "learning_rate": 4.672222222222222e-05, "loss": 0.3779, "step": 477 }, { "epoch": 0.15933333333333333, "grad_norm": 1.6353154182434082, "learning_rate": 4.67037037037037e-05, "loss": 0.4092, "step": 478 }, { "epoch": 0.15966666666666668, "grad_norm": 1.4601986408233643, "learning_rate": 4.6685185185185184e-05, "loss": 0.3107, "step": 479 }, { "epoch": 0.16, "grad_norm": 1.5335056781768799, "learning_rate": 4.666666666666667e-05, "loss": 0.3519, "step": 480 }, { "epoch": 0.16033333333333333, "grad_norm": 1.3570960760116577, "learning_rate": 4.664814814814815e-05, "loss": 0.3462, "step": 481 }, { "epoch": 0.16066666666666668, "grad_norm": 1.6119030714035034, "learning_rate": 4.662962962962963e-05, "loss": 0.4134, "step": 482 }, { "epoch": 0.161, "grad_norm": 1.5040596723556519, "learning_rate": 4.6611111111111114e-05, "loss": 0.3403, "step": 483 }, { "epoch": 0.16133333333333333, "grad_norm": 1.6691622734069824, "learning_rate": 4.6592592592592595e-05, "loss": 0.3845, "step": 484 }, { "epoch": 0.16166666666666665, "grad_norm": 1.212578296661377, "learning_rate": 4.6574074074074076e-05, "loss": 0.295, "step": 485 }, { "epoch": 0.162, "grad_norm": 1.5998772382736206, "learning_rate": 4.6555555555555556e-05, "loss": 0.3452, "step": 486 }, { "epoch": 0.16233333333333333, "grad_norm": 1.5955681800842285, "learning_rate": 4.653703703703704e-05, "loss": 0.3911, "step": 487 }, { "epoch": 0.16266666666666665, "grad_norm": 1.948377013206482, "learning_rate": 4.6518518518518525e-05, "loss": 0.4885, "step": 488 }, { "epoch": 0.163, "grad_norm": 1.562285304069519, "learning_rate": 4.6500000000000005e-05, "loss": 0.354, "step": 489 }, { "epoch": 0.16333333333333333, "grad_norm": 1.3308295011520386, "learning_rate": 4.648148148148148e-05, "loss": 0.3341, "step": 490 }, { "epoch": 0.16366666666666665, "grad_norm": 1.470138430595398, "learning_rate": 4.646296296296297e-05, "loss": 0.3751, "step": 491 }, { "epoch": 0.164, "grad_norm": 1.4458322525024414, "learning_rate": 4.644444444444445e-05, "loss": 0.3457, "step": 492 }, { "epoch": 0.16433333333333333, "grad_norm": 1.457342505455017, "learning_rate": 4.642592592592593e-05, "loss": 0.3596, "step": 493 }, { "epoch": 0.16466666666666666, "grad_norm": 1.5412640571594238, "learning_rate": 4.640740740740741e-05, "loss": 0.3418, "step": 494 }, { "epoch": 0.165, "grad_norm": 1.472030520439148, "learning_rate": 4.638888888888889e-05, "loss": 0.3425, "step": 495 }, { "epoch": 0.16533333333333333, "grad_norm": 1.6183019876480103, "learning_rate": 4.637037037037038e-05, "loss": 0.3352, "step": 496 }, { "epoch": 0.16566666666666666, "grad_norm": 2.019596815109253, "learning_rate": 4.635185185185185e-05, "loss": 0.3578, "step": 497 }, { "epoch": 0.166, "grad_norm": 1.3924508094787598, "learning_rate": 4.633333333333333e-05, "loss": 0.3676, "step": 498 }, { "epoch": 0.16633333333333333, "grad_norm": 1.27180016040802, "learning_rate": 4.631481481481481e-05, "loss": 0.3179, "step": 499 }, { "epoch": 0.16666666666666666, "grad_norm": 1.225780725479126, "learning_rate": 4.62962962962963e-05, "loss": 0.3431, "step": 500 }, { "epoch": 0.167, "grad_norm": 1.793016791343689, "learning_rate": 4.627777777777778e-05, "loss": 0.4867, "step": 501 }, { "epoch": 0.16733333333333333, "grad_norm": 1.5788778066635132, "learning_rate": 4.625925925925926e-05, "loss": 0.3276, "step": 502 }, { "epoch": 0.16766666666666666, "grad_norm": 1.751562476158142, "learning_rate": 4.624074074074074e-05, "loss": 0.4539, "step": 503 }, { "epoch": 0.168, "grad_norm": 1.431057333946228, "learning_rate": 4.6222222222222224e-05, "loss": 0.3713, "step": 504 }, { "epoch": 0.16833333333333333, "grad_norm": 1.3699835538864136, "learning_rate": 4.6203703703703705e-05, "loss": 0.3447, "step": 505 }, { "epoch": 0.16866666666666666, "grad_norm": 1.5171544551849365, "learning_rate": 4.6185185185185185e-05, "loss": 0.2956, "step": 506 }, { "epoch": 0.169, "grad_norm": 1.7429660558700562, "learning_rate": 4.6166666666666666e-05, "loss": 0.3909, "step": 507 }, { "epoch": 0.16933333333333334, "grad_norm": 1.7300422191619873, "learning_rate": 4.6148148148148154e-05, "loss": 0.4494, "step": 508 }, { "epoch": 0.16966666666666666, "grad_norm": 1.264761209487915, "learning_rate": 4.6129629629629635e-05, "loss": 0.2988, "step": 509 }, { "epoch": 0.17, "grad_norm": 1.6348915100097656, "learning_rate": 4.6111111111111115e-05, "loss": 0.3799, "step": 510 }, { "epoch": 0.17033333333333334, "grad_norm": 1.5455849170684814, "learning_rate": 4.6092592592592596e-05, "loss": 0.3082, "step": 511 }, { "epoch": 0.17066666666666666, "grad_norm": 1.5002715587615967, "learning_rate": 4.607407407407408e-05, "loss": 0.388, "step": 512 }, { "epoch": 0.171, "grad_norm": 1.3733866214752197, "learning_rate": 4.605555555555556e-05, "loss": 0.2715, "step": 513 }, { "epoch": 0.17133333333333334, "grad_norm": 1.5897667407989502, "learning_rate": 4.603703703703704e-05, "loss": 0.4274, "step": 514 }, { "epoch": 0.17166666666666666, "grad_norm": 1.4934463500976562, "learning_rate": 4.601851851851852e-05, "loss": 0.3477, "step": 515 }, { "epoch": 0.172, "grad_norm": 1.6661343574523926, "learning_rate": 4.600000000000001e-05, "loss": 0.4138, "step": 516 }, { "epoch": 0.17233333333333334, "grad_norm": 1.3750795125961304, "learning_rate": 4.598148148148148e-05, "loss": 0.3704, "step": 517 }, { "epoch": 0.17266666666666666, "grad_norm": 1.6565532684326172, "learning_rate": 4.596296296296296e-05, "loss": 0.4498, "step": 518 }, { "epoch": 0.173, "grad_norm": 5.795270919799805, "learning_rate": 4.594444444444444e-05, "loss": 0.4515, "step": 519 }, { "epoch": 0.17333333333333334, "grad_norm": 17.75341033935547, "learning_rate": 4.592592592592593e-05, "loss": 0.3419, "step": 520 }, { "epoch": 0.17366666666666666, "grad_norm": 1.2986958026885986, "learning_rate": 4.590740740740741e-05, "loss": 0.3258, "step": 521 }, { "epoch": 0.174, "grad_norm": 1.4572504758834839, "learning_rate": 4.588888888888889e-05, "loss": 0.3619, "step": 522 }, { "epoch": 0.17433333333333334, "grad_norm": 1.3477206230163574, "learning_rate": 4.587037037037037e-05, "loss": 0.3474, "step": 523 }, { "epoch": 0.17466666666666666, "grad_norm": 1.4138680696487427, "learning_rate": 4.585185185185185e-05, "loss": 0.4011, "step": 524 }, { "epoch": 0.175, "grad_norm": 1.817885398864746, "learning_rate": 4.5833333333333334e-05, "loss": 0.3976, "step": 525 }, { "epoch": 0.17533333333333334, "grad_norm": 2.031548023223877, "learning_rate": 4.5814814814814815e-05, "loss": 0.3649, "step": 526 }, { "epoch": 0.17566666666666667, "grad_norm": 1.7162131071090698, "learning_rate": 4.5796296296296295e-05, "loss": 0.3296, "step": 527 }, { "epoch": 0.176, "grad_norm": 1.916621446609497, "learning_rate": 4.577777777777778e-05, "loss": 0.3943, "step": 528 }, { "epoch": 0.17633333333333334, "grad_norm": 1.6090394258499146, "learning_rate": 4.5759259259259264e-05, "loss": 0.3501, "step": 529 }, { "epoch": 0.17666666666666667, "grad_norm": 1.6718857288360596, "learning_rate": 4.5740740740740745e-05, "loss": 0.4241, "step": 530 }, { "epoch": 0.177, "grad_norm": 1.7291890382766724, "learning_rate": 4.572222222222222e-05, "loss": 0.4181, "step": 531 }, { "epoch": 0.17733333333333334, "grad_norm": 1.506325125694275, "learning_rate": 4.5703703703703706e-05, "loss": 0.3724, "step": 532 }, { "epoch": 0.17766666666666667, "grad_norm": 1.6740254163742065, "learning_rate": 4.568518518518519e-05, "loss": 0.4633, "step": 533 }, { "epoch": 0.178, "grad_norm": 1.4528924226760864, "learning_rate": 4.566666666666667e-05, "loss": 0.3473, "step": 534 }, { "epoch": 0.17833333333333334, "grad_norm": 1.6197060346603394, "learning_rate": 4.564814814814815e-05, "loss": 0.4072, "step": 535 }, { "epoch": 0.17866666666666667, "grad_norm": 1.7965662479400635, "learning_rate": 4.5629629629629636e-05, "loss": 0.4327, "step": 536 }, { "epoch": 0.179, "grad_norm": 1.403766393661499, "learning_rate": 4.561111111111112e-05, "loss": 0.3179, "step": 537 }, { "epoch": 0.17933333333333334, "grad_norm": 1.4845155477523804, "learning_rate": 4.559259259259259e-05, "loss": 0.391, "step": 538 }, { "epoch": 0.17966666666666667, "grad_norm": 1.5367820262908936, "learning_rate": 4.557407407407407e-05, "loss": 0.3359, "step": 539 }, { "epoch": 0.18, "grad_norm": 1.4138699769973755, "learning_rate": 4.555555555555556e-05, "loss": 0.3368, "step": 540 }, { "epoch": 0.18033333333333335, "grad_norm": 1.6389492750167847, "learning_rate": 4.553703703703704e-05, "loss": 0.3956, "step": 541 }, { "epoch": 0.18066666666666667, "grad_norm": 1.5073649883270264, "learning_rate": 4.551851851851852e-05, "loss": 0.4075, "step": 542 }, { "epoch": 0.181, "grad_norm": 1.344222068786621, "learning_rate": 4.55e-05, "loss": 0.3281, "step": 543 }, { "epoch": 0.18133333333333335, "grad_norm": 1.4959862232208252, "learning_rate": 4.548148148148149e-05, "loss": 0.3353, "step": 544 }, { "epoch": 0.18166666666666667, "grad_norm": 1.5007504224777222, "learning_rate": 4.546296296296296e-05, "loss": 0.4133, "step": 545 }, { "epoch": 0.182, "grad_norm": 1.6905388832092285, "learning_rate": 4.5444444444444444e-05, "loss": 0.4557, "step": 546 }, { "epoch": 0.18233333333333332, "grad_norm": 1.3356764316558838, "learning_rate": 4.5425925925925925e-05, "loss": 0.3737, "step": 547 }, { "epoch": 0.18266666666666667, "grad_norm": 1.8128896951675415, "learning_rate": 4.540740740740741e-05, "loss": 0.3902, "step": 548 }, { "epoch": 0.183, "grad_norm": 1.5806947946548462, "learning_rate": 4.538888888888889e-05, "loss": 0.3861, "step": 549 }, { "epoch": 0.18333333333333332, "grad_norm": 1.814087986946106, "learning_rate": 4.5370370370370374e-05, "loss": 0.4172, "step": 550 }, { "epoch": 0.18366666666666667, "grad_norm": 1.5783967971801758, "learning_rate": 4.5351851851851854e-05, "loss": 0.4304, "step": 551 }, { "epoch": 0.184, "grad_norm": 1.3484410047531128, "learning_rate": 4.5333333333333335e-05, "loss": 0.3362, "step": 552 }, { "epoch": 0.18433333333333332, "grad_norm": 2.0969557762145996, "learning_rate": 4.5314814814814816e-05, "loss": 0.4142, "step": 553 }, { "epoch": 0.18466666666666667, "grad_norm": 3.6122617721557617, "learning_rate": 4.52962962962963e-05, "loss": 0.2642, "step": 554 }, { "epoch": 0.185, "grad_norm": 1.289080262184143, "learning_rate": 4.527777777777778e-05, "loss": 0.3149, "step": 555 }, { "epoch": 0.18533333333333332, "grad_norm": 1.6373666524887085, "learning_rate": 4.5259259259259265e-05, "loss": 0.3945, "step": 556 }, { "epoch": 0.18566666666666667, "grad_norm": 1.1834471225738525, "learning_rate": 4.5240740740740746e-05, "loss": 0.3104, "step": 557 }, { "epoch": 0.186, "grad_norm": 1.290870189666748, "learning_rate": 4.522222222222223e-05, "loss": 0.371, "step": 558 }, { "epoch": 0.18633333333333332, "grad_norm": 1.371110200881958, "learning_rate": 4.52037037037037e-05, "loss": 0.3973, "step": 559 }, { "epoch": 0.18666666666666668, "grad_norm": 1.36427903175354, "learning_rate": 4.518518518518519e-05, "loss": 0.3147, "step": 560 }, { "epoch": 0.187, "grad_norm": 1.3381069898605347, "learning_rate": 4.516666666666667e-05, "loss": 0.3474, "step": 561 }, { "epoch": 0.18733333333333332, "grad_norm": 1.4656195640563965, "learning_rate": 4.514814814814815e-05, "loss": 0.4091, "step": 562 }, { "epoch": 0.18766666666666668, "grad_norm": 1.6770439147949219, "learning_rate": 4.512962962962963e-05, "loss": 0.2991, "step": 563 }, { "epoch": 0.188, "grad_norm": 1.3697926998138428, "learning_rate": 4.511111111111112e-05, "loss": 0.3267, "step": 564 }, { "epoch": 0.18833333333333332, "grad_norm": 1.4271165132522583, "learning_rate": 4.50925925925926e-05, "loss": 0.3689, "step": 565 }, { "epoch": 0.18866666666666668, "grad_norm": 1.3551369905471802, "learning_rate": 4.507407407407407e-05, "loss": 0.3604, "step": 566 }, { "epoch": 0.189, "grad_norm": 1.5275707244873047, "learning_rate": 4.5055555555555554e-05, "loss": 0.3704, "step": 567 }, { "epoch": 0.18933333333333333, "grad_norm": 1.5867068767547607, "learning_rate": 4.503703703703704e-05, "loss": 0.3803, "step": 568 }, { "epoch": 0.18966666666666668, "grad_norm": 1.7391343116760254, "learning_rate": 4.501851851851852e-05, "loss": 0.4101, "step": 569 }, { "epoch": 0.19, "grad_norm": 1.7914539575576782, "learning_rate": 4.5e-05, "loss": 0.4465, "step": 570 }, { "epoch": 0.19033333333333333, "grad_norm": 1.4277679920196533, "learning_rate": 4.4981481481481484e-05, "loss": 0.376, "step": 571 }, { "epoch": 0.19066666666666668, "grad_norm": 1.35780668258667, "learning_rate": 4.496296296296297e-05, "loss": 0.3722, "step": 572 }, { "epoch": 0.191, "grad_norm": 1.4040939807891846, "learning_rate": 4.4944444444444445e-05, "loss": 0.3845, "step": 573 }, { "epoch": 0.19133333333333333, "grad_norm": 1.620442271232605, "learning_rate": 4.4925925925925926e-05, "loss": 0.394, "step": 574 }, { "epoch": 0.19166666666666668, "grad_norm": 1.5137332677841187, "learning_rate": 4.490740740740741e-05, "loss": 0.4132, "step": 575 }, { "epoch": 0.192, "grad_norm": 1.3737564086914062, "learning_rate": 4.4888888888888894e-05, "loss": 0.3041, "step": 576 }, { "epoch": 0.19233333333333333, "grad_norm": 1.5032317638397217, "learning_rate": 4.4870370370370375e-05, "loss": 0.3448, "step": 577 }, { "epoch": 0.19266666666666668, "grad_norm": 1.415264368057251, "learning_rate": 4.4851851851851856e-05, "loss": 0.3625, "step": 578 }, { "epoch": 0.193, "grad_norm": 1.4844282865524292, "learning_rate": 4.483333333333333e-05, "loss": 0.3893, "step": 579 }, { "epoch": 0.19333333333333333, "grad_norm": 1.3375792503356934, "learning_rate": 4.481481481481482e-05, "loss": 0.279, "step": 580 }, { "epoch": 0.19366666666666665, "grad_norm": 1.514036774635315, "learning_rate": 4.47962962962963e-05, "loss": 0.3956, "step": 581 }, { "epoch": 0.194, "grad_norm": 1.3582748174667358, "learning_rate": 4.477777777777778e-05, "loss": 0.3355, "step": 582 }, { "epoch": 0.19433333333333333, "grad_norm": 1.6228889226913452, "learning_rate": 4.475925925925926e-05, "loss": 0.3537, "step": 583 }, { "epoch": 0.19466666666666665, "grad_norm": 1.5080145597457886, "learning_rate": 4.474074074074075e-05, "loss": 0.4108, "step": 584 }, { "epoch": 0.195, "grad_norm": 1.4736909866333008, "learning_rate": 4.472222222222223e-05, "loss": 0.3178, "step": 585 }, { "epoch": 0.19533333333333333, "grad_norm": 1.4306914806365967, "learning_rate": 4.47037037037037e-05, "loss": 0.3304, "step": 586 }, { "epoch": 0.19566666666666666, "grad_norm": 1.4883320331573486, "learning_rate": 4.468518518518518e-05, "loss": 0.4074, "step": 587 }, { "epoch": 0.196, "grad_norm": 1.4108233451843262, "learning_rate": 4.466666666666667e-05, "loss": 0.3267, "step": 588 }, { "epoch": 0.19633333333333333, "grad_norm": 2.0411906242370605, "learning_rate": 4.464814814814815e-05, "loss": 0.4153, "step": 589 }, { "epoch": 0.19666666666666666, "grad_norm": 1.8355998992919922, "learning_rate": 4.462962962962963e-05, "loss": 0.3402, "step": 590 }, { "epoch": 0.197, "grad_norm": 1.458619475364685, "learning_rate": 4.461111111111111e-05, "loss": 0.4166, "step": 591 }, { "epoch": 0.19733333333333333, "grad_norm": 1.4741239547729492, "learning_rate": 4.4592592592592594e-05, "loss": 0.3389, "step": 592 }, { "epoch": 0.19766666666666666, "grad_norm": 1.6767423152923584, "learning_rate": 4.4574074074074074e-05, "loss": 0.3909, "step": 593 }, { "epoch": 0.198, "grad_norm": 1.665139079093933, "learning_rate": 4.4555555555555555e-05, "loss": 0.3458, "step": 594 }, { "epoch": 0.19833333333333333, "grad_norm": 1.4744354486465454, "learning_rate": 4.4537037037037036e-05, "loss": 0.3492, "step": 595 }, { "epoch": 0.19866666666666666, "grad_norm": 1.5642839670181274, "learning_rate": 4.4518518518518523e-05, "loss": 0.3446, "step": 596 }, { "epoch": 0.199, "grad_norm": 1.3232685327529907, "learning_rate": 4.4500000000000004e-05, "loss": 0.3315, "step": 597 }, { "epoch": 0.19933333333333333, "grad_norm": 1.5989969968795776, "learning_rate": 4.4481481481481485e-05, "loss": 0.328, "step": 598 }, { "epoch": 0.19966666666666666, "grad_norm": 1.5295178890228271, "learning_rate": 4.4462962962962966e-05, "loss": 0.3927, "step": 599 }, { "epoch": 0.2, "grad_norm": 1.6364021301269531, "learning_rate": 4.4444444444444447e-05, "loss": 0.4419, "step": 600 }, { "epoch": 0.20033333333333334, "grad_norm": 1.3658100366592407, "learning_rate": 4.442592592592593e-05, "loss": 0.3703, "step": 601 }, { "epoch": 0.20066666666666666, "grad_norm": 1.45023512840271, "learning_rate": 4.440740740740741e-05, "loss": 0.3768, "step": 602 }, { "epoch": 0.201, "grad_norm": 1.24233877658844, "learning_rate": 4.438888888888889e-05, "loss": 0.2976, "step": 603 }, { "epoch": 0.20133333333333334, "grad_norm": 1.4358621835708618, "learning_rate": 4.4370370370370376e-05, "loss": 0.3407, "step": 604 }, { "epoch": 0.20166666666666666, "grad_norm": 1.2155948877334595, "learning_rate": 4.435185185185186e-05, "loss": 0.3248, "step": 605 }, { "epoch": 0.202, "grad_norm": 1.52995765209198, "learning_rate": 4.433333333333334e-05, "loss": 0.383, "step": 606 }, { "epoch": 0.20233333333333334, "grad_norm": 1.781554937362671, "learning_rate": 4.431481481481481e-05, "loss": 0.4049, "step": 607 }, { "epoch": 0.20266666666666666, "grad_norm": 1.6566193103790283, "learning_rate": 4.42962962962963e-05, "loss": 0.4091, "step": 608 }, { "epoch": 0.203, "grad_norm": 1.609633445739746, "learning_rate": 4.427777777777778e-05, "loss": 0.3276, "step": 609 }, { "epoch": 0.20333333333333334, "grad_norm": 2.1290884017944336, "learning_rate": 4.425925925925926e-05, "loss": 0.3703, "step": 610 }, { "epoch": 0.20366666666666666, "grad_norm": 1.4883259534835815, "learning_rate": 4.424074074074074e-05, "loss": 0.3417, "step": 611 }, { "epoch": 0.204, "grad_norm": 1.6269731521606445, "learning_rate": 4.422222222222222e-05, "loss": 0.4931, "step": 612 }, { "epoch": 0.20433333333333334, "grad_norm": 1.2305165529251099, "learning_rate": 4.420370370370371e-05, "loss": 0.3454, "step": 613 }, { "epoch": 0.20466666666666666, "grad_norm": 1.3280975818634033, "learning_rate": 4.4185185185185184e-05, "loss": 0.3098, "step": 614 }, { "epoch": 0.205, "grad_norm": 1.6180787086486816, "learning_rate": 4.4166666666666665e-05, "loss": 0.3854, "step": 615 }, { "epoch": 0.20533333333333334, "grad_norm": 1.2871187925338745, "learning_rate": 4.414814814814815e-05, "loss": 0.3057, "step": 616 }, { "epoch": 0.20566666666666666, "grad_norm": 1.5202758312225342, "learning_rate": 4.4129629629629633e-05, "loss": 0.3825, "step": 617 }, { "epoch": 0.206, "grad_norm": 1.2970737218856812, "learning_rate": 4.4111111111111114e-05, "loss": 0.2642, "step": 618 }, { "epoch": 0.20633333333333334, "grad_norm": 1.381256341934204, "learning_rate": 4.4092592592592595e-05, "loss": 0.3454, "step": 619 }, { "epoch": 0.20666666666666667, "grad_norm": 1.5311311483383179, "learning_rate": 4.4074074074074076e-05, "loss": 0.3699, "step": 620 }, { "epoch": 0.207, "grad_norm": 1.3776994943618774, "learning_rate": 4.4055555555555557e-05, "loss": 0.3086, "step": 621 }, { "epoch": 0.20733333333333334, "grad_norm": 1.3250863552093506, "learning_rate": 4.403703703703704e-05, "loss": 0.3627, "step": 622 }, { "epoch": 0.20766666666666667, "grad_norm": 1.248021125793457, "learning_rate": 4.401851851851852e-05, "loss": 0.343, "step": 623 }, { "epoch": 0.208, "grad_norm": 1.4723520278930664, "learning_rate": 4.4000000000000006e-05, "loss": 0.336, "step": 624 }, { "epoch": 0.20833333333333334, "grad_norm": 1.3077497482299805, "learning_rate": 4.3981481481481486e-05, "loss": 0.3276, "step": 625 }, { "epoch": 0.20866666666666667, "grad_norm": 1.5073587894439697, "learning_rate": 4.396296296296297e-05, "loss": 0.3799, "step": 626 }, { "epoch": 0.209, "grad_norm": 1.3228164911270142, "learning_rate": 4.394444444444445e-05, "loss": 0.3856, "step": 627 }, { "epoch": 0.20933333333333334, "grad_norm": 1.4944725036621094, "learning_rate": 4.392592592592593e-05, "loss": 0.419, "step": 628 }, { "epoch": 0.20966666666666667, "grad_norm": 1.1977301836013794, "learning_rate": 4.390740740740741e-05, "loss": 0.2991, "step": 629 }, { "epoch": 0.21, "grad_norm": 1.3055118322372437, "learning_rate": 4.388888888888889e-05, "loss": 0.3119, "step": 630 }, { "epoch": 0.21033333333333334, "grad_norm": 1.2189877033233643, "learning_rate": 4.387037037037037e-05, "loss": 0.2759, "step": 631 }, { "epoch": 0.21066666666666667, "grad_norm": 1.5441529750823975, "learning_rate": 4.385185185185185e-05, "loss": 0.4359, "step": 632 }, { "epoch": 0.211, "grad_norm": 1.2876906394958496, "learning_rate": 4.383333333333334e-05, "loss": 0.3284, "step": 633 }, { "epoch": 0.21133333333333335, "grad_norm": 1.434372067451477, "learning_rate": 4.381481481481482e-05, "loss": 0.3375, "step": 634 }, { "epoch": 0.21166666666666667, "grad_norm": 1.7254409790039062, "learning_rate": 4.3796296296296294e-05, "loss": 0.3896, "step": 635 }, { "epoch": 0.212, "grad_norm": 1.5128728151321411, "learning_rate": 4.377777777777778e-05, "loss": 0.3626, "step": 636 }, { "epoch": 0.21233333333333335, "grad_norm": 1.5368988513946533, "learning_rate": 4.375925925925926e-05, "loss": 0.4239, "step": 637 }, { "epoch": 0.21266666666666667, "grad_norm": 1.424720048904419, "learning_rate": 4.374074074074074e-05, "loss": 0.3389, "step": 638 }, { "epoch": 0.213, "grad_norm": 1.552229881286621, "learning_rate": 4.3722222222222224e-05, "loss": 0.3948, "step": 639 }, { "epoch": 0.21333333333333335, "grad_norm": 1.3225212097167969, "learning_rate": 4.3703703703703705e-05, "loss": 0.3229, "step": 640 }, { "epoch": 0.21366666666666667, "grad_norm": 1.5340272188186646, "learning_rate": 4.3685185185185186e-05, "loss": 0.353, "step": 641 }, { "epoch": 0.214, "grad_norm": 1.5016579627990723, "learning_rate": 4.3666666666666666e-05, "loss": 0.3796, "step": 642 }, { "epoch": 0.21433333333333332, "grad_norm": 1.4141838550567627, "learning_rate": 4.364814814814815e-05, "loss": 0.3579, "step": 643 }, { "epoch": 0.21466666666666667, "grad_norm": 1.5683951377868652, "learning_rate": 4.3629629629629635e-05, "loss": 0.3968, "step": 644 }, { "epoch": 0.215, "grad_norm": 1.6390215158462524, "learning_rate": 4.3611111111111116e-05, "loss": 0.3948, "step": 645 }, { "epoch": 0.21533333333333332, "grad_norm": 1.4215831756591797, "learning_rate": 4.3592592592592596e-05, "loss": 0.3268, "step": 646 }, { "epoch": 0.21566666666666667, "grad_norm": 1.5521069765090942, "learning_rate": 4.357407407407408e-05, "loss": 0.37, "step": 647 }, { "epoch": 0.216, "grad_norm": 1.6645965576171875, "learning_rate": 4.355555555555556e-05, "loss": 0.3604, "step": 648 }, { "epoch": 0.21633333333333332, "grad_norm": 2.1203622817993164, "learning_rate": 4.353703703703704e-05, "loss": 0.2886, "step": 649 }, { "epoch": 0.21666666666666667, "grad_norm": 1.6731735467910767, "learning_rate": 4.351851851851852e-05, "loss": 0.4659, "step": 650 }, { "epoch": 0.217, "grad_norm": 1.7265139818191528, "learning_rate": 4.35e-05, "loss": 0.4333, "step": 651 }, { "epoch": 0.21733333333333332, "grad_norm": 1.688616156578064, "learning_rate": 4.348148148148148e-05, "loss": 0.4951, "step": 652 }, { "epoch": 0.21766666666666667, "grad_norm": 1.463356375694275, "learning_rate": 4.346296296296297e-05, "loss": 0.4063, "step": 653 }, { "epoch": 0.218, "grad_norm": 1.7236669063568115, "learning_rate": 4.344444444444445e-05, "loss": 0.361, "step": 654 }, { "epoch": 0.21833333333333332, "grad_norm": 1.686489462852478, "learning_rate": 4.342592592592592e-05, "loss": 0.3861, "step": 655 }, { "epoch": 0.21866666666666668, "grad_norm": 1.5238269567489624, "learning_rate": 4.340740740740741e-05, "loss": 0.4135, "step": 656 }, { "epoch": 0.219, "grad_norm": 1.6874879598617554, "learning_rate": 4.338888888888889e-05, "loss": 0.3647, "step": 657 }, { "epoch": 0.21933333333333332, "grad_norm": 2.1948039531707764, "learning_rate": 4.337037037037037e-05, "loss": 0.5016, "step": 658 }, { "epoch": 0.21966666666666668, "grad_norm": 1.5895353555679321, "learning_rate": 4.335185185185185e-05, "loss": 0.446, "step": 659 }, { "epoch": 0.22, "grad_norm": 1.27193284034729, "learning_rate": 4.3333333333333334e-05, "loss": 0.3792, "step": 660 }, { "epoch": 0.22033333333333333, "grad_norm": 1.3627662658691406, "learning_rate": 4.331481481481482e-05, "loss": 0.3545, "step": 661 }, { "epoch": 0.22066666666666668, "grad_norm": 1.4695639610290527, "learning_rate": 4.3296296296296296e-05, "loss": 0.3532, "step": 662 }, { "epoch": 0.221, "grad_norm": 1.4878876209259033, "learning_rate": 4.3277777777777776e-05, "loss": 0.3545, "step": 663 }, { "epoch": 0.22133333333333333, "grad_norm": 3.1272101402282715, "learning_rate": 4.325925925925926e-05, "loss": 0.4299, "step": 664 }, { "epoch": 0.22166666666666668, "grad_norm": 1.2898375988006592, "learning_rate": 4.3240740740740745e-05, "loss": 0.3351, "step": 665 }, { "epoch": 0.222, "grad_norm": 1.2541146278381348, "learning_rate": 4.3222222222222226e-05, "loss": 0.3142, "step": 666 }, { "epoch": 0.22233333333333333, "grad_norm": 1.3727818727493286, "learning_rate": 4.3203703703703706e-05, "loss": 0.3085, "step": 667 }, { "epoch": 0.22266666666666668, "grad_norm": 1.27913236618042, "learning_rate": 4.318518518518519e-05, "loss": 0.309, "step": 668 }, { "epoch": 0.223, "grad_norm": 2.137416124343872, "learning_rate": 4.316666666666667e-05, "loss": 0.4128, "step": 669 }, { "epoch": 0.22333333333333333, "grad_norm": 1.9899588823318481, "learning_rate": 4.314814814814815e-05, "loss": 0.4631, "step": 670 }, { "epoch": 0.22366666666666668, "grad_norm": 1.641781210899353, "learning_rate": 4.312962962962963e-05, "loss": 0.3815, "step": 671 }, { "epoch": 0.224, "grad_norm": 1.4118577241897583, "learning_rate": 4.311111111111111e-05, "loss": 0.3724, "step": 672 }, { "epoch": 0.22433333333333333, "grad_norm": 1.9290391206741333, "learning_rate": 4.30925925925926e-05, "loss": 0.389, "step": 673 }, { "epoch": 0.22466666666666665, "grad_norm": 1.6977159976959229, "learning_rate": 4.307407407407408e-05, "loss": 0.3942, "step": 674 }, { "epoch": 0.225, "grad_norm": 1.6948448419570923, "learning_rate": 4.305555555555556e-05, "loss": 0.4398, "step": 675 }, { "epoch": 0.22533333333333333, "grad_norm": 1.4764955043792725, "learning_rate": 4.303703703703704e-05, "loss": 0.355, "step": 676 }, { "epoch": 0.22566666666666665, "grad_norm": 1.4608086347579956, "learning_rate": 4.301851851851852e-05, "loss": 0.3243, "step": 677 }, { "epoch": 0.226, "grad_norm": 1.37698495388031, "learning_rate": 4.3e-05, "loss": 0.3181, "step": 678 }, { "epoch": 0.22633333333333333, "grad_norm": 1.5875524282455444, "learning_rate": 4.298148148148148e-05, "loss": 0.3883, "step": 679 }, { "epoch": 0.22666666666666666, "grad_norm": 1.4747446775436401, "learning_rate": 4.296296296296296e-05, "loss": 0.3369, "step": 680 }, { "epoch": 0.227, "grad_norm": 1.5260282754898071, "learning_rate": 4.294444444444445e-05, "loss": 0.3964, "step": 681 }, { "epoch": 0.22733333333333333, "grad_norm": 1.233856201171875, "learning_rate": 4.292592592592593e-05, "loss": 0.3045, "step": 682 }, { "epoch": 0.22766666666666666, "grad_norm": 1.457231044769287, "learning_rate": 4.2907407407407406e-05, "loss": 0.3105, "step": 683 }, { "epoch": 0.228, "grad_norm": 1.7392462491989136, "learning_rate": 4.2888888888888886e-05, "loss": 0.4476, "step": 684 }, { "epoch": 0.22833333333333333, "grad_norm": 1.24375581741333, "learning_rate": 4.2870370370370374e-05, "loss": 0.299, "step": 685 }, { "epoch": 0.22866666666666666, "grad_norm": 1.4087038040161133, "learning_rate": 4.2851851851851855e-05, "loss": 0.3275, "step": 686 }, { "epoch": 0.229, "grad_norm": 1.363183617591858, "learning_rate": 4.2833333333333335e-05, "loss": 0.3409, "step": 687 }, { "epoch": 0.22933333333333333, "grad_norm": 1.5464953184127808, "learning_rate": 4.2814814814814816e-05, "loss": 0.4566, "step": 688 }, { "epoch": 0.22966666666666666, "grad_norm": 1.367520809173584, "learning_rate": 4.2796296296296304e-05, "loss": 0.3163, "step": 689 }, { "epoch": 0.23, "grad_norm": 1.3377315998077393, "learning_rate": 4.277777777777778e-05, "loss": 0.3323, "step": 690 }, { "epoch": 0.23033333333333333, "grad_norm": 1.4911507368087769, "learning_rate": 4.275925925925926e-05, "loss": 0.4372, "step": 691 }, { "epoch": 0.23066666666666666, "grad_norm": 1.4127525091171265, "learning_rate": 4.274074074074074e-05, "loss": 0.3921, "step": 692 }, { "epoch": 0.231, "grad_norm": 1.4434276819229126, "learning_rate": 4.272222222222223e-05, "loss": 0.3533, "step": 693 }, { "epoch": 0.23133333333333334, "grad_norm": 1.6668140888214111, "learning_rate": 4.270370370370371e-05, "loss": 0.415, "step": 694 }, { "epoch": 0.23166666666666666, "grad_norm": 1.5912481546401978, "learning_rate": 4.268518518518519e-05, "loss": 0.4325, "step": 695 }, { "epoch": 0.232, "grad_norm": 1.3702155351638794, "learning_rate": 4.266666666666667e-05, "loss": 0.3341, "step": 696 }, { "epoch": 0.23233333333333334, "grad_norm": 1.495927333831787, "learning_rate": 4.264814814814815e-05, "loss": 0.3677, "step": 697 }, { "epoch": 0.23266666666666666, "grad_norm": 1.3089903593063354, "learning_rate": 4.262962962962963e-05, "loss": 0.3699, "step": 698 }, { "epoch": 0.233, "grad_norm": 1.5037627220153809, "learning_rate": 4.261111111111111e-05, "loss": 0.366, "step": 699 }, { "epoch": 0.23333333333333334, "grad_norm": 1.8529783487319946, "learning_rate": 4.259259259259259e-05, "loss": 0.383, "step": 700 }, { "epoch": 0.23366666666666666, "grad_norm": 1.354643702507019, "learning_rate": 4.257407407407408e-05, "loss": 0.327, "step": 701 }, { "epoch": 0.234, "grad_norm": 1.459773063659668, "learning_rate": 4.255555555555556e-05, "loss": 0.4143, "step": 702 }, { "epoch": 0.23433333333333334, "grad_norm": 1.311944603919983, "learning_rate": 4.2537037037037035e-05, "loss": 0.3305, "step": 703 }, { "epoch": 0.23466666666666666, "grad_norm": 1.5787670612335205, "learning_rate": 4.2518518518518515e-05, "loss": 0.3847, "step": 704 }, { "epoch": 0.235, "grad_norm": 1.3665950298309326, "learning_rate": 4.25e-05, "loss": 0.3096, "step": 705 }, { "epoch": 0.23533333333333334, "grad_norm": 1.4410815238952637, "learning_rate": 4.2481481481481484e-05, "loss": 0.3479, "step": 706 }, { "epoch": 0.23566666666666666, "grad_norm": 1.341604471206665, "learning_rate": 4.2462962962962965e-05, "loss": 0.3382, "step": 707 }, { "epoch": 0.236, "grad_norm": 1.330906867980957, "learning_rate": 4.2444444444444445e-05, "loss": 0.3712, "step": 708 }, { "epoch": 0.23633333333333334, "grad_norm": 1.7482727766036987, "learning_rate": 4.242592592592593e-05, "loss": 0.3968, "step": 709 }, { "epoch": 0.23666666666666666, "grad_norm": 1.3532570600509644, "learning_rate": 4.240740740740741e-05, "loss": 0.3501, "step": 710 }, { "epoch": 0.237, "grad_norm": 1.3667083978652954, "learning_rate": 4.238888888888889e-05, "loss": 0.3082, "step": 711 }, { "epoch": 0.23733333333333334, "grad_norm": 1.3330355882644653, "learning_rate": 4.237037037037037e-05, "loss": 0.3146, "step": 712 }, { "epoch": 0.23766666666666666, "grad_norm": 1.444445013999939, "learning_rate": 4.2351851851851856e-05, "loss": 0.3238, "step": 713 }, { "epoch": 0.238, "grad_norm": 1.5447372198104858, "learning_rate": 4.233333333333334e-05, "loss": 0.3801, "step": 714 }, { "epoch": 0.23833333333333334, "grad_norm": 5.3352766036987305, "learning_rate": 4.231481481481482e-05, "loss": 0.3106, "step": 715 }, { "epoch": 0.23866666666666667, "grad_norm": 1.4652068614959717, "learning_rate": 4.22962962962963e-05, "loss": 0.4253, "step": 716 }, { "epoch": 0.239, "grad_norm": 1.372683048248291, "learning_rate": 4.227777777777778e-05, "loss": 0.341, "step": 717 }, { "epoch": 0.23933333333333334, "grad_norm": 1.4031468629837036, "learning_rate": 4.225925925925926e-05, "loss": 0.3569, "step": 718 }, { "epoch": 0.23966666666666667, "grad_norm": 1.560187578201294, "learning_rate": 4.224074074074074e-05, "loss": 0.4454, "step": 719 }, { "epoch": 0.24, "grad_norm": 1.2413548231124878, "learning_rate": 4.222222222222222e-05, "loss": 0.2795, "step": 720 }, { "epoch": 0.24033333333333334, "grad_norm": 1.4622594118118286, "learning_rate": 4.220370370370371e-05, "loss": 0.3461, "step": 721 }, { "epoch": 0.24066666666666667, "grad_norm": 1.2350109815597534, "learning_rate": 4.218518518518519e-05, "loss": 0.2967, "step": 722 }, { "epoch": 0.241, "grad_norm": 1.4473148584365845, "learning_rate": 4.216666666666667e-05, "loss": 0.3649, "step": 723 }, { "epoch": 0.24133333333333334, "grad_norm": 1.241361141204834, "learning_rate": 4.2148148148148145e-05, "loss": 0.3009, "step": 724 }, { "epoch": 0.24166666666666667, "grad_norm": 1.592885971069336, "learning_rate": 4.212962962962963e-05, "loss": 0.5231, "step": 725 }, { "epoch": 0.242, "grad_norm": 1.7029653787612915, "learning_rate": 4.211111111111111e-05, "loss": 0.4607, "step": 726 }, { "epoch": 0.24233333333333335, "grad_norm": 1.3143640756607056, "learning_rate": 4.2092592592592594e-05, "loss": 0.3629, "step": 727 }, { "epoch": 0.24266666666666667, "grad_norm": 1.3931041955947876, "learning_rate": 4.2074074074074075e-05, "loss": 0.3732, "step": 728 }, { "epoch": 0.243, "grad_norm": 1.9713157415390015, "learning_rate": 4.205555555555556e-05, "loss": 0.3102, "step": 729 }, { "epoch": 0.24333333333333335, "grad_norm": 1.3356719017028809, "learning_rate": 4.203703703703704e-05, "loss": 0.3662, "step": 730 }, { "epoch": 0.24366666666666667, "grad_norm": 1.1621766090393066, "learning_rate": 4.201851851851852e-05, "loss": 0.2984, "step": 731 }, { "epoch": 0.244, "grad_norm": 1.4896650314331055, "learning_rate": 4.2e-05, "loss": 0.3934, "step": 732 }, { "epoch": 0.24433333333333335, "grad_norm": 1.5026004314422607, "learning_rate": 4.1981481481481485e-05, "loss": 0.3615, "step": 733 }, { "epoch": 0.24466666666666667, "grad_norm": 1.551168441772461, "learning_rate": 4.1962962962962966e-05, "loss": 0.4221, "step": 734 }, { "epoch": 0.245, "grad_norm": 1.2471182346343994, "learning_rate": 4.194444444444445e-05, "loss": 0.3377, "step": 735 }, { "epoch": 0.24533333333333332, "grad_norm": 1.4817787408828735, "learning_rate": 4.192592592592593e-05, "loss": 0.4391, "step": 736 }, { "epoch": 0.24566666666666667, "grad_norm": 2.5760746002197266, "learning_rate": 4.1907407407407415e-05, "loss": 0.3658, "step": 737 }, { "epoch": 0.246, "grad_norm": 1.2824112176895142, "learning_rate": 4.188888888888889e-05, "loss": 0.3386, "step": 738 }, { "epoch": 0.24633333333333332, "grad_norm": 1.3398665189743042, "learning_rate": 4.187037037037037e-05, "loss": 0.3355, "step": 739 }, { "epoch": 0.24666666666666667, "grad_norm": 2.7086310386657715, "learning_rate": 4.185185185185185e-05, "loss": 0.3924, "step": 740 }, { "epoch": 0.247, "grad_norm": 1.4166991710662842, "learning_rate": 4.183333333333334e-05, "loss": 0.3762, "step": 741 }, { "epoch": 0.24733333333333332, "grad_norm": 1.431833028793335, "learning_rate": 4.181481481481482e-05, "loss": 0.3361, "step": 742 }, { "epoch": 0.24766666666666667, "grad_norm": 1.174967885017395, "learning_rate": 4.17962962962963e-05, "loss": 0.3243, "step": 743 }, { "epoch": 0.248, "grad_norm": 1.613420844078064, "learning_rate": 4.177777777777778e-05, "loss": 0.408, "step": 744 }, { "epoch": 0.24833333333333332, "grad_norm": 1.5392343997955322, "learning_rate": 4.175925925925926e-05, "loss": 0.3402, "step": 745 }, { "epoch": 0.24866666666666667, "grad_norm": 1.2540733814239502, "learning_rate": 4.174074074074074e-05, "loss": 0.3011, "step": 746 }, { "epoch": 0.249, "grad_norm": 1.4702844619750977, "learning_rate": 4.172222222222222e-05, "loss": 0.3892, "step": 747 }, { "epoch": 0.24933333333333332, "grad_norm": 1.2698496580123901, "learning_rate": 4.1703703703703704e-05, "loss": 0.3453, "step": 748 }, { "epoch": 0.24966666666666668, "grad_norm": 1.626663327217102, "learning_rate": 4.168518518518519e-05, "loss": 0.4104, "step": 749 }, { "epoch": 0.25, "grad_norm": 1.4430832862854004, "learning_rate": 4.166666666666667e-05, "loss": 0.36, "step": 750 }, { "epoch": 0.25033333333333335, "grad_norm": 1.447880506515503, "learning_rate": 4.164814814814815e-05, "loss": 0.3233, "step": 751 }, { "epoch": 0.25066666666666665, "grad_norm": 1.1898837089538574, "learning_rate": 4.162962962962963e-05, "loss": 0.2602, "step": 752 }, { "epoch": 0.251, "grad_norm": 1.1591498851776123, "learning_rate": 4.1611111111111114e-05, "loss": 0.281, "step": 753 }, { "epoch": 0.25133333333333335, "grad_norm": 1.4322726726531982, "learning_rate": 4.1592592592592595e-05, "loss": 0.3518, "step": 754 }, { "epoch": 0.25166666666666665, "grad_norm": 1.4136521816253662, "learning_rate": 4.1574074074074076e-05, "loss": 0.315, "step": 755 }, { "epoch": 0.252, "grad_norm": 1.5453389883041382, "learning_rate": 4.155555555555556e-05, "loss": 0.3868, "step": 756 }, { "epoch": 0.25233333333333335, "grad_norm": 1.3190627098083496, "learning_rate": 4.1537037037037044e-05, "loss": 0.3316, "step": 757 }, { "epoch": 0.25266666666666665, "grad_norm": 2.359557628631592, "learning_rate": 4.1518518518518525e-05, "loss": 0.3961, "step": 758 }, { "epoch": 0.253, "grad_norm": 1.434320092201233, "learning_rate": 4.15e-05, "loss": 0.3363, "step": 759 }, { "epoch": 0.25333333333333335, "grad_norm": 1.565841794013977, "learning_rate": 4.148148148148148e-05, "loss": 0.3125, "step": 760 }, { "epoch": 0.25366666666666665, "grad_norm": 1.6295406818389893, "learning_rate": 4.146296296296297e-05, "loss": 0.3873, "step": 761 }, { "epoch": 0.254, "grad_norm": 1.608017086982727, "learning_rate": 4.144444444444445e-05, "loss": 0.3, "step": 762 }, { "epoch": 0.25433333333333336, "grad_norm": 1.3441147804260254, "learning_rate": 4.142592592592593e-05, "loss": 0.3284, "step": 763 }, { "epoch": 0.25466666666666665, "grad_norm": 1.3225023746490479, "learning_rate": 4.140740740740741e-05, "loss": 0.3153, "step": 764 }, { "epoch": 0.255, "grad_norm": 1.2415051460266113, "learning_rate": 4.138888888888889e-05, "loss": 0.3073, "step": 765 }, { "epoch": 0.25533333333333336, "grad_norm": 1.602225422859192, "learning_rate": 4.137037037037037e-05, "loss": 0.3702, "step": 766 }, { "epoch": 0.25566666666666665, "grad_norm": 1.104784369468689, "learning_rate": 4.135185185185185e-05, "loss": 0.2982, "step": 767 }, { "epoch": 0.256, "grad_norm": 1.3152776956558228, "learning_rate": 4.133333333333333e-05, "loss": 0.3094, "step": 768 }, { "epoch": 0.25633333333333336, "grad_norm": 1.5492266416549683, "learning_rate": 4.131481481481482e-05, "loss": 0.3501, "step": 769 }, { "epoch": 0.25666666666666665, "grad_norm": 1.6950374841690063, "learning_rate": 4.12962962962963e-05, "loss": 0.3718, "step": 770 }, { "epoch": 0.257, "grad_norm": 1.4196640253067017, "learning_rate": 4.127777777777778e-05, "loss": 0.3662, "step": 771 }, { "epoch": 0.25733333333333336, "grad_norm": 1.5333114862442017, "learning_rate": 4.1259259259259256e-05, "loss": 0.3552, "step": 772 }, { "epoch": 0.25766666666666665, "grad_norm": 1.3045767545700073, "learning_rate": 4.1240740740740744e-05, "loss": 0.3391, "step": 773 }, { "epoch": 0.258, "grad_norm": 1.4657682180404663, "learning_rate": 4.1222222222222224e-05, "loss": 0.3913, "step": 774 }, { "epoch": 0.25833333333333336, "grad_norm": 1.4723056554794312, "learning_rate": 4.1203703703703705e-05, "loss": 0.4126, "step": 775 }, { "epoch": 0.25866666666666666, "grad_norm": 1.1944102048873901, "learning_rate": 4.1185185185185186e-05, "loss": 0.3006, "step": 776 }, { "epoch": 0.259, "grad_norm": 1.2445132732391357, "learning_rate": 4.116666666666667e-05, "loss": 0.2764, "step": 777 }, { "epoch": 0.25933333333333336, "grad_norm": 1.335518479347229, "learning_rate": 4.1148148148148154e-05, "loss": 0.3098, "step": 778 }, { "epoch": 0.25966666666666666, "grad_norm": 1.24089777469635, "learning_rate": 4.112962962962963e-05, "loss": 0.3322, "step": 779 }, { "epoch": 0.26, "grad_norm": 1.3913564682006836, "learning_rate": 4.111111111111111e-05, "loss": 0.3582, "step": 780 }, { "epoch": 0.26033333333333336, "grad_norm": 1.2934868335723877, "learning_rate": 4.1092592592592597e-05, "loss": 0.3316, "step": 781 }, { "epoch": 0.26066666666666666, "grad_norm": 1.701065182685852, "learning_rate": 4.107407407407408e-05, "loss": 0.4077, "step": 782 }, { "epoch": 0.261, "grad_norm": 1.7660771608352661, "learning_rate": 4.105555555555556e-05, "loss": 0.43, "step": 783 }, { "epoch": 0.2613333333333333, "grad_norm": 1.3048421144485474, "learning_rate": 4.103703703703704e-05, "loss": 0.3636, "step": 784 }, { "epoch": 0.26166666666666666, "grad_norm": 1.1929850578308105, "learning_rate": 4.101851851851852e-05, "loss": 0.3354, "step": 785 }, { "epoch": 0.262, "grad_norm": 1.207017421722412, "learning_rate": 4.1e-05, "loss": 0.3277, "step": 786 }, { "epoch": 0.2623333333333333, "grad_norm": 1.207348108291626, "learning_rate": 4.098148148148148e-05, "loss": 0.2705, "step": 787 }, { "epoch": 0.26266666666666666, "grad_norm": 1.398911476135254, "learning_rate": 4.096296296296296e-05, "loss": 0.4169, "step": 788 }, { "epoch": 0.263, "grad_norm": 1.3541525602340698, "learning_rate": 4.094444444444445e-05, "loss": 0.3539, "step": 789 }, { "epoch": 0.2633333333333333, "grad_norm": 1.4394408464431763, "learning_rate": 4.092592592592593e-05, "loss": 0.3675, "step": 790 }, { "epoch": 0.26366666666666666, "grad_norm": 1.5678784847259521, "learning_rate": 4.090740740740741e-05, "loss": 0.3822, "step": 791 }, { "epoch": 0.264, "grad_norm": 1.7356022596359253, "learning_rate": 4.088888888888889e-05, "loss": 0.4107, "step": 792 }, { "epoch": 0.2643333333333333, "grad_norm": 1.1587564945220947, "learning_rate": 4.087037037037037e-05, "loss": 0.2792, "step": 793 }, { "epoch": 0.26466666666666666, "grad_norm": 1.576454758644104, "learning_rate": 4.0851851851851853e-05, "loss": 0.3757, "step": 794 }, { "epoch": 0.265, "grad_norm": 1.5076576471328735, "learning_rate": 4.0833333333333334e-05, "loss": 0.3876, "step": 795 }, { "epoch": 0.2653333333333333, "grad_norm": 1.4706981182098389, "learning_rate": 4.0814814814814815e-05, "loss": 0.3458, "step": 796 }, { "epoch": 0.26566666666666666, "grad_norm": 1.6495285034179688, "learning_rate": 4.0796296296296296e-05, "loss": 0.369, "step": 797 }, { "epoch": 0.266, "grad_norm": 1.2885559797286987, "learning_rate": 4.0777777777777783e-05, "loss": 0.3476, "step": 798 }, { "epoch": 0.2663333333333333, "grad_norm": 1.2338265180587769, "learning_rate": 4.0759259259259264e-05, "loss": 0.351, "step": 799 }, { "epoch": 0.26666666666666666, "grad_norm": 1.3814194202423096, "learning_rate": 4.074074074074074e-05, "loss": 0.353, "step": 800 }, { "epoch": 0.267, "grad_norm": 1.3949973583221436, "learning_rate": 4.0722222222222226e-05, "loss": 0.3971, "step": 801 }, { "epoch": 0.2673333333333333, "grad_norm": 1.2781027555465698, "learning_rate": 4.0703703703703707e-05, "loss": 0.3596, "step": 802 }, { "epoch": 0.26766666666666666, "grad_norm": 1.775307536125183, "learning_rate": 4.068518518518519e-05, "loss": 0.5056, "step": 803 }, { "epoch": 0.268, "grad_norm": 1.4195681810379028, "learning_rate": 4.066666666666667e-05, "loss": 0.3162, "step": 804 }, { "epoch": 0.2683333333333333, "grad_norm": 1.6774126291275024, "learning_rate": 4.064814814814815e-05, "loss": 0.3683, "step": 805 }, { "epoch": 0.26866666666666666, "grad_norm": 1.1482571363449097, "learning_rate": 4.0629629629629636e-05, "loss": 0.34, "step": 806 }, { "epoch": 0.269, "grad_norm": 1.2635096311569214, "learning_rate": 4.061111111111111e-05, "loss": 0.3663, "step": 807 }, { "epoch": 0.2693333333333333, "grad_norm": 1.5141239166259766, "learning_rate": 4.059259259259259e-05, "loss": 0.3972, "step": 808 }, { "epoch": 0.26966666666666667, "grad_norm": 1.4469480514526367, "learning_rate": 4.057407407407408e-05, "loss": 0.3729, "step": 809 }, { "epoch": 0.27, "grad_norm": 1.3128126859664917, "learning_rate": 4.055555555555556e-05, "loss": 0.3025, "step": 810 }, { "epoch": 0.2703333333333333, "grad_norm": 1.5247198343276978, "learning_rate": 4.053703703703704e-05, "loss": 0.3752, "step": 811 }, { "epoch": 0.27066666666666667, "grad_norm": 1.475996732711792, "learning_rate": 4.051851851851852e-05, "loss": 0.3655, "step": 812 }, { "epoch": 0.271, "grad_norm": 1.3385744094848633, "learning_rate": 4.05e-05, "loss": 0.3421, "step": 813 }, { "epoch": 0.2713333333333333, "grad_norm": 1.6504689455032349, "learning_rate": 4.048148148148148e-05, "loss": 0.3838, "step": 814 }, { "epoch": 0.27166666666666667, "grad_norm": 1.456794261932373, "learning_rate": 4.0462962962962963e-05, "loss": 0.3658, "step": 815 }, { "epoch": 0.272, "grad_norm": 1.3881524801254272, "learning_rate": 4.0444444444444444e-05, "loss": 0.3343, "step": 816 }, { "epoch": 0.2723333333333333, "grad_norm": 1.5507861375808716, "learning_rate": 4.0425925925925925e-05, "loss": 0.3516, "step": 817 }, { "epoch": 0.27266666666666667, "grad_norm": 1.2345412969589233, "learning_rate": 4.040740740740741e-05, "loss": 0.2705, "step": 818 }, { "epoch": 0.273, "grad_norm": 1.2728513479232788, "learning_rate": 4.038888888888889e-05, "loss": 0.3007, "step": 819 }, { "epoch": 0.2733333333333333, "grad_norm": 1.4103991985321045, "learning_rate": 4.0370370370370374e-05, "loss": 0.3626, "step": 820 }, { "epoch": 0.27366666666666667, "grad_norm": 1.4325361251831055, "learning_rate": 4.0351851851851855e-05, "loss": 0.3785, "step": 821 }, { "epoch": 0.274, "grad_norm": 1.4200563430786133, "learning_rate": 4.0333333333333336e-05, "loss": 0.378, "step": 822 }, { "epoch": 0.2743333333333333, "grad_norm": 1.456470012664795, "learning_rate": 4.0314814814814816e-05, "loss": 0.4219, "step": 823 }, { "epoch": 0.27466666666666667, "grad_norm": 1.28714120388031, "learning_rate": 4.02962962962963e-05, "loss": 0.3838, "step": 824 }, { "epoch": 0.275, "grad_norm": 1.287011981010437, "learning_rate": 4.027777777777778e-05, "loss": 0.3253, "step": 825 }, { "epoch": 0.2753333333333333, "grad_norm": 1.292240858078003, "learning_rate": 4.0259259259259266e-05, "loss": 0.3134, "step": 826 }, { "epoch": 0.27566666666666667, "grad_norm": 1.7025339603424072, "learning_rate": 4.024074074074074e-05, "loss": 0.5296, "step": 827 }, { "epoch": 0.276, "grad_norm": 1.3449290990829468, "learning_rate": 4.022222222222222e-05, "loss": 0.333, "step": 828 }, { "epoch": 0.2763333333333333, "grad_norm": 1.5160585641860962, "learning_rate": 4.020370370370371e-05, "loss": 0.3376, "step": 829 }, { "epoch": 0.27666666666666667, "grad_norm": 1.1866682767868042, "learning_rate": 4.018518518518519e-05, "loss": 0.2871, "step": 830 }, { "epoch": 0.277, "grad_norm": 1.785448431968689, "learning_rate": 4.016666666666667e-05, "loss": 0.3198, "step": 831 }, { "epoch": 0.2773333333333333, "grad_norm": 1.6618571281433105, "learning_rate": 4.014814814814815e-05, "loss": 0.3102, "step": 832 }, { "epoch": 0.2776666666666667, "grad_norm": 1.4342378377914429, "learning_rate": 4.012962962962963e-05, "loss": 0.4192, "step": 833 }, { "epoch": 0.278, "grad_norm": 1.165028691291809, "learning_rate": 4.011111111111111e-05, "loss": 0.301, "step": 834 }, { "epoch": 0.2783333333333333, "grad_norm": 1.4417414665222168, "learning_rate": 4.009259259259259e-05, "loss": 0.2726, "step": 835 }, { "epoch": 0.2786666666666667, "grad_norm": 1.2854143381118774, "learning_rate": 4.007407407407407e-05, "loss": 0.3716, "step": 836 }, { "epoch": 0.279, "grad_norm": 1.2607567310333252, "learning_rate": 4.0055555555555554e-05, "loss": 0.3157, "step": 837 }, { "epoch": 0.2793333333333333, "grad_norm": 1.3052359819412231, "learning_rate": 4.003703703703704e-05, "loss": 0.3762, "step": 838 }, { "epoch": 0.2796666666666667, "grad_norm": 1.495180606842041, "learning_rate": 4.001851851851852e-05, "loss": 0.4062, "step": 839 }, { "epoch": 0.28, "grad_norm": 1.353929877281189, "learning_rate": 4e-05, "loss": 0.3111, "step": 840 }, { "epoch": 0.2803333333333333, "grad_norm": 1.4994372129440308, "learning_rate": 3.9981481481481484e-05, "loss": 0.3643, "step": 841 }, { "epoch": 0.2806666666666667, "grad_norm": 1.097528338432312, "learning_rate": 3.9962962962962965e-05, "loss": 0.3381, "step": 842 }, { "epoch": 0.281, "grad_norm": 1.348486065864563, "learning_rate": 3.9944444444444446e-05, "loss": 0.3263, "step": 843 }, { "epoch": 0.2813333333333333, "grad_norm": 1.4403632879257202, "learning_rate": 3.9925925925925926e-05, "loss": 0.4281, "step": 844 }, { "epoch": 0.2816666666666667, "grad_norm": 1.3258768320083618, "learning_rate": 3.990740740740741e-05, "loss": 0.3579, "step": 845 }, { "epoch": 0.282, "grad_norm": 1.3752247095108032, "learning_rate": 3.9888888888888895e-05, "loss": 0.443, "step": 846 }, { "epoch": 0.2823333333333333, "grad_norm": 1.6445602178573608, "learning_rate": 3.9870370370370376e-05, "loss": 0.3588, "step": 847 }, { "epoch": 0.2826666666666667, "grad_norm": 1.41145658493042, "learning_rate": 3.985185185185185e-05, "loss": 0.3526, "step": 848 }, { "epoch": 0.283, "grad_norm": 5.141585350036621, "learning_rate": 3.983333333333333e-05, "loss": 0.3553, "step": 849 }, { "epoch": 0.2833333333333333, "grad_norm": 1.3255246877670288, "learning_rate": 3.981481481481482e-05, "loss": 0.352, "step": 850 }, { "epoch": 0.2836666666666667, "grad_norm": 1.4084287881851196, "learning_rate": 3.97962962962963e-05, "loss": 0.3834, "step": 851 }, { "epoch": 0.284, "grad_norm": 1.3366891145706177, "learning_rate": 3.977777777777778e-05, "loss": 0.3865, "step": 852 }, { "epoch": 0.2843333333333333, "grad_norm": 1.256201148033142, "learning_rate": 3.975925925925926e-05, "loss": 0.3187, "step": 853 }, { "epoch": 0.2846666666666667, "grad_norm": 1.4136888980865479, "learning_rate": 3.974074074074075e-05, "loss": 0.3765, "step": 854 }, { "epoch": 0.285, "grad_norm": 1.1720857620239258, "learning_rate": 3.972222222222222e-05, "loss": 0.2947, "step": 855 }, { "epoch": 0.2853333333333333, "grad_norm": 1.7148245573043823, "learning_rate": 3.97037037037037e-05, "loss": 0.3416, "step": 856 }, { "epoch": 0.2856666666666667, "grad_norm": 1.4059994220733643, "learning_rate": 3.968518518518518e-05, "loss": 0.3528, "step": 857 }, { "epoch": 0.286, "grad_norm": 1.571160078048706, "learning_rate": 3.966666666666667e-05, "loss": 0.3772, "step": 858 }, { "epoch": 0.28633333333333333, "grad_norm": 1.449386715888977, "learning_rate": 3.964814814814815e-05, "loss": 0.3623, "step": 859 }, { "epoch": 0.2866666666666667, "grad_norm": 1.1920171976089478, "learning_rate": 3.962962962962963e-05, "loss": 0.2957, "step": 860 }, { "epoch": 0.287, "grad_norm": 1.3213661909103394, "learning_rate": 3.961111111111111e-05, "loss": 0.3546, "step": 861 }, { "epoch": 0.28733333333333333, "grad_norm": 1.5201573371887207, "learning_rate": 3.9592592592592594e-05, "loss": 0.3355, "step": 862 }, { "epoch": 0.2876666666666667, "grad_norm": 1.8718082904815674, "learning_rate": 3.9574074074074075e-05, "loss": 0.329, "step": 863 }, { "epoch": 0.288, "grad_norm": 1.5103901624679565, "learning_rate": 3.9555555555555556e-05, "loss": 0.3645, "step": 864 }, { "epoch": 0.28833333333333333, "grad_norm": 1.3018239736557007, "learning_rate": 3.9537037037037036e-05, "loss": 0.3111, "step": 865 }, { "epoch": 0.2886666666666667, "grad_norm": 1.6183236837387085, "learning_rate": 3.9518518518518524e-05, "loss": 0.4415, "step": 866 }, { "epoch": 0.289, "grad_norm": 1.3570756912231445, "learning_rate": 3.9500000000000005e-05, "loss": 0.294, "step": 867 }, { "epoch": 0.28933333333333333, "grad_norm": 1.2522437572479248, "learning_rate": 3.9481481481481485e-05, "loss": 0.3571, "step": 868 }, { "epoch": 0.2896666666666667, "grad_norm": 1.3651636838912964, "learning_rate": 3.946296296296296e-05, "loss": 0.3585, "step": 869 }, { "epoch": 0.29, "grad_norm": 1.2567559480667114, "learning_rate": 3.944444444444445e-05, "loss": 0.3034, "step": 870 }, { "epoch": 0.29033333333333333, "grad_norm": 1.446004867553711, "learning_rate": 3.942592592592593e-05, "loss": 0.3542, "step": 871 }, { "epoch": 0.2906666666666667, "grad_norm": 1.6699246168136597, "learning_rate": 3.940740740740741e-05, "loss": 0.3636, "step": 872 }, { "epoch": 0.291, "grad_norm": 1.4893025159835815, "learning_rate": 3.938888888888889e-05, "loss": 0.346, "step": 873 }, { "epoch": 0.29133333333333333, "grad_norm": 1.4684242010116577, "learning_rate": 3.937037037037038e-05, "loss": 0.3505, "step": 874 }, { "epoch": 0.2916666666666667, "grad_norm": 1.2339351177215576, "learning_rate": 3.935185185185186e-05, "loss": 0.3128, "step": 875 }, { "epoch": 0.292, "grad_norm": 1.173764705657959, "learning_rate": 3.933333333333333e-05, "loss": 0.2901, "step": 876 }, { "epoch": 0.29233333333333333, "grad_norm": 1.3826504945755005, "learning_rate": 3.931481481481481e-05, "loss": 0.3294, "step": 877 }, { "epoch": 0.2926666666666667, "grad_norm": 1.2246149778366089, "learning_rate": 3.92962962962963e-05, "loss": 0.3178, "step": 878 }, { "epoch": 0.293, "grad_norm": 1.195994257926941, "learning_rate": 3.927777777777778e-05, "loss": 0.3298, "step": 879 }, { "epoch": 0.29333333333333333, "grad_norm": 1.223406434059143, "learning_rate": 3.925925925925926e-05, "loss": 0.3619, "step": 880 }, { "epoch": 0.2936666666666667, "grad_norm": 1.3600610494613647, "learning_rate": 3.924074074074074e-05, "loss": 0.3787, "step": 881 }, { "epoch": 0.294, "grad_norm": 1.4605013132095337, "learning_rate": 3.922222222222223e-05, "loss": 0.4291, "step": 882 }, { "epoch": 0.29433333333333334, "grad_norm": 1.3966978788375854, "learning_rate": 3.9203703703703704e-05, "loss": 0.3685, "step": 883 }, { "epoch": 0.2946666666666667, "grad_norm": 1.7487388849258423, "learning_rate": 3.9185185185185185e-05, "loss": 0.4585, "step": 884 }, { "epoch": 0.295, "grad_norm": 1.5563944578170776, "learning_rate": 3.9166666666666665e-05, "loss": 0.3958, "step": 885 }, { "epoch": 0.29533333333333334, "grad_norm": 1.1526061296463013, "learning_rate": 3.914814814814815e-05, "loss": 0.3108, "step": 886 }, { "epoch": 0.2956666666666667, "grad_norm": 2.1721689701080322, "learning_rate": 3.9129629629629634e-05, "loss": 0.3015, "step": 887 }, { "epoch": 0.296, "grad_norm": 1.611386775970459, "learning_rate": 3.9111111111111115e-05, "loss": 0.4427, "step": 888 }, { "epoch": 0.29633333333333334, "grad_norm": 1.6230885982513428, "learning_rate": 3.909259259259259e-05, "loss": 0.3378, "step": 889 }, { "epoch": 0.2966666666666667, "grad_norm": 1.3626060485839844, "learning_rate": 3.9074074074074076e-05, "loss": 0.3879, "step": 890 }, { "epoch": 0.297, "grad_norm": 1.6999090909957886, "learning_rate": 3.905555555555556e-05, "loss": 0.4033, "step": 891 }, { "epoch": 0.29733333333333334, "grad_norm": 1.3023254871368408, "learning_rate": 3.903703703703704e-05, "loss": 0.3567, "step": 892 }, { "epoch": 0.2976666666666667, "grad_norm": 1.7830791473388672, "learning_rate": 3.901851851851852e-05, "loss": 0.3597, "step": 893 }, { "epoch": 0.298, "grad_norm": 1.5148744583129883, "learning_rate": 3.9000000000000006e-05, "loss": 0.3728, "step": 894 }, { "epoch": 0.29833333333333334, "grad_norm": 1.3890525102615356, "learning_rate": 3.898148148148149e-05, "loss": 0.3208, "step": 895 }, { "epoch": 0.2986666666666667, "grad_norm": 1.2798212766647339, "learning_rate": 3.896296296296296e-05, "loss": 0.346, "step": 896 }, { "epoch": 0.299, "grad_norm": 1.3253546953201294, "learning_rate": 3.894444444444444e-05, "loss": 0.3252, "step": 897 }, { "epoch": 0.29933333333333334, "grad_norm": 1.3032668828964233, "learning_rate": 3.892592592592593e-05, "loss": 0.3739, "step": 898 }, { "epoch": 0.2996666666666667, "grad_norm": 1.2352277040481567, "learning_rate": 3.890740740740741e-05, "loss": 0.3514, "step": 899 }, { "epoch": 0.3, "grad_norm": 1.3053611516952515, "learning_rate": 3.888888888888889e-05, "loss": 0.3875, "step": 900 }, { "epoch": 0.30033333333333334, "grad_norm": 1.0773141384124756, "learning_rate": 3.887037037037037e-05, "loss": 0.2743, "step": 901 }, { "epoch": 0.3006666666666667, "grad_norm": 1.2912036180496216, "learning_rate": 3.885185185185186e-05, "loss": 0.3447, "step": 902 }, { "epoch": 0.301, "grad_norm": 1.272647500038147, "learning_rate": 3.883333333333333e-05, "loss": 0.3419, "step": 903 }, { "epoch": 0.30133333333333334, "grad_norm": 1.4251070022583008, "learning_rate": 3.8814814814814814e-05, "loss": 0.3738, "step": 904 }, { "epoch": 0.3016666666666667, "grad_norm": 1.3882228136062622, "learning_rate": 3.8796296296296295e-05, "loss": 0.3295, "step": 905 }, { "epoch": 0.302, "grad_norm": 1.5582339763641357, "learning_rate": 3.877777777777778e-05, "loss": 0.4242, "step": 906 }, { "epoch": 0.30233333333333334, "grad_norm": 1.359479308128357, "learning_rate": 3.875925925925926e-05, "loss": 0.3797, "step": 907 }, { "epoch": 0.30266666666666664, "grad_norm": 1.6548995971679688, "learning_rate": 3.8740740740740744e-05, "loss": 0.3808, "step": 908 }, { "epoch": 0.303, "grad_norm": 1.2039756774902344, "learning_rate": 3.8722222222222225e-05, "loss": 0.3139, "step": 909 }, { "epoch": 0.30333333333333334, "grad_norm": 1.0794775485992432, "learning_rate": 3.8703703703703705e-05, "loss": 0.2616, "step": 910 }, { "epoch": 0.30366666666666664, "grad_norm": 1.4288307428359985, "learning_rate": 3.8685185185185186e-05, "loss": 0.3401, "step": 911 }, { "epoch": 0.304, "grad_norm": 1.3045710325241089, "learning_rate": 3.866666666666667e-05, "loss": 0.3058, "step": 912 }, { "epoch": 0.30433333333333334, "grad_norm": 1.2060816287994385, "learning_rate": 3.864814814814815e-05, "loss": 0.3089, "step": 913 }, { "epoch": 0.30466666666666664, "grad_norm": 1.7363193035125732, "learning_rate": 3.8629629629629635e-05, "loss": 0.3443, "step": 914 }, { "epoch": 0.305, "grad_norm": 1.6673532724380493, "learning_rate": 3.8611111111111116e-05, "loss": 0.3454, "step": 915 }, { "epoch": 0.30533333333333335, "grad_norm": 1.3578459024429321, "learning_rate": 3.85925925925926e-05, "loss": 0.3108, "step": 916 }, { "epoch": 0.30566666666666664, "grad_norm": 1.2931619882583618, "learning_rate": 3.857407407407407e-05, "loss": 0.2997, "step": 917 }, { "epoch": 0.306, "grad_norm": 1.2525206804275513, "learning_rate": 3.855555555555556e-05, "loss": 0.3154, "step": 918 }, { "epoch": 0.30633333333333335, "grad_norm": 1.3815010786056519, "learning_rate": 3.853703703703704e-05, "loss": 0.3254, "step": 919 }, { "epoch": 0.30666666666666664, "grad_norm": 1.4179706573486328, "learning_rate": 3.851851851851852e-05, "loss": 0.3767, "step": 920 }, { "epoch": 0.307, "grad_norm": 1.3598191738128662, "learning_rate": 3.85e-05, "loss": 0.3513, "step": 921 }, { "epoch": 0.30733333333333335, "grad_norm": 1.7877548933029175, "learning_rate": 3.848148148148149e-05, "loss": 0.3614, "step": 922 }, { "epoch": 0.30766666666666664, "grad_norm": 1.3656010627746582, "learning_rate": 3.846296296296297e-05, "loss": 0.3425, "step": 923 }, { "epoch": 0.308, "grad_norm": 4.808995246887207, "learning_rate": 3.844444444444444e-05, "loss": 0.307, "step": 924 }, { "epoch": 0.30833333333333335, "grad_norm": 1.1662079095840454, "learning_rate": 3.8425925925925924e-05, "loss": 0.3141, "step": 925 }, { "epoch": 0.30866666666666664, "grad_norm": 1.2092838287353516, "learning_rate": 3.840740740740741e-05, "loss": 0.3022, "step": 926 }, { "epoch": 0.309, "grad_norm": 1.454504132270813, "learning_rate": 3.838888888888889e-05, "loss": 0.3933, "step": 927 }, { "epoch": 0.30933333333333335, "grad_norm": 2.092907667160034, "learning_rate": 3.837037037037037e-05, "loss": 0.3429, "step": 928 }, { "epoch": 0.30966666666666665, "grad_norm": 1.180614948272705, "learning_rate": 3.8351851851851854e-05, "loss": 0.2756, "step": 929 }, { "epoch": 0.31, "grad_norm": 1.3005765676498413, "learning_rate": 3.8333333333333334e-05, "loss": 0.3362, "step": 930 }, { "epoch": 0.31033333333333335, "grad_norm": 1.469460129737854, "learning_rate": 3.8314814814814815e-05, "loss": 0.3987, "step": 931 }, { "epoch": 0.31066666666666665, "grad_norm": NaN, "learning_rate": 3.8314814814814815e-05, "loss": 0.3286, "step": 932 }, { "epoch": 0.311, "grad_norm": 1.983880639076233, "learning_rate": 3.8296296296296296e-05, "loss": 0.3333, "step": 933 }, { "epoch": 0.31133333333333335, "grad_norm": 1.4871864318847656, "learning_rate": 3.827777777777778e-05, "loss": 0.3111, "step": 934 }, { "epoch": 0.31166666666666665, "grad_norm": 1.5106232166290283, "learning_rate": 3.8259259259259264e-05, "loss": 0.3756, "step": 935 }, { "epoch": 0.312, "grad_norm": 1.415174126625061, "learning_rate": 3.8240740740740745e-05, "loss": 0.3393, "step": 936 }, { "epoch": 0.31233333333333335, "grad_norm": 1.444771409034729, "learning_rate": 3.8222222222222226e-05, "loss": 0.3537, "step": 937 }, { "epoch": 0.31266666666666665, "grad_norm": 1.3916597366333008, "learning_rate": 3.820370370370371e-05, "loss": 0.3592, "step": 938 }, { "epoch": 0.313, "grad_norm": 1.3703736066818237, "learning_rate": 3.818518518518519e-05, "loss": 0.3531, "step": 939 }, { "epoch": 0.31333333333333335, "grad_norm": 2.362666606903076, "learning_rate": 3.816666666666667e-05, "loss": 0.3717, "step": 940 }, { "epoch": 0.31366666666666665, "grad_norm": 1.9897328615188599, "learning_rate": 3.814814814814815e-05, "loss": 0.5176, "step": 941 }, { "epoch": 0.314, "grad_norm": 1.2957475185394287, "learning_rate": 3.812962962962963e-05, "loss": 0.332, "step": 942 }, { "epoch": 0.31433333333333335, "grad_norm": 1.3311879634857178, "learning_rate": 3.811111111111112e-05, "loss": 0.3401, "step": 943 }, { "epoch": 0.31466666666666665, "grad_norm": 2.005011558532715, "learning_rate": 3.80925925925926e-05, "loss": 0.3492, "step": 944 }, { "epoch": 0.315, "grad_norm": 1.47440505027771, "learning_rate": 3.807407407407408e-05, "loss": 0.3661, "step": 945 }, { "epoch": 0.31533333333333335, "grad_norm": 1.5715532302856445, "learning_rate": 3.805555555555555e-05, "loss": 0.2935, "step": 946 }, { "epoch": 0.31566666666666665, "grad_norm": 1.3023148775100708, "learning_rate": 3.803703703703704e-05, "loss": 0.331, "step": 947 }, { "epoch": 0.316, "grad_norm": 1.3504129648208618, "learning_rate": 3.801851851851852e-05, "loss": 0.3112, "step": 948 }, { "epoch": 0.31633333333333336, "grad_norm": 2.1642982959747314, "learning_rate": 3.8e-05, "loss": 0.3065, "step": 949 }, { "epoch": 0.31666666666666665, "grad_norm": 2.3918402194976807, "learning_rate": 3.798148148148148e-05, "loss": 0.3791, "step": 950 }, { "epoch": 0.317, "grad_norm": 1.3676456212997437, "learning_rate": 3.7962962962962964e-05, "loss": 0.3289, "step": 951 }, { "epoch": 0.31733333333333336, "grad_norm": 1.2880066633224487, "learning_rate": 3.7944444444444444e-05, "loss": 0.2805, "step": 952 }, { "epoch": 0.31766666666666665, "grad_norm": 1.68917977809906, "learning_rate": 3.7925925925925925e-05, "loss": 0.3794, "step": 953 }, { "epoch": 0.318, "grad_norm": 1.5723520517349243, "learning_rate": 3.7907407407407406e-05, "loss": 0.2986, "step": 954 }, { "epoch": 0.31833333333333336, "grad_norm": 1.8405094146728516, "learning_rate": 3.7888888888888894e-05, "loss": 0.3654, "step": 955 }, { "epoch": 0.31866666666666665, "grad_norm": 1.9899356365203857, "learning_rate": 3.7870370370370374e-05, "loss": 0.4314, "step": 956 }, { "epoch": 0.319, "grad_norm": 1.42067289352417, "learning_rate": 3.7851851851851855e-05, "loss": 0.3136, "step": 957 }, { "epoch": 0.31933333333333336, "grad_norm": 1.519590973854065, "learning_rate": 3.7833333333333336e-05, "loss": 0.3896, "step": 958 }, { "epoch": 0.31966666666666665, "grad_norm": 1.5198662281036377, "learning_rate": 3.781481481481482e-05, "loss": 0.3821, "step": 959 }, { "epoch": 0.32, "grad_norm": 1.918550729751587, "learning_rate": 3.77962962962963e-05, "loss": 0.3349, "step": 960 }, { "epoch": 0.32033333333333336, "grad_norm": 1.3605577945709229, "learning_rate": 3.777777777777778e-05, "loss": 0.3489, "step": 961 }, { "epoch": 0.32066666666666666, "grad_norm": 1.2916854619979858, "learning_rate": 3.775925925925926e-05, "loss": 0.347, "step": 962 }, { "epoch": 0.321, "grad_norm": 1.572582721710205, "learning_rate": 3.774074074074074e-05, "loss": 0.3121, "step": 963 }, { "epoch": 0.32133333333333336, "grad_norm": 1.4521883726119995, "learning_rate": 3.772222222222223e-05, "loss": 0.3555, "step": 964 }, { "epoch": 0.32166666666666666, "grad_norm": 2.1491146087646484, "learning_rate": 3.770370370370371e-05, "loss": 0.3366, "step": 965 }, { "epoch": 0.322, "grad_norm": 1.4262841939926147, "learning_rate": 3.768518518518518e-05, "loss": 0.3533, "step": 966 }, { "epoch": 0.32233333333333336, "grad_norm": 1.3143759965896606, "learning_rate": 3.766666666666667e-05, "loss": 0.4036, "step": 967 }, { "epoch": 0.32266666666666666, "grad_norm": 1.2250725030899048, "learning_rate": 3.764814814814815e-05, "loss": 0.2897, "step": 968 }, { "epoch": 0.323, "grad_norm": 1.3469847440719604, "learning_rate": 3.762962962962963e-05, "loss": 0.3312, "step": 969 }, { "epoch": 0.3233333333333333, "grad_norm": 1.8355865478515625, "learning_rate": 3.761111111111111e-05, "loss": 0.2953, "step": 970 }, { "epoch": 0.32366666666666666, "grad_norm": 1.3881330490112305, "learning_rate": 3.759259259259259e-05, "loss": 0.3115, "step": 971 }, { "epoch": 0.324, "grad_norm": 1.5569638013839722, "learning_rate": 3.757407407407408e-05, "loss": 0.4032, "step": 972 }, { "epoch": 0.3243333333333333, "grad_norm": 1.3486943244934082, "learning_rate": 3.7555555555555554e-05, "loss": 0.2901, "step": 973 }, { "epoch": 0.32466666666666666, "grad_norm": 1.3435277938842773, "learning_rate": 3.7537037037037035e-05, "loss": 0.2702, "step": 974 }, { "epoch": 0.325, "grad_norm": 1.344024419784546, "learning_rate": 3.751851851851852e-05, "loss": 0.306, "step": 975 }, { "epoch": 0.3253333333333333, "grad_norm": 1.397646188735962, "learning_rate": 3.7500000000000003e-05, "loss": 0.2537, "step": 976 }, { "epoch": 0.32566666666666666, "grad_norm": 4.373431205749512, "learning_rate": 3.7481481481481484e-05, "loss": 0.3172, "step": 977 }, { "epoch": 0.326, "grad_norm": 1.3574572801589966, "learning_rate": 3.7462962962962965e-05, "loss": 0.3017, "step": 978 }, { "epoch": 0.3263333333333333, "grad_norm": 1.3563703298568726, "learning_rate": 3.7444444444444446e-05, "loss": 0.3509, "step": 979 }, { "epoch": 0.32666666666666666, "grad_norm": 1.2914656400680542, "learning_rate": 3.742592592592593e-05, "loss": 0.3042, "step": 980 }, { "epoch": 0.327, "grad_norm": 1.3205169439315796, "learning_rate": 3.740740740740741e-05, "loss": 0.3018, "step": 981 }, { "epoch": 0.3273333333333333, "grad_norm": 1.7126083374023438, "learning_rate": 3.738888888888889e-05, "loss": 0.3478, "step": 982 }, { "epoch": 0.32766666666666666, "grad_norm": 1.3673988580703735, "learning_rate": 3.737037037037037e-05, "loss": 0.3276, "step": 983 }, { "epoch": 0.328, "grad_norm": 1.5554841756820679, "learning_rate": 3.7351851851851857e-05, "loss": 0.3449, "step": 984 }, { "epoch": 0.3283333333333333, "grad_norm": 1.2867860794067383, "learning_rate": 3.733333333333334e-05, "loss": 0.2982, "step": 985 }, { "epoch": 0.32866666666666666, "grad_norm": 1.4816596508026123, "learning_rate": 3.731481481481482e-05, "loss": 0.3259, "step": 986 }, { "epoch": 0.329, "grad_norm": 1.2446486949920654, "learning_rate": 3.72962962962963e-05, "loss": 0.3243, "step": 987 }, { "epoch": 0.3293333333333333, "grad_norm": 1.3690942525863647, "learning_rate": 3.727777777777778e-05, "loss": 0.314, "step": 988 }, { "epoch": 0.32966666666666666, "grad_norm": 1.192113995552063, "learning_rate": 3.725925925925926e-05, "loss": 0.3543, "step": 989 }, { "epoch": 0.33, "grad_norm": 1.291727900505066, "learning_rate": 3.724074074074074e-05, "loss": 0.3282, "step": 990 }, { "epoch": 0.3303333333333333, "grad_norm": 1.2864351272583008, "learning_rate": 3.722222222222222e-05, "loss": 0.3076, "step": 991 }, { "epoch": 0.33066666666666666, "grad_norm": 1.4030873775482178, "learning_rate": 3.720370370370371e-05, "loss": 0.3233, "step": 992 }, { "epoch": 0.331, "grad_norm": 1.384459137916565, "learning_rate": 3.718518518518519e-05, "loss": 0.3349, "step": 993 }, { "epoch": 0.3313333333333333, "grad_norm": 1.7232944965362549, "learning_rate": 3.7166666666666664e-05, "loss": 0.3192, "step": 994 }, { "epoch": 0.33166666666666667, "grad_norm": 1.237061619758606, "learning_rate": 3.714814814814815e-05, "loss": 0.3508, "step": 995 }, { "epoch": 0.332, "grad_norm": 1.238932490348816, "learning_rate": 3.712962962962963e-05, "loss": 0.3306, "step": 996 }, { "epoch": 0.3323333333333333, "grad_norm": 1.179057002067566, "learning_rate": 3.7111111111111113e-05, "loss": 0.258, "step": 997 }, { "epoch": 0.33266666666666667, "grad_norm": 1.2349563837051392, "learning_rate": 3.7092592592592594e-05, "loss": 0.2826, "step": 998 }, { "epoch": 0.333, "grad_norm": 1.2763677835464478, "learning_rate": 3.7074074074074075e-05, "loss": 0.3256, "step": 999 }, { "epoch": 0.3333333333333333, "grad_norm": 1.5997756719589233, "learning_rate": 3.705555555555556e-05, "loss": 0.3034, "step": 1000 }, { "epoch": 0.33366666666666667, "grad_norm": 1.4051567316055298, "learning_rate": 3.7037037037037037e-05, "loss": 0.2879, "step": 1001 }, { "epoch": 0.334, "grad_norm": 1.150168776512146, "learning_rate": 3.701851851851852e-05, "loss": 0.2664, "step": 1002 }, { "epoch": 0.3343333333333333, "grad_norm": 1.438923716545105, "learning_rate": 3.7e-05, "loss": 0.3263, "step": 1003 }, { "epoch": 0.33466666666666667, "grad_norm": 1.2288265228271484, "learning_rate": 3.6981481481481486e-05, "loss": 0.2793, "step": 1004 }, { "epoch": 0.335, "grad_norm": 1.1903449296951294, "learning_rate": 3.6962962962962966e-05, "loss": 0.2726, "step": 1005 }, { "epoch": 0.3353333333333333, "grad_norm": 1.357292652130127, "learning_rate": 3.694444444444445e-05, "loss": 0.2947, "step": 1006 }, { "epoch": 0.33566666666666667, "grad_norm": 1.5391733646392822, "learning_rate": 3.692592592592593e-05, "loss": 0.351, "step": 1007 }, { "epoch": 0.336, "grad_norm": 1.4874252080917358, "learning_rate": 3.690740740740741e-05, "loss": 0.3729, "step": 1008 }, { "epoch": 0.3363333333333333, "grad_norm": 1.2804758548736572, "learning_rate": 3.688888888888889e-05, "loss": 0.3476, "step": 1009 }, { "epoch": 0.33666666666666667, "grad_norm": 1.4765470027923584, "learning_rate": 3.687037037037037e-05, "loss": 0.3668, "step": 1010 }, { "epoch": 0.337, "grad_norm": 1.4163161516189575, "learning_rate": 3.685185185185185e-05, "loss": 0.3483, "step": 1011 }, { "epoch": 0.3373333333333333, "grad_norm": 1.0593568086624146, "learning_rate": 3.683333333333334e-05, "loss": 0.2568, "step": 1012 }, { "epoch": 0.33766666666666667, "grad_norm": 1.1782392263412476, "learning_rate": 3.681481481481482e-05, "loss": 0.293, "step": 1013 }, { "epoch": 0.338, "grad_norm": 1.3001588582992554, "learning_rate": 3.6796296296296293e-05, "loss": 0.3135, "step": 1014 }, { "epoch": 0.3383333333333333, "grad_norm": 1.9914343357086182, "learning_rate": 3.677777777777778e-05, "loss": 0.357, "step": 1015 }, { "epoch": 0.33866666666666667, "grad_norm": 1.0276645421981812, "learning_rate": 3.675925925925926e-05, "loss": 0.2545, "step": 1016 }, { "epoch": 0.339, "grad_norm": 1.3311192989349365, "learning_rate": 3.674074074074074e-05, "loss": 0.2716, "step": 1017 }, { "epoch": 0.3393333333333333, "grad_norm": 1.3145405054092407, "learning_rate": 3.672222222222222e-05, "loss": 0.3814, "step": 1018 }, { "epoch": 0.3396666666666667, "grad_norm": 1.3477872610092163, "learning_rate": 3.6703703703703704e-05, "loss": 0.32, "step": 1019 }, { "epoch": 0.34, "grad_norm": 1.3063677549362183, "learning_rate": 3.668518518518519e-05, "loss": 0.2937, "step": 1020 }, { "epoch": 0.3403333333333333, "grad_norm": 1.295404076576233, "learning_rate": 3.6666666666666666e-05, "loss": 0.3222, "step": 1021 }, { "epoch": 0.3406666666666667, "grad_norm": 2.0237696170806885, "learning_rate": 3.6648148148148146e-05, "loss": 0.3149, "step": 1022 }, { "epoch": 0.341, "grad_norm": 1.2823859453201294, "learning_rate": 3.662962962962963e-05, "loss": 0.3273, "step": 1023 }, { "epoch": 0.3413333333333333, "grad_norm": 1.5880634784698486, "learning_rate": 3.6611111111111115e-05, "loss": 0.3208, "step": 1024 }, { "epoch": 0.3416666666666667, "grad_norm": 1.2414577007293701, "learning_rate": 3.6592592592592596e-05, "loss": 0.3153, "step": 1025 }, { "epoch": 0.342, "grad_norm": 1.3580373525619507, "learning_rate": 3.6574074074074076e-05, "loss": 0.3836, "step": 1026 }, { "epoch": 0.3423333333333333, "grad_norm": 1.3877129554748535, "learning_rate": 3.655555555555556e-05, "loss": 0.3624, "step": 1027 }, { "epoch": 0.3426666666666667, "grad_norm": 1.1374024152755737, "learning_rate": 3.653703703703704e-05, "loss": 0.2904, "step": 1028 }, { "epoch": 0.343, "grad_norm": 1.1905382871627808, "learning_rate": 3.651851851851852e-05, "loss": 0.306, "step": 1029 }, { "epoch": 0.3433333333333333, "grad_norm": 1.3223686218261719, "learning_rate": 3.65e-05, "loss": 0.3584, "step": 1030 }, { "epoch": 0.3436666666666667, "grad_norm": 1.4666658639907837, "learning_rate": 3.648148148148148e-05, "loss": 0.3107, "step": 1031 }, { "epoch": 0.344, "grad_norm": 1.619066596031189, "learning_rate": 3.646296296296297e-05, "loss": 0.3838, "step": 1032 }, { "epoch": 0.3443333333333333, "grad_norm": 2.1325740814208984, "learning_rate": 3.644444444444445e-05, "loss": 0.4135, "step": 1033 }, { "epoch": 0.3446666666666667, "grad_norm": 1.364968180656433, "learning_rate": 3.642592592592593e-05, "loss": 0.3454, "step": 1034 }, { "epoch": 0.345, "grad_norm": 1.584752082824707, "learning_rate": 3.6407407407407403e-05, "loss": 0.3123, "step": 1035 }, { "epoch": 0.3453333333333333, "grad_norm": 1.3419305086135864, "learning_rate": 3.638888888888889e-05, "loss": 0.3226, "step": 1036 }, { "epoch": 0.3456666666666667, "grad_norm": 1.1971396207809448, "learning_rate": 3.637037037037037e-05, "loss": 0.2936, "step": 1037 }, { "epoch": 0.346, "grad_norm": 1.3042372465133667, "learning_rate": 3.635185185185185e-05, "loss": 0.3491, "step": 1038 }, { "epoch": 0.3463333333333333, "grad_norm": 1.4561793804168701, "learning_rate": 3.633333333333333e-05, "loss": 0.3644, "step": 1039 }, { "epoch": 0.3466666666666667, "grad_norm": 1.2615970373153687, "learning_rate": 3.631481481481482e-05, "loss": 0.3311, "step": 1040 }, { "epoch": 0.347, "grad_norm": 1.3194597959518433, "learning_rate": 3.62962962962963e-05, "loss": 0.2842, "step": 1041 }, { "epoch": 0.3473333333333333, "grad_norm": 1.4123057126998901, "learning_rate": 3.6277777777777776e-05, "loss": 0.3322, "step": 1042 }, { "epoch": 0.3476666666666667, "grad_norm": 1.637178659439087, "learning_rate": 3.6259259259259256e-05, "loss": 0.3588, "step": 1043 }, { "epoch": 0.348, "grad_norm": Infinity, "learning_rate": 3.6259259259259256e-05, "loss": 0.4188, "step": 1044 }, { "epoch": 0.34833333333333333, "grad_norm": 1.8338710069656372, "learning_rate": 3.6240740740740744e-05, "loss": 0.3217, "step": 1045 }, { "epoch": 0.3486666666666667, "grad_norm": 1.5536363124847412, "learning_rate": 3.6222222222222225e-05, "loss": 0.3984, "step": 1046 }, { "epoch": 0.349, "grad_norm": 1.2965439558029175, "learning_rate": 3.6203703703703706e-05, "loss": 0.3165, "step": 1047 }, { "epoch": 0.34933333333333333, "grad_norm": 3.6286535263061523, "learning_rate": 3.6185185185185186e-05, "loss": 0.3998, "step": 1048 }, { "epoch": 0.3496666666666667, "grad_norm": 1.1830613613128662, "learning_rate": 3.6166666666666674e-05, "loss": 0.3019, "step": 1049 }, { "epoch": 0.35, "grad_norm": 1.5949627161026, "learning_rate": 3.614814814814815e-05, "loss": 0.3433, "step": 1050 }, { "epoch": 0.35033333333333333, "grad_norm": 1.4907891750335693, "learning_rate": 3.612962962962963e-05, "loss": 0.3125, "step": 1051 }, { "epoch": 0.3506666666666667, "grad_norm": 1.3485552072525024, "learning_rate": 3.611111111111111e-05, "loss": 0.4253, "step": 1052 }, { "epoch": 0.351, "grad_norm": 1.202929139137268, "learning_rate": 3.60925925925926e-05, "loss": 0.3675, "step": 1053 }, { "epoch": 0.35133333333333333, "grad_norm": 1.1480059623718262, "learning_rate": 3.607407407407408e-05, "loss": 0.3048, "step": 1054 }, { "epoch": 0.3516666666666667, "grad_norm": 1.4422245025634766, "learning_rate": 3.605555555555556e-05, "loss": 0.2957, "step": 1055 }, { "epoch": 0.352, "grad_norm": 1.614688515663147, "learning_rate": 3.603703703703704e-05, "loss": 0.4132, "step": 1056 }, { "epoch": 0.35233333333333333, "grad_norm": 1.2919830083847046, "learning_rate": 3.601851851851852e-05, "loss": 0.324, "step": 1057 }, { "epoch": 0.3526666666666667, "grad_norm": 1.2919201850891113, "learning_rate": 3.6e-05, "loss": 0.3121, "step": 1058 }, { "epoch": 0.353, "grad_norm": 1.1040555238723755, "learning_rate": 3.598148148148148e-05, "loss": 0.2633, "step": 1059 }, { "epoch": 0.35333333333333333, "grad_norm": 1.2699229717254639, "learning_rate": 3.596296296296296e-05, "loss": 0.3295, "step": 1060 }, { "epoch": 0.3536666666666667, "grad_norm": 1.2212663888931274, "learning_rate": 3.594444444444445e-05, "loss": 0.3422, "step": 1061 }, { "epoch": 0.354, "grad_norm": 1.4259370565414429, "learning_rate": 3.592592592592593e-05, "loss": 0.2969, "step": 1062 }, { "epoch": 0.35433333333333333, "grad_norm": 3.2407474517822266, "learning_rate": 3.590740740740741e-05, "loss": 0.3382, "step": 1063 }, { "epoch": 0.3546666666666667, "grad_norm": 1.8349798917770386, "learning_rate": 3.5888888888888886e-05, "loss": 0.4496, "step": 1064 }, { "epoch": 0.355, "grad_norm": 1.2848482131958008, "learning_rate": 3.587037037037037e-05, "loss": 0.3556, "step": 1065 }, { "epoch": 0.35533333333333333, "grad_norm": 1.2955257892608643, "learning_rate": 3.5851851851851854e-05, "loss": 0.3161, "step": 1066 }, { "epoch": 0.3556666666666667, "grad_norm": 1.3511271476745605, "learning_rate": 3.5833333333333335e-05, "loss": 0.2793, "step": 1067 }, { "epoch": 0.356, "grad_norm": 1.1509175300598145, "learning_rate": 3.5814814814814815e-05, "loss": 0.2816, "step": 1068 }, { "epoch": 0.35633333333333334, "grad_norm": 1.3853956460952759, "learning_rate": 3.57962962962963e-05, "loss": 0.3096, "step": 1069 }, { "epoch": 0.3566666666666667, "grad_norm": 1.2324105501174927, "learning_rate": 3.577777777777778e-05, "loss": 0.3112, "step": 1070 }, { "epoch": 0.357, "grad_norm": 4.7527875900268555, "learning_rate": 3.575925925925926e-05, "loss": 0.33, "step": 1071 }, { "epoch": 0.35733333333333334, "grad_norm": 1.474766492843628, "learning_rate": 3.574074074074074e-05, "loss": 0.3616, "step": 1072 }, { "epoch": 0.3576666666666667, "grad_norm": 1.299726128578186, "learning_rate": 3.5722222222222226e-05, "loss": 0.3271, "step": 1073 }, { "epoch": 0.358, "grad_norm": 1.3764387369155884, "learning_rate": 3.570370370370371e-05, "loss": 0.3473, "step": 1074 }, { "epoch": 0.35833333333333334, "grad_norm": 1.2798625230789185, "learning_rate": 3.568518518518519e-05, "loss": 0.3222, "step": 1075 }, { "epoch": 0.3586666666666667, "grad_norm": 1.4264801740646362, "learning_rate": 3.566666666666667e-05, "loss": 0.3356, "step": 1076 }, { "epoch": 0.359, "grad_norm": 1.4264799356460571, "learning_rate": 3.564814814814815e-05, "loss": 0.3916, "step": 1077 }, { "epoch": 0.35933333333333334, "grad_norm": 1.4833095073699951, "learning_rate": 3.562962962962963e-05, "loss": 0.4323, "step": 1078 }, { "epoch": 0.3596666666666667, "grad_norm": 1.3696162700653076, "learning_rate": 3.561111111111111e-05, "loss": 0.3067, "step": 1079 }, { "epoch": 0.36, "grad_norm": 1.1376667022705078, "learning_rate": 3.559259259259259e-05, "loss": 0.2584, "step": 1080 }, { "epoch": 0.36033333333333334, "grad_norm": 1.076449990272522, "learning_rate": 3.557407407407408e-05, "loss": 0.3075, "step": 1081 }, { "epoch": 0.3606666666666667, "grad_norm": 1.411630630493164, "learning_rate": 3.555555555555556e-05, "loss": 0.4375, "step": 1082 }, { "epoch": 0.361, "grad_norm": 1.3988670110702515, "learning_rate": 3.553703703703704e-05, "loss": 0.354, "step": 1083 }, { "epoch": 0.36133333333333334, "grad_norm": 1.290349006652832, "learning_rate": 3.5518518518518515e-05, "loss": 0.2686, "step": 1084 }, { "epoch": 0.3616666666666667, "grad_norm": 1.1678707599639893, "learning_rate": 3.55e-05, "loss": 0.3312, "step": 1085 }, { "epoch": 0.362, "grad_norm": 1.5115658044815063, "learning_rate": 3.548148148148148e-05, "loss": 0.3962, "step": 1086 }, { "epoch": 0.36233333333333334, "grad_norm": 1.4765334129333496, "learning_rate": 3.5462962962962964e-05, "loss": 0.3086, "step": 1087 }, { "epoch": 0.3626666666666667, "grad_norm": 1.769323706626892, "learning_rate": 3.5444444444444445e-05, "loss": 0.3703, "step": 1088 }, { "epoch": 0.363, "grad_norm": 1.3390990495681763, "learning_rate": 3.542592592592593e-05, "loss": 0.3462, "step": 1089 }, { "epoch": 0.36333333333333334, "grad_norm": 1.5921162366867065, "learning_rate": 3.540740740740741e-05, "loss": 0.3318, "step": 1090 }, { "epoch": 0.3636666666666667, "grad_norm": 2.3825714588165283, "learning_rate": 3.538888888888889e-05, "loss": 0.3215, "step": 1091 }, { "epoch": 0.364, "grad_norm": 2.107105016708374, "learning_rate": 3.537037037037037e-05, "loss": 0.354, "step": 1092 }, { "epoch": 0.36433333333333334, "grad_norm": 1.3918901681900024, "learning_rate": 3.5351851851851855e-05, "loss": 0.3781, "step": 1093 }, { "epoch": 0.36466666666666664, "grad_norm": 1.5562140941619873, "learning_rate": 3.5333333333333336e-05, "loss": 0.4105, "step": 1094 }, { "epoch": 0.365, "grad_norm": 1.2961052656173706, "learning_rate": 3.531481481481482e-05, "loss": 0.2773, "step": 1095 }, { "epoch": 0.36533333333333334, "grad_norm": 1.5703457593917847, "learning_rate": 3.52962962962963e-05, "loss": 0.3547, "step": 1096 }, { "epoch": 0.36566666666666664, "grad_norm": 1.3313580751419067, "learning_rate": 3.527777777777778e-05, "loss": 0.3545, "step": 1097 }, { "epoch": 0.366, "grad_norm": 1.1296862363815308, "learning_rate": 3.525925925925926e-05, "loss": 0.3069, "step": 1098 }, { "epoch": 0.36633333333333334, "grad_norm": 1.5490580797195435, "learning_rate": 3.524074074074074e-05, "loss": 0.3374, "step": 1099 }, { "epoch": 0.36666666666666664, "grad_norm": 1.2726596593856812, "learning_rate": 3.522222222222222e-05, "loss": 0.3402, "step": 1100 }, { "epoch": 0.367, "grad_norm": 1.315387487411499, "learning_rate": 3.520370370370371e-05, "loss": 0.3201, "step": 1101 }, { "epoch": 0.36733333333333335, "grad_norm": 1.2253965139389038, "learning_rate": 3.518518518518519e-05, "loss": 0.2944, "step": 1102 }, { "epoch": 0.36766666666666664, "grad_norm": 1.2115917205810547, "learning_rate": 3.516666666666667e-05, "loss": 0.3624, "step": 1103 }, { "epoch": 0.368, "grad_norm": 1.208378553390503, "learning_rate": 3.514814814814815e-05, "loss": 0.3425, "step": 1104 }, { "epoch": 0.36833333333333335, "grad_norm": 1.372703194618225, "learning_rate": 3.512962962962963e-05, "loss": 0.3268, "step": 1105 }, { "epoch": 0.36866666666666664, "grad_norm": 1.1570706367492676, "learning_rate": 3.511111111111111e-05, "loss": 0.29, "step": 1106 }, { "epoch": 0.369, "grad_norm": 1.2996251583099365, "learning_rate": 3.509259259259259e-05, "loss": 0.3496, "step": 1107 }, { "epoch": 0.36933333333333335, "grad_norm": 1.3695014715194702, "learning_rate": 3.5074074074074074e-05, "loss": 0.3392, "step": 1108 }, { "epoch": 0.36966666666666664, "grad_norm": 1.364058494567871, "learning_rate": 3.505555555555556e-05, "loss": 0.3255, "step": 1109 }, { "epoch": 0.37, "grad_norm": 1.1595008373260498, "learning_rate": 3.503703703703704e-05, "loss": 0.2789, "step": 1110 }, { "epoch": 0.37033333333333335, "grad_norm": 1.1646687984466553, "learning_rate": 3.501851851851852e-05, "loss": 0.3033, "step": 1111 }, { "epoch": 0.37066666666666664, "grad_norm": 1.0601829290390015, "learning_rate": 3.5e-05, "loss": 0.2465, "step": 1112 }, { "epoch": 0.371, "grad_norm": 1.4330965280532837, "learning_rate": 3.4981481481481484e-05, "loss": 0.3674, "step": 1113 }, { "epoch": 0.37133333333333335, "grad_norm": 1.6141996383666992, "learning_rate": 3.4962962962962965e-05, "loss": 0.3707, "step": 1114 }, { "epoch": 0.37166666666666665, "grad_norm": 1.3331483602523804, "learning_rate": 3.4944444444444446e-05, "loss": 0.3373, "step": 1115 }, { "epoch": 0.372, "grad_norm": 1.3580536842346191, "learning_rate": 3.492592592592593e-05, "loss": 0.3529, "step": 1116 }, { "epoch": 0.37233333333333335, "grad_norm": 1.71631920337677, "learning_rate": 3.490740740740741e-05, "loss": 0.2838, "step": 1117 }, { "epoch": 0.37266666666666665, "grad_norm": 1.353417992591858, "learning_rate": 3.4888888888888895e-05, "loss": 0.3917, "step": 1118 }, { "epoch": 0.373, "grad_norm": 0.997871458530426, "learning_rate": 3.487037037037037e-05, "loss": 0.2708, "step": 1119 }, { "epoch": 0.37333333333333335, "grad_norm": 2.0954196453094482, "learning_rate": 3.485185185185185e-05, "loss": 0.3436, "step": 1120 }, { "epoch": 0.37366666666666665, "grad_norm": 1.30576753616333, "learning_rate": 3.483333333333334e-05, "loss": 0.3133, "step": 1121 }, { "epoch": 0.374, "grad_norm": 1.1875780820846558, "learning_rate": 3.481481481481482e-05, "loss": 0.2768, "step": 1122 }, { "epoch": 0.37433333333333335, "grad_norm": 1.3447662591934204, "learning_rate": 3.47962962962963e-05, "loss": 0.3491, "step": 1123 }, { "epoch": 0.37466666666666665, "grad_norm": 1.4046446084976196, "learning_rate": 3.477777777777778e-05, "loss": 0.3352, "step": 1124 }, { "epoch": 0.375, "grad_norm": 1.3614153861999512, "learning_rate": 3.475925925925926e-05, "loss": 0.3922, "step": 1125 }, { "epoch": 0.37533333333333335, "grad_norm": 1.313892126083374, "learning_rate": 3.474074074074074e-05, "loss": 0.3317, "step": 1126 }, { "epoch": 0.37566666666666665, "grad_norm": 1.3579307794570923, "learning_rate": 3.472222222222222e-05, "loss": 0.358, "step": 1127 }, { "epoch": 0.376, "grad_norm": 1.4795989990234375, "learning_rate": 3.47037037037037e-05, "loss": 0.3686, "step": 1128 }, { "epoch": 0.37633333333333335, "grad_norm": 1.489582896232605, "learning_rate": 3.468518518518519e-05, "loss": 0.4085, "step": 1129 }, { "epoch": 0.37666666666666665, "grad_norm": 1.293110966682434, "learning_rate": 3.466666666666667e-05, "loss": 0.3001, "step": 1130 }, { "epoch": 0.377, "grad_norm": 1.4047528505325317, "learning_rate": 3.464814814814815e-05, "loss": 0.3711, "step": 1131 }, { "epoch": 0.37733333333333335, "grad_norm": 1.289689302444458, "learning_rate": 3.4629629629629626e-05, "loss": 0.3209, "step": 1132 }, { "epoch": 0.37766666666666665, "grad_norm": 1.2558592557907104, "learning_rate": 3.4611111111111114e-05, "loss": 0.3533, "step": 1133 }, { "epoch": 0.378, "grad_norm": 1.2834080457687378, "learning_rate": 3.4592592592592594e-05, "loss": 0.3353, "step": 1134 }, { "epoch": 0.37833333333333335, "grad_norm": 1.4345370531082153, "learning_rate": 3.4574074074074075e-05, "loss": 0.3926, "step": 1135 }, { "epoch": 0.37866666666666665, "grad_norm": 1.4481878280639648, "learning_rate": 3.4555555555555556e-05, "loss": 0.3404, "step": 1136 }, { "epoch": 0.379, "grad_norm": 1.1916624307632446, "learning_rate": 3.453703703703704e-05, "loss": 0.3342, "step": 1137 }, { "epoch": 0.37933333333333336, "grad_norm": 1.2278419733047485, "learning_rate": 3.4518518518518524e-05, "loss": 0.3098, "step": 1138 }, { "epoch": 0.37966666666666665, "grad_norm": 1.4090250730514526, "learning_rate": 3.45e-05, "loss": 0.3341, "step": 1139 }, { "epoch": 0.38, "grad_norm": 1.6617376804351807, "learning_rate": 3.448148148148148e-05, "loss": 0.3945, "step": 1140 }, { "epoch": 0.38033333333333336, "grad_norm": 1.4314631223678589, "learning_rate": 3.446296296296297e-05, "loss": 0.3623, "step": 1141 }, { "epoch": 0.38066666666666665, "grad_norm": 1.411205768585205, "learning_rate": 3.444444444444445e-05, "loss": 0.3781, "step": 1142 }, { "epoch": 0.381, "grad_norm": 1.3415881395339966, "learning_rate": 3.442592592592593e-05, "loss": 0.3193, "step": 1143 }, { "epoch": 0.38133333333333336, "grad_norm": 1.4212307929992676, "learning_rate": 3.440740740740741e-05, "loss": 0.3254, "step": 1144 }, { "epoch": 0.38166666666666665, "grad_norm": 1.4112255573272705, "learning_rate": 3.438888888888889e-05, "loss": 0.2991, "step": 1145 }, { "epoch": 0.382, "grad_norm": 1.3234516382217407, "learning_rate": 3.437037037037037e-05, "loss": 0.3207, "step": 1146 }, { "epoch": 0.38233333333333336, "grad_norm": 1.213474988937378, "learning_rate": 3.435185185185185e-05, "loss": 0.3056, "step": 1147 }, { "epoch": 0.38266666666666665, "grad_norm": 1.1833276748657227, "learning_rate": 3.433333333333333e-05, "loss": 0.3457, "step": 1148 }, { "epoch": 0.383, "grad_norm": 1.2908787727355957, "learning_rate": 3.431481481481482e-05, "loss": 0.2864, "step": 1149 }, { "epoch": 0.38333333333333336, "grad_norm": 1.4967849254608154, "learning_rate": 3.42962962962963e-05, "loss": 0.3634, "step": 1150 }, { "epoch": 0.38366666666666666, "grad_norm": 2.2769408226013184, "learning_rate": 3.427777777777778e-05, "loss": 0.3883, "step": 1151 }, { "epoch": 0.384, "grad_norm": 1.7115672826766968, "learning_rate": 3.425925925925926e-05, "loss": 0.4487, "step": 1152 }, { "epoch": 0.38433333333333336, "grad_norm": 1.2388008832931519, "learning_rate": 3.424074074074074e-05, "loss": 0.2988, "step": 1153 }, { "epoch": 0.38466666666666666, "grad_norm": 1.1698668003082275, "learning_rate": 3.4222222222222224e-05, "loss": 0.2616, "step": 1154 }, { "epoch": 0.385, "grad_norm": 1.5330984592437744, "learning_rate": 3.4203703703703704e-05, "loss": 0.4106, "step": 1155 }, { "epoch": 0.38533333333333336, "grad_norm": 1.437772274017334, "learning_rate": 3.4185185185185185e-05, "loss": 0.3269, "step": 1156 }, { "epoch": 0.38566666666666666, "grad_norm": 1.4650007486343384, "learning_rate": 3.4166666666666666e-05, "loss": 0.3716, "step": 1157 }, { "epoch": 0.386, "grad_norm": 1.2811371088027954, "learning_rate": 3.4148148148148153e-05, "loss": 0.334, "step": 1158 }, { "epoch": 0.3863333333333333, "grad_norm": 1.3718805313110352, "learning_rate": 3.4129629629629634e-05, "loss": 0.2792, "step": 1159 }, { "epoch": 0.38666666666666666, "grad_norm": 1.5492916107177734, "learning_rate": 3.411111111111111e-05, "loss": 0.3789, "step": 1160 }, { "epoch": 0.387, "grad_norm": 1.4927184581756592, "learning_rate": 3.4092592592592596e-05, "loss": 0.3885, "step": 1161 }, { "epoch": 0.3873333333333333, "grad_norm": 1.2432221174240112, "learning_rate": 3.4074074074074077e-05, "loss": 0.3182, "step": 1162 }, { "epoch": 0.38766666666666666, "grad_norm": 1.3809635639190674, "learning_rate": 3.405555555555556e-05, "loss": 0.3724, "step": 1163 }, { "epoch": 0.388, "grad_norm": 1.2722634077072144, "learning_rate": 3.403703703703704e-05, "loss": 0.3724, "step": 1164 }, { "epoch": 0.3883333333333333, "grad_norm": 1.2271523475646973, "learning_rate": 3.401851851851852e-05, "loss": 0.3408, "step": 1165 }, { "epoch": 0.38866666666666666, "grad_norm": 1.343644380569458, "learning_rate": 3.4000000000000007e-05, "loss": 0.3326, "step": 1166 }, { "epoch": 0.389, "grad_norm": 1.3846473693847656, "learning_rate": 3.398148148148148e-05, "loss": 0.3911, "step": 1167 }, { "epoch": 0.3893333333333333, "grad_norm": 1.2909481525421143, "learning_rate": 3.396296296296296e-05, "loss": 0.3353, "step": 1168 }, { "epoch": 0.38966666666666666, "grad_norm": 1.4288636445999146, "learning_rate": 3.394444444444444e-05, "loss": 0.3722, "step": 1169 }, { "epoch": 0.39, "grad_norm": 1.1444342136383057, "learning_rate": 3.392592592592593e-05, "loss": 0.2493, "step": 1170 }, { "epoch": 0.3903333333333333, "grad_norm": 1.32205331325531, "learning_rate": 3.390740740740741e-05, "loss": 0.3168, "step": 1171 }, { "epoch": 0.39066666666666666, "grad_norm": 1.4039489030838013, "learning_rate": 3.388888888888889e-05, "loss": 0.3561, "step": 1172 }, { "epoch": 0.391, "grad_norm": 1.453980565071106, "learning_rate": 3.387037037037037e-05, "loss": 0.3514, "step": 1173 }, { "epoch": 0.3913333333333333, "grad_norm": 1.457906723022461, "learning_rate": 3.385185185185185e-05, "loss": 0.2931, "step": 1174 }, { "epoch": 0.39166666666666666, "grad_norm": 1.3490992784500122, "learning_rate": 3.3833333333333334e-05, "loss": 0.3327, "step": 1175 }, { "epoch": 0.392, "grad_norm": 1.209001898765564, "learning_rate": 3.3814814814814814e-05, "loss": 0.3154, "step": 1176 }, { "epoch": 0.3923333333333333, "grad_norm": 1.292962670326233, "learning_rate": 3.3796296296296295e-05, "loss": 0.3423, "step": 1177 }, { "epoch": 0.39266666666666666, "grad_norm": 1.27810800075531, "learning_rate": 3.377777777777778e-05, "loss": 0.3279, "step": 1178 }, { "epoch": 0.393, "grad_norm": 1.2658330202102661, "learning_rate": 3.3759259259259263e-05, "loss": 0.2852, "step": 1179 }, { "epoch": 0.3933333333333333, "grad_norm": 1.3012218475341797, "learning_rate": 3.3740740740740744e-05, "loss": 0.3576, "step": 1180 }, { "epoch": 0.39366666666666666, "grad_norm": 1.4106616973876953, "learning_rate": 3.3722222222222225e-05, "loss": 0.392, "step": 1181 }, { "epoch": 0.394, "grad_norm": 1.1917288303375244, "learning_rate": 3.3703703703703706e-05, "loss": 0.3286, "step": 1182 }, { "epoch": 0.3943333333333333, "grad_norm": 1.3688360452651978, "learning_rate": 3.3685185185185187e-05, "loss": 0.3382, "step": 1183 }, { "epoch": 0.39466666666666667, "grad_norm": 1.3576997518539429, "learning_rate": 3.366666666666667e-05, "loss": 0.3129, "step": 1184 }, { "epoch": 0.395, "grad_norm": 1.3230671882629395, "learning_rate": 3.364814814814815e-05, "loss": 0.3335, "step": 1185 }, { "epoch": 0.3953333333333333, "grad_norm": 1.331338882446289, "learning_rate": 3.3629629629629636e-05, "loss": 0.3643, "step": 1186 }, { "epoch": 0.39566666666666667, "grad_norm": 1.4048796892166138, "learning_rate": 3.3611111111111116e-05, "loss": 0.3856, "step": 1187 }, { "epoch": 0.396, "grad_norm": 1.3133976459503174, "learning_rate": 3.359259259259259e-05, "loss": 0.3619, "step": 1188 }, { "epoch": 0.3963333333333333, "grad_norm": 1.4763586521148682, "learning_rate": 3.357407407407407e-05, "loss": 0.3496, "step": 1189 }, { "epoch": 0.39666666666666667, "grad_norm": 1.5139193534851074, "learning_rate": 3.355555555555556e-05, "loss": 0.3067, "step": 1190 }, { "epoch": 0.397, "grad_norm": 1.2287884950637817, "learning_rate": 3.353703703703704e-05, "loss": 0.323, "step": 1191 }, { "epoch": 0.3973333333333333, "grad_norm": 1.2147111892700195, "learning_rate": 3.351851851851852e-05, "loss": 0.2553, "step": 1192 }, { "epoch": 0.39766666666666667, "grad_norm": 1.1449735164642334, "learning_rate": 3.35e-05, "loss": 0.2944, "step": 1193 }, { "epoch": 0.398, "grad_norm": 1.374301791191101, "learning_rate": 3.348148148148148e-05, "loss": 0.2859, "step": 1194 }, { "epoch": 0.3983333333333333, "grad_norm": 1.173158884048462, "learning_rate": 3.346296296296296e-05, "loss": 0.2861, "step": 1195 }, { "epoch": 0.39866666666666667, "grad_norm": 1.720590591430664, "learning_rate": 3.3444444444444443e-05, "loss": 0.3554, "step": 1196 }, { "epoch": 0.399, "grad_norm": 1.0962392091751099, "learning_rate": 3.3425925925925924e-05, "loss": 0.3091, "step": 1197 }, { "epoch": 0.3993333333333333, "grad_norm": 1.3953585624694824, "learning_rate": 3.340740740740741e-05, "loss": 0.296, "step": 1198 }, { "epoch": 0.39966666666666667, "grad_norm": 1.168837308883667, "learning_rate": 3.338888888888889e-05, "loss": 0.3096, "step": 1199 }, { "epoch": 0.4, "grad_norm": 1.3151252269744873, "learning_rate": 3.337037037037037e-05, "loss": 0.3446, "step": 1200 }, { "epoch": 0.4003333333333333, "grad_norm": 1.2708085775375366, "learning_rate": 3.3351851851851854e-05, "loss": 0.2491, "step": 1201 }, { "epoch": 0.40066666666666667, "grad_norm": 1.3287466764450073, "learning_rate": 3.3333333333333335e-05, "loss": 0.3077, "step": 1202 }, { "epoch": 0.401, "grad_norm": 1.3648910522460938, "learning_rate": 3.3314814814814816e-05, "loss": 0.3171, "step": 1203 }, { "epoch": 0.4013333333333333, "grad_norm": 1.4657703638076782, "learning_rate": 3.3296296296296296e-05, "loss": 0.3923, "step": 1204 }, { "epoch": 0.40166666666666667, "grad_norm": 1.1934144496917725, "learning_rate": 3.327777777777778e-05, "loss": 0.2773, "step": 1205 }, { "epoch": 0.402, "grad_norm": 1.2553868293762207, "learning_rate": 3.3259259259259265e-05, "loss": 0.2799, "step": 1206 }, { "epoch": 0.4023333333333333, "grad_norm": 1.3628332614898682, "learning_rate": 3.3240740740740746e-05, "loss": 0.2859, "step": 1207 }, { "epoch": 0.4026666666666667, "grad_norm": 1.2916998863220215, "learning_rate": 3.322222222222222e-05, "loss": 0.3185, "step": 1208 }, { "epoch": 0.403, "grad_norm": 1.42521333694458, "learning_rate": 3.32037037037037e-05, "loss": 0.3542, "step": 1209 }, { "epoch": 0.4033333333333333, "grad_norm": 1.422607183456421, "learning_rate": 3.318518518518519e-05, "loss": 0.4032, "step": 1210 }, { "epoch": 0.4036666666666667, "grad_norm": 1.650567650794983, "learning_rate": 3.316666666666667e-05, "loss": 0.3315, "step": 1211 }, { "epoch": 0.404, "grad_norm": 1.2101961374282837, "learning_rate": 3.314814814814815e-05, "loss": 0.3216, "step": 1212 }, { "epoch": 0.4043333333333333, "grad_norm": 1.379003882408142, "learning_rate": 3.312962962962963e-05, "loss": 0.375, "step": 1213 }, { "epoch": 0.4046666666666667, "grad_norm": 1.3828953504562378, "learning_rate": 3.311111111111112e-05, "loss": 0.4234, "step": 1214 }, { "epoch": 0.405, "grad_norm": 1.2310481071472168, "learning_rate": 3.309259259259259e-05, "loss": 0.3222, "step": 1215 }, { "epoch": 0.4053333333333333, "grad_norm": 1.138098955154419, "learning_rate": 3.307407407407407e-05, "loss": 0.2902, "step": 1216 }, { "epoch": 0.4056666666666667, "grad_norm": 1.2475906610488892, "learning_rate": 3.3055555555555553e-05, "loss": 0.2511, "step": 1217 }, { "epoch": 0.406, "grad_norm": 1.5216923952102661, "learning_rate": 3.303703703703704e-05, "loss": 0.3225, "step": 1218 }, { "epoch": 0.4063333333333333, "grad_norm": 1.3573172092437744, "learning_rate": 3.301851851851852e-05, "loss": 0.3624, "step": 1219 }, { "epoch": 0.4066666666666667, "grad_norm": 1.2531877756118774, "learning_rate": 3.3e-05, "loss": 0.3428, "step": 1220 }, { "epoch": 0.407, "grad_norm": 1.2263498306274414, "learning_rate": 3.298148148148148e-05, "loss": 0.3217, "step": 1221 }, { "epoch": 0.4073333333333333, "grad_norm": 1.5321907997131348, "learning_rate": 3.2962962962962964e-05, "loss": 0.3023, "step": 1222 }, { "epoch": 0.4076666666666667, "grad_norm": 1.4277921915054321, "learning_rate": 3.2944444444444445e-05, "loss": 0.3032, "step": 1223 }, { "epoch": 0.408, "grad_norm": 1.2472560405731201, "learning_rate": 3.2925925925925926e-05, "loss": 0.3173, "step": 1224 }, { "epoch": 0.4083333333333333, "grad_norm": 1.1488358974456787, "learning_rate": 3.2907407407407406e-05, "loss": 0.2607, "step": 1225 }, { "epoch": 0.4086666666666667, "grad_norm": 1.210424542427063, "learning_rate": 3.2888888888888894e-05, "loss": 0.3201, "step": 1226 }, { "epoch": 0.409, "grad_norm": 1.8057355880737305, "learning_rate": 3.2870370370370375e-05, "loss": 0.3661, "step": 1227 }, { "epoch": 0.4093333333333333, "grad_norm": 1.271549940109253, "learning_rate": 3.2851851851851856e-05, "loss": 0.3261, "step": 1228 }, { "epoch": 0.4096666666666667, "grad_norm": 1.2358571290969849, "learning_rate": 3.283333333333333e-05, "loss": 0.2953, "step": 1229 }, { "epoch": 0.41, "grad_norm": 1.2990944385528564, "learning_rate": 3.281481481481482e-05, "loss": 0.3033, "step": 1230 }, { "epoch": 0.4103333333333333, "grad_norm": 1.49687922000885, "learning_rate": 3.27962962962963e-05, "loss": 0.375, "step": 1231 }, { "epoch": 0.4106666666666667, "grad_norm": 1.057223916053772, "learning_rate": 3.277777777777778e-05, "loss": 0.267, "step": 1232 }, { "epoch": 0.411, "grad_norm": 1.398499608039856, "learning_rate": 3.275925925925926e-05, "loss": 0.3027, "step": 1233 }, { "epoch": 0.41133333333333333, "grad_norm": 1.3406695127487183, "learning_rate": 3.274074074074075e-05, "loss": 0.3725, "step": 1234 }, { "epoch": 0.4116666666666667, "grad_norm": 1.419496774673462, "learning_rate": 3.272222222222223e-05, "loss": 0.348, "step": 1235 }, { "epoch": 0.412, "grad_norm": 1.5485889911651611, "learning_rate": 3.27037037037037e-05, "loss": 0.4022, "step": 1236 }, { "epoch": 0.41233333333333333, "grad_norm": 1.2959764003753662, "learning_rate": 3.268518518518518e-05, "loss": 0.3821, "step": 1237 }, { "epoch": 0.4126666666666667, "grad_norm": 1.2219984531402588, "learning_rate": 3.266666666666667e-05, "loss": 0.2888, "step": 1238 }, { "epoch": 0.413, "grad_norm": 1.259722352027893, "learning_rate": 3.264814814814815e-05, "loss": 0.3498, "step": 1239 }, { "epoch": 0.41333333333333333, "grad_norm": 1.257016658782959, "learning_rate": 3.262962962962963e-05, "loss": 0.3015, "step": 1240 }, { "epoch": 0.4136666666666667, "grad_norm": 1.2367465496063232, "learning_rate": 3.261111111111111e-05, "loss": 0.2742, "step": 1241 }, { "epoch": 0.414, "grad_norm": 1.1874418258666992, "learning_rate": 3.25925925925926e-05, "loss": 0.2844, "step": 1242 }, { "epoch": 0.41433333333333333, "grad_norm": 1.706577181816101, "learning_rate": 3.2574074074074074e-05, "loss": 0.3626, "step": 1243 }, { "epoch": 0.4146666666666667, "grad_norm": 1.1454229354858398, "learning_rate": 3.2555555555555555e-05, "loss": 0.2802, "step": 1244 }, { "epoch": 0.415, "grad_norm": 1.410743236541748, "learning_rate": 3.2537037037037036e-05, "loss": 0.3806, "step": 1245 }, { "epoch": 0.41533333333333333, "grad_norm": 1.311240553855896, "learning_rate": 3.251851851851852e-05, "loss": 0.3108, "step": 1246 }, { "epoch": 0.4156666666666667, "grad_norm": 1.4041987657546997, "learning_rate": 3.2500000000000004e-05, "loss": 0.3697, "step": 1247 }, { "epoch": 0.416, "grad_norm": 1.1935088634490967, "learning_rate": 3.2481481481481485e-05, "loss": 0.3179, "step": 1248 }, { "epoch": 0.41633333333333333, "grad_norm": 1.1657696962356567, "learning_rate": 3.2462962962962965e-05, "loss": 0.3017, "step": 1249 }, { "epoch": 0.4166666666666667, "grad_norm": 1.3761823177337646, "learning_rate": 3.2444444444444446e-05, "loss": 0.2881, "step": 1250 }, { "epoch": 0.417, "grad_norm": 2.1889655590057373, "learning_rate": 3.242592592592593e-05, "loss": 0.2877, "step": 1251 }, { "epoch": 0.41733333333333333, "grad_norm": 1.3915610313415527, "learning_rate": 3.240740740740741e-05, "loss": 0.3214, "step": 1252 }, { "epoch": 0.4176666666666667, "grad_norm": 2.2810142040252686, "learning_rate": 3.238888888888889e-05, "loss": 0.3269, "step": 1253 }, { "epoch": 0.418, "grad_norm": 1.3012681007385254, "learning_rate": 3.2370370370370376e-05, "loss": 0.3141, "step": 1254 }, { "epoch": 0.41833333333333333, "grad_norm": 1.337235689163208, "learning_rate": 3.235185185185186e-05, "loss": 0.3788, "step": 1255 }, { "epoch": 0.4186666666666667, "grad_norm": 1.2843315601348877, "learning_rate": 3.233333333333333e-05, "loss": 0.3142, "step": 1256 }, { "epoch": 0.419, "grad_norm": 1.365087628364563, "learning_rate": 3.231481481481481e-05, "loss": 0.3031, "step": 1257 }, { "epoch": 0.41933333333333334, "grad_norm": 1.6005221605300903, "learning_rate": 3.22962962962963e-05, "loss": 0.3137, "step": 1258 }, { "epoch": 0.4196666666666667, "grad_norm": 1.17437744140625, "learning_rate": 3.227777777777778e-05, "loss": 0.292, "step": 1259 }, { "epoch": 0.42, "grad_norm": 1.2326277494430542, "learning_rate": 3.225925925925926e-05, "loss": 0.2733, "step": 1260 }, { "epoch": 0.42033333333333334, "grad_norm": 1.3126592636108398, "learning_rate": 3.224074074074074e-05, "loss": 0.3448, "step": 1261 }, { "epoch": 0.4206666666666667, "grad_norm": 2.3154373168945312, "learning_rate": 3.222222222222223e-05, "loss": 0.3375, "step": 1262 }, { "epoch": 0.421, "grad_norm": 1.3440665006637573, "learning_rate": 3.22037037037037e-05, "loss": 0.3093, "step": 1263 }, { "epoch": 0.42133333333333334, "grad_norm": 1.0816363096237183, "learning_rate": 3.2185185185185184e-05, "loss": 0.2594, "step": 1264 }, { "epoch": 0.4216666666666667, "grad_norm": 1.2021934986114502, "learning_rate": 3.2166666666666665e-05, "loss": 0.2714, "step": 1265 }, { "epoch": 0.422, "grad_norm": 1.3605766296386719, "learning_rate": 3.214814814814815e-05, "loss": 0.3457, "step": 1266 }, { "epoch": 0.42233333333333334, "grad_norm": 1.2555632591247559, "learning_rate": 3.212962962962963e-05, "loss": 0.2736, "step": 1267 }, { "epoch": 0.4226666666666667, "grad_norm": 1.2175118923187256, "learning_rate": 3.2111111111111114e-05, "loss": 0.3066, "step": 1268 }, { "epoch": 0.423, "grad_norm": 1.1053125858306885, "learning_rate": 3.2092592592592595e-05, "loss": 0.2791, "step": 1269 }, { "epoch": 0.42333333333333334, "grad_norm": 1.3448011875152588, "learning_rate": 3.2074074074074075e-05, "loss": 0.3762, "step": 1270 }, { "epoch": 0.4236666666666667, "grad_norm": 1.2361633777618408, "learning_rate": 3.2055555555555556e-05, "loss": 0.2688, "step": 1271 }, { "epoch": 0.424, "grad_norm": 1.163905143737793, "learning_rate": 3.203703703703704e-05, "loss": 0.2813, "step": 1272 }, { "epoch": 0.42433333333333334, "grad_norm": 1.4232393503189087, "learning_rate": 3.201851851851852e-05, "loss": 0.3675, "step": 1273 }, { "epoch": 0.4246666666666667, "grad_norm": 1.3182367086410522, "learning_rate": 3.2000000000000005e-05, "loss": 0.3599, "step": 1274 }, { "epoch": 0.425, "grad_norm": 1.3285682201385498, "learning_rate": 3.1981481481481486e-05, "loss": 0.3284, "step": 1275 }, { "epoch": 0.42533333333333334, "grad_norm": 1.3403418064117432, "learning_rate": 3.196296296296297e-05, "loss": 0.3361, "step": 1276 }, { "epoch": 0.4256666666666667, "grad_norm": 1.194331169128418, "learning_rate": 3.194444444444444e-05, "loss": 0.2899, "step": 1277 }, { "epoch": 0.426, "grad_norm": 1.3186957836151123, "learning_rate": 3.192592592592593e-05, "loss": 0.3482, "step": 1278 }, { "epoch": 0.42633333333333334, "grad_norm": 1.5927499532699585, "learning_rate": 3.190740740740741e-05, "loss": 0.3676, "step": 1279 }, { "epoch": 0.4266666666666667, "grad_norm": 1.2911031246185303, "learning_rate": 3.188888888888889e-05, "loss": 0.363, "step": 1280 }, { "epoch": 0.427, "grad_norm": 1.2698369026184082, "learning_rate": 3.187037037037037e-05, "loss": 0.3324, "step": 1281 }, { "epoch": 0.42733333333333334, "grad_norm": 1.447779655456543, "learning_rate": 3.185185185185185e-05, "loss": 0.2758, "step": 1282 }, { "epoch": 0.42766666666666664, "grad_norm": 1.4399187564849854, "learning_rate": 3.183333333333334e-05, "loss": 0.3142, "step": 1283 }, { "epoch": 0.428, "grad_norm": 1.0748909711837769, "learning_rate": 3.181481481481481e-05, "loss": 0.2866, "step": 1284 }, { "epoch": 0.42833333333333334, "grad_norm": 1.073938250541687, "learning_rate": 3.1796296296296294e-05, "loss": 0.2726, "step": 1285 }, { "epoch": 0.42866666666666664, "grad_norm": 1.9973044395446777, "learning_rate": 3.177777777777778e-05, "loss": 0.3124, "step": 1286 }, { "epoch": 0.429, "grad_norm": 1.3469796180725098, "learning_rate": 3.175925925925926e-05, "loss": 0.351, "step": 1287 }, { "epoch": 0.42933333333333334, "grad_norm": 1.4153450727462769, "learning_rate": 3.174074074074074e-05, "loss": 0.3518, "step": 1288 }, { "epoch": 0.42966666666666664, "grad_norm": 1.2307051420211792, "learning_rate": 3.1722222222222224e-05, "loss": 0.3092, "step": 1289 }, { "epoch": 0.43, "grad_norm": 1.214272141456604, "learning_rate": 3.1703703703703705e-05, "loss": 0.286, "step": 1290 }, { "epoch": 0.43033333333333335, "grad_norm": 1.20262610912323, "learning_rate": 3.1685185185185185e-05, "loss": 0.3441, "step": 1291 }, { "epoch": 0.43066666666666664, "grad_norm": 1.3520455360412598, "learning_rate": 3.1666666666666666e-05, "loss": 0.344, "step": 1292 }, { "epoch": 0.431, "grad_norm": 1.766294002532959, "learning_rate": 3.164814814814815e-05, "loss": 0.3369, "step": 1293 }, { "epoch": 0.43133333333333335, "grad_norm": 2.029533863067627, "learning_rate": 3.1629629629629634e-05, "loss": 0.3609, "step": 1294 }, { "epoch": 0.43166666666666664, "grad_norm": 1.1907929182052612, "learning_rate": 3.1611111111111115e-05, "loss": 0.3113, "step": 1295 }, { "epoch": 0.432, "grad_norm": 1.914631962776184, "learning_rate": 3.1592592592592596e-05, "loss": 0.4328, "step": 1296 }, { "epoch": 0.43233333333333335, "grad_norm": 1.4536421298980713, "learning_rate": 3.157407407407408e-05, "loss": 0.3263, "step": 1297 }, { "epoch": 0.43266666666666664, "grad_norm": 1.742464542388916, "learning_rate": 3.155555555555556e-05, "loss": 0.3452, "step": 1298 }, { "epoch": 0.433, "grad_norm": 1.3391237258911133, "learning_rate": 3.153703703703704e-05, "loss": 0.2995, "step": 1299 }, { "epoch": 0.43333333333333335, "grad_norm": 1.3630019426345825, "learning_rate": 3.151851851851852e-05, "loss": 0.3726, "step": 1300 }, { "epoch": 0.43366666666666664, "grad_norm": 1.3360670804977417, "learning_rate": 3.15e-05, "loss": 0.3647, "step": 1301 }, { "epoch": 0.434, "grad_norm": 1.4964908361434937, "learning_rate": 3.148148148148148e-05, "loss": 0.2782, "step": 1302 }, { "epoch": 0.43433333333333335, "grad_norm": 1.34764564037323, "learning_rate": 3.146296296296297e-05, "loss": 0.3662, "step": 1303 }, { "epoch": 0.43466666666666665, "grad_norm": 1.3717085123062134, "learning_rate": 3.144444444444445e-05, "loss": 0.3719, "step": 1304 }, { "epoch": 0.435, "grad_norm": 1.5210474729537964, "learning_rate": 3.142592592592592e-05, "loss": 0.4245, "step": 1305 }, { "epoch": 0.43533333333333335, "grad_norm": 1.6612187623977661, "learning_rate": 3.140740740740741e-05, "loss": 0.4282, "step": 1306 }, { "epoch": 0.43566666666666665, "grad_norm": 1.7016777992248535, "learning_rate": 3.138888888888889e-05, "loss": 0.3349, "step": 1307 }, { "epoch": 0.436, "grad_norm": 1.6802518367767334, "learning_rate": 3.137037037037037e-05, "loss": 0.3141, "step": 1308 }, { "epoch": 0.43633333333333335, "grad_norm": 2.4000046253204346, "learning_rate": 3.135185185185185e-05, "loss": 0.3325, "step": 1309 }, { "epoch": 0.43666666666666665, "grad_norm": 1.4784601926803589, "learning_rate": 3.1333333333333334e-05, "loss": 0.3049, "step": 1310 }, { "epoch": 0.437, "grad_norm": 1.630005121231079, "learning_rate": 3.131481481481482e-05, "loss": 0.3224, "step": 1311 }, { "epoch": 0.43733333333333335, "grad_norm": 1.3963704109191895, "learning_rate": 3.1296296296296295e-05, "loss": 0.3027, "step": 1312 }, { "epoch": 0.43766666666666665, "grad_norm": 2.303802013397217, "learning_rate": 3.1277777777777776e-05, "loss": 0.2847, "step": 1313 }, { "epoch": 0.438, "grad_norm": 1.1832516193389893, "learning_rate": 3.1259259259259264e-05, "loss": 0.3579, "step": 1314 }, { "epoch": 0.43833333333333335, "grad_norm": 1.4813835620880127, "learning_rate": 3.1240740740740744e-05, "loss": 0.3716, "step": 1315 }, { "epoch": 0.43866666666666665, "grad_norm": 2.1704001426696777, "learning_rate": 3.1222222222222225e-05, "loss": 0.3648, "step": 1316 }, { "epoch": 0.439, "grad_norm": 1.4701802730560303, "learning_rate": 3.1203703703703706e-05, "loss": 0.3652, "step": 1317 }, { "epoch": 0.43933333333333335, "grad_norm": 1.3754160404205322, "learning_rate": 3.118518518518519e-05, "loss": 0.2939, "step": 1318 }, { "epoch": 0.43966666666666665, "grad_norm": 1.4342671632766724, "learning_rate": 3.116666666666667e-05, "loss": 0.3745, "step": 1319 }, { "epoch": 0.44, "grad_norm": 1.3938649892807007, "learning_rate": 3.114814814814815e-05, "loss": 0.2953, "step": 1320 }, { "epoch": 0.44033333333333335, "grad_norm": 1.391393780708313, "learning_rate": 3.112962962962963e-05, "loss": 0.3196, "step": 1321 }, { "epoch": 0.44066666666666665, "grad_norm": 1.248563289642334, "learning_rate": 3.111111111111111e-05, "loss": 0.3165, "step": 1322 }, { "epoch": 0.441, "grad_norm": 1.1494781970977783, "learning_rate": 3.10925925925926e-05, "loss": 0.3299, "step": 1323 }, { "epoch": 0.44133333333333336, "grad_norm": 1.2400906085968018, "learning_rate": 3.107407407407408e-05, "loss": 0.2792, "step": 1324 }, { "epoch": 0.44166666666666665, "grad_norm": 1.3425542116165161, "learning_rate": 3.105555555555555e-05, "loss": 0.3149, "step": 1325 }, { "epoch": 0.442, "grad_norm": 1.3477575778961182, "learning_rate": 3.103703703703704e-05, "loss": 0.355, "step": 1326 }, { "epoch": 0.44233333333333336, "grad_norm": 1.313015341758728, "learning_rate": 3.101851851851852e-05, "loss": 0.3455, "step": 1327 }, { "epoch": 0.44266666666666665, "grad_norm": 2.502833366394043, "learning_rate": 3.1e-05, "loss": 0.3538, "step": 1328 }, { "epoch": 0.443, "grad_norm": 1.1024823188781738, "learning_rate": 3.098148148148148e-05, "loss": 0.2648, "step": 1329 }, { "epoch": 0.44333333333333336, "grad_norm": 1.304589033126831, "learning_rate": 3.096296296296296e-05, "loss": 0.3681, "step": 1330 }, { "epoch": 0.44366666666666665, "grad_norm": 1.2134301662445068, "learning_rate": 3.094444444444445e-05, "loss": 0.3392, "step": 1331 }, { "epoch": 0.444, "grad_norm": 1.2979830503463745, "learning_rate": 3.0925925925925924e-05, "loss": 0.2956, "step": 1332 }, { "epoch": 0.44433333333333336, "grad_norm": 1.2990505695343018, "learning_rate": 3.0907407407407405e-05, "loss": 0.3502, "step": 1333 }, { "epoch": 0.44466666666666665, "grad_norm": 1.2404588460922241, "learning_rate": 3.088888888888889e-05, "loss": 0.3004, "step": 1334 }, { "epoch": 0.445, "grad_norm": 1.2336517572402954, "learning_rate": 3.0870370370370374e-05, "loss": 0.2999, "step": 1335 }, { "epoch": 0.44533333333333336, "grad_norm": 1.4121935367584229, "learning_rate": 3.0851851851851854e-05, "loss": 0.4143, "step": 1336 }, { "epoch": 0.44566666666666666, "grad_norm": 1.5293573141098022, "learning_rate": 3.0833333333333335e-05, "loss": 0.3462, "step": 1337 }, { "epoch": 0.446, "grad_norm": 1.2020673751831055, "learning_rate": 3.0814814814814816e-05, "loss": 0.2971, "step": 1338 }, { "epoch": 0.44633333333333336, "grad_norm": 1.2633086442947388, "learning_rate": 3.07962962962963e-05, "loss": 0.3081, "step": 1339 }, { "epoch": 0.44666666666666666, "grad_norm": 1.1711537837982178, "learning_rate": 3.077777777777778e-05, "loss": 0.2639, "step": 1340 }, { "epoch": 0.447, "grad_norm": 1.5304292440414429, "learning_rate": 3.075925925925926e-05, "loss": 0.3811, "step": 1341 }, { "epoch": 0.44733333333333336, "grad_norm": 1.1833956241607666, "learning_rate": 3.074074074074074e-05, "loss": 0.2654, "step": 1342 }, { "epoch": 0.44766666666666666, "grad_norm": 1.3380838632583618, "learning_rate": 3.0722222222222227e-05, "loss": 0.337, "step": 1343 }, { "epoch": 0.448, "grad_norm": 1.3382307291030884, "learning_rate": 3.070370370370371e-05, "loss": 0.3167, "step": 1344 }, { "epoch": 0.4483333333333333, "grad_norm": 1.4100250005722046, "learning_rate": 3.068518518518519e-05, "loss": 0.3449, "step": 1345 }, { "epoch": 0.44866666666666666, "grad_norm": 1.2076665163040161, "learning_rate": 3.066666666666667e-05, "loss": 0.2768, "step": 1346 }, { "epoch": 0.449, "grad_norm": 1.7231465578079224, "learning_rate": 3.064814814814815e-05, "loss": 0.4216, "step": 1347 }, { "epoch": 0.4493333333333333, "grad_norm": 1.4446601867675781, "learning_rate": 3.062962962962963e-05, "loss": 0.3612, "step": 1348 }, { "epoch": 0.44966666666666666, "grad_norm": 1.1468433141708374, "learning_rate": 3.061111111111111e-05, "loss": 0.3229, "step": 1349 }, { "epoch": 0.45, "grad_norm": 1.542690396308899, "learning_rate": 3.059259259259259e-05, "loss": 0.3623, "step": 1350 }, { "epoch": 0.4503333333333333, "grad_norm": 1.2674552202224731, "learning_rate": 3.057407407407408e-05, "loss": 0.3036, "step": 1351 }, { "epoch": 0.45066666666666666, "grad_norm": 1.5266135931015015, "learning_rate": 3.055555555555556e-05, "loss": 0.4042, "step": 1352 }, { "epoch": 0.451, "grad_norm": 1.3288761377334595, "learning_rate": 3.0537037037037034e-05, "loss": 0.3654, "step": 1353 }, { "epoch": 0.4513333333333333, "grad_norm": 1.3868383169174194, "learning_rate": 3.0518518518518515e-05, "loss": 0.3316, "step": 1354 }, { "epoch": 0.45166666666666666, "grad_norm": 1.1661577224731445, "learning_rate": 3.05e-05, "loss": 0.3065, "step": 1355 }, { "epoch": 0.452, "grad_norm": 1.3198933601379395, "learning_rate": 3.0481481481481484e-05, "loss": 0.3576, "step": 1356 }, { "epoch": 0.4523333333333333, "grad_norm": 1.2684080600738525, "learning_rate": 3.0462962962962964e-05, "loss": 0.3025, "step": 1357 }, { "epoch": 0.45266666666666666, "grad_norm": 1.1674509048461914, "learning_rate": 3.044444444444445e-05, "loss": 0.2941, "step": 1358 }, { "epoch": 0.453, "grad_norm": 1.3995347023010254, "learning_rate": 3.042592592592593e-05, "loss": 0.3026, "step": 1359 }, { "epoch": 0.4533333333333333, "grad_norm": 1.3764044046401978, "learning_rate": 3.0407407407407407e-05, "loss": 0.3274, "step": 1360 }, { "epoch": 0.45366666666666666, "grad_norm": 1.0908697843551636, "learning_rate": 3.0388888888888887e-05, "loss": 0.2728, "step": 1361 }, { "epoch": 0.454, "grad_norm": 1.2327216863632202, "learning_rate": 3.037037037037037e-05, "loss": 0.2655, "step": 1362 }, { "epoch": 0.4543333333333333, "grad_norm": 2.35569429397583, "learning_rate": 3.0351851851851852e-05, "loss": 0.3685, "step": 1363 }, { "epoch": 0.45466666666666666, "grad_norm": 1.4257335662841797, "learning_rate": 3.0333333333333337e-05, "loss": 0.4052, "step": 1364 }, { "epoch": 0.455, "grad_norm": 1.1034331321716309, "learning_rate": 3.0314814814814817e-05, "loss": 0.2548, "step": 1365 }, { "epoch": 0.4553333333333333, "grad_norm": 1.0498321056365967, "learning_rate": 3.02962962962963e-05, "loss": 0.2707, "step": 1366 }, { "epoch": 0.45566666666666666, "grad_norm": 1.060611367225647, "learning_rate": 3.0277777777777776e-05, "loss": 0.2568, "step": 1367 }, { "epoch": 0.456, "grad_norm": 1.3205080032348633, "learning_rate": 3.025925925925926e-05, "loss": 0.3471, "step": 1368 }, { "epoch": 0.4563333333333333, "grad_norm": 1.2676697969436646, "learning_rate": 3.024074074074074e-05, "loss": 0.2766, "step": 1369 }, { "epoch": 0.45666666666666667, "grad_norm": 1.2587288618087769, "learning_rate": 3.0222222222222225e-05, "loss": 0.3377, "step": 1370 }, { "epoch": 0.457, "grad_norm": 1.4589860439300537, "learning_rate": 3.0203703703703705e-05, "loss": 0.2951, "step": 1371 }, { "epoch": 0.4573333333333333, "grad_norm": 1.1985411643981934, "learning_rate": 3.018518518518519e-05, "loss": 0.2703, "step": 1372 }, { "epoch": 0.45766666666666667, "grad_norm": 1.1373658180236816, "learning_rate": 3.016666666666667e-05, "loss": 0.2473, "step": 1373 }, { "epoch": 0.458, "grad_norm": 1.2547950744628906, "learning_rate": 3.0148148148148148e-05, "loss": 0.2939, "step": 1374 }, { "epoch": 0.4583333333333333, "grad_norm": 1.1848363876342773, "learning_rate": 3.012962962962963e-05, "loss": 0.3029, "step": 1375 }, { "epoch": 0.45866666666666667, "grad_norm": 1.182063102722168, "learning_rate": 3.0111111111111113e-05, "loss": 0.3495, "step": 1376 }, { "epoch": 0.459, "grad_norm": 1.0706794261932373, "learning_rate": 3.0092592592592593e-05, "loss": 0.2785, "step": 1377 }, { "epoch": 0.4593333333333333, "grad_norm": 1.2743030786514282, "learning_rate": 3.0074074074074078e-05, "loss": 0.2893, "step": 1378 }, { "epoch": 0.45966666666666667, "grad_norm": 1.2689483165740967, "learning_rate": 3.005555555555556e-05, "loss": 0.3606, "step": 1379 }, { "epoch": 0.46, "grad_norm": 1.1840660572052002, "learning_rate": 3.0037037037037036e-05, "loss": 0.2764, "step": 1380 }, { "epoch": 0.4603333333333333, "grad_norm": 1.262755274772644, "learning_rate": 3.0018518518518517e-05, "loss": 0.3191, "step": 1381 }, { "epoch": 0.46066666666666667, "grad_norm": 1.342287540435791, "learning_rate": 3e-05, "loss": 0.354, "step": 1382 }, { "epoch": 0.461, "grad_norm": 1.2277249097824097, "learning_rate": 2.998148148148148e-05, "loss": 0.3038, "step": 1383 }, { "epoch": 0.4613333333333333, "grad_norm": 1.2405732870101929, "learning_rate": 2.9962962962962966e-05, "loss": 0.3244, "step": 1384 }, { "epoch": 0.46166666666666667, "grad_norm": 1.2307440042495728, "learning_rate": 2.9944444444444446e-05, "loss": 0.3236, "step": 1385 }, { "epoch": 0.462, "grad_norm": 1.443271279335022, "learning_rate": 2.992592592592593e-05, "loss": 0.3175, "step": 1386 }, { "epoch": 0.4623333333333333, "grad_norm": 1.2614922523498535, "learning_rate": 2.9907407407407405e-05, "loss": 0.3891, "step": 1387 }, { "epoch": 0.46266666666666667, "grad_norm": 1.3766247034072876, "learning_rate": 2.988888888888889e-05, "loss": 0.3911, "step": 1388 }, { "epoch": 0.463, "grad_norm": 1.2880407571792603, "learning_rate": 2.987037037037037e-05, "loss": 0.3681, "step": 1389 }, { "epoch": 0.4633333333333333, "grad_norm": 1.2187671661376953, "learning_rate": 2.9851851851851854e-05, "loss": 0.3476, "step": 1390 }, { "epoch": 0.46366666666666667, "grad_norm": 1.2400803565979004, "learning_rate": 2.9833333333333335e-05, "loss": 0.2945, "step": 1391 }, { "epoch": 0.464, "grad_norm": 1.3185800313949585, "learning_rate": 2.981481481481482e-05, "loss": 0.2691, "step": 1392 }, { "epoch": 0.4643333333333333, "grad_norm": 1.309971809387207, "learning_rate": 2.97962962962963e-05, "loss": 0.3146, "step": 1393 }, { "epoch": 0.4646666666666667, "grad_norm": 1.179674506187439, "learning_rate": 2.9777777777777777e-05, "loss": 0.2472, "step": 1394 }, { "epoch": 0.465, "grad_norm": 1.2416373491287231, "learning_rate": 2.9759259259259258e-05, "loss": 0.3113, "step": 1395 }, { "epoch": 0.4653333333333333, "grad_norm": 1.4975022077560425, "learning_rate": 2.9740740740740742e-05, "loss": 0.438, "step": 1396 }, { "epoch": 0.4656666666666667, "grad_norm": 1.3346996307373047, "learning_rate": 2.9722222222222223e-05, "loss": 0.3393, "step": 1397 }, { "epoch": 0.466, "grad_norm": 1.131181001663208, "learning_rate": 2.9703703703703707e-05, "loss": 0.2818, "step": 1398 }, { "epoch": 0.4663333333333333, "grad_norm": 1.473502516746521, "learning_rate": 2.9685185185185188e-05, "loss": 0.3504, "step": 1399 }, { "epoch": 0.4666666666666667, "grad_norm": 1.4740447998046875, "learning_rate": 2.9666666666666672e-05, "loss": 0.3279, "step": 1400 }, { "epoch": 0.467, "grad_norm": 1.3544232845306396, "learning_rate": 2.9648148148148146e-05, "loss": 0.3499, "step": 1401 }, { "epoch": 0.4673333333333333, "grad_norm": 1.3495687246322632, "learning_rate": 2.962962962962963e-05, "loss": 0.3455, "step": 1402 }, { "epoch": 0.4676666666666667, "grad_norm": 1.2778713703155518, "learning_rate": 2.961111111111111e-05, "loss": 0.3053, "step": 1403 }, { "epoch": 0.468, "grad_norm": 1.242203712463379, "learning_rate": 2.9592592592592595e-05, "loss": 0.3181, "step": 1404 }, { "epoch": 0.4683333333333333, "grad_norm": 1.225061297416687, "learning_rate": 2.9574074074074076e-05, "loss": 0.3322, "step": 1405 }, { "epoch": 0.4686666666666667, "grad_norm": 1.209337592124939, "learning_rate": 2.955555555555556e-05, "loss": 0.3377, "step": 1406 }, { "epoch": 0.469, "grad_norm": 1.3530369997024536, "learning_rate": 2.953703703703704e-05, "loss": 0.3905, "step": 1407 }, { "epoch": 0.4693333333333333, "grad_norm": 1.11212158203125, "learning_rate": 2.9518518518518518e-05, "loss": 0.2859, "step": 1408 }, { "epoch": 0.4696666666666667, "grad_norm": 1.2247726917266846, "learning_rate": 2.95e-05, "loss": 0.3013, "step": 1409 }, { "epoch": 0.47, "grad_norm": 1.6114306449890137, "learning_rate": 2.9481481481481483e-05, "loss": 0.3581, "step": 1410 }, { "epoch": 0.4703333333333333, "grad_norm": 1.224010705947876, "learning_rate": 2.9462962962962964e-05, "loss": 0.2936, "step": 1411 }, { "epoch": 0.4706666666666667, "grad_norm": 1.4975155591964722, "learning_rate": 2.9444444444444448e-05, "loss": 0.3186, "step": 1412 }, { "epoch": 0.471, "grad_norm": 1.2867941856384277, "learning_rate": 2.942592592592593e-05, "loss": 0.2708, "step": 1413 }, { "epoch": 0.4713333333333333, "grad_norm": 1.246773600578308, "learning_rate": 2.9407407407407413e-05, "loss": 0.3267, "step": 1414 }, { "epoch": 0.4716666666666667, "grad_norm": 1.335707187652588, "learning_rate": 2.9388888888888887e-05, "loss": 0.3342, "step": 1415 }, { "epoch": 0.472, "grad_norm": 1.1888049840927124, "learning_rate": 2.937037037037037e-05, "loss": 0.3087, "step": 1416 }, { "epoch": 0.4723333333333333, "grad_norm": 1.17875075340271, "learning_rate": 2.9351851851851852e-05, "loss": 0.2697, "step": 1417 }, { "epoch": 0.4726666666666667, "grad_norm": 1.1846857070922852, "learning_rate": 2.9333333333333336e-05, "loss": 0.3313, "step": 1418 }, { "epoch": 0.473, "grad_norm": 1.2203112840652466, "learning_rate": 2.9314814814814817e-05, "loss": 0.3013, "step": 1419 }, { "epoch": 0.47333333333333333, "grad_norm": 1.433706283569336, "learning_rate": 2.92962962962963e-05, "loss": 0.3654, "step": 1420 }, { "epoch": 0.4736666666666667, "grad_norm": 1.1950478553771973, "learning_rate": 2.927777777777778e-05, "loss": 0.3213, "step": 1421 }, { "epoch": 0.474, "grad_norm": 1.1696751117706299, "learning_rate": 2.925925925925926e-05, "loss": 0.3319, "step": 1422 }, { "epoch": 0.47433333333333333, "grad_norm": 1.300218939781189, "learning_rate": 2.924074074074074e-05, "loss": 0.393, "step": 1423 }, { "epoch": 0.4746666666666667, "grad_norm": 1.312639594078064, "learning_rate": 2.9222222222222224e-05, "loss": 0.3362, "step": 1424 }, { "epoch": 0.475, "grad_norm": 1.1032116413116455, "learning_rate": 2.9203703703703705e-05, "loss": 0.3317, "step": 1425 }, { "epoch": 0.47533333333333333, "grad_norm": 1.0733202695846558, "learning_rate": 2.918518518518519e-05, "loss": 0.2963, "step": 1426 }, { "epoch": 0.4756666666666667, "grad_norm": 1.2385832071304321, "learning_rate": 2.916666666666667e-05, "loss": 0.3134, "step": 1427 }, { "epoch": 0.476, "grad_norm": 1.0835086107254028, "learning_rate": 2.914814814814815e-05, "loss": 0.2682, "step": 1428 }, { "epoch": 0.47633333333333333, "grad_norm": 1.4627580642700195, "learning_rate": 2.9129629629629628e-05, "loss": 0.4014, "step": 1429 }, { "epoch": 0.4766666666666667, "grad_norm": 1.6688096523284912, "learning_rate": 2.9111111111111112e-05, "loss": 0.3514, "step": 1430 }, { "epoch": 0.477, "grad_norm": 1.2189342975616455, "learning_rate": 2.9092592592592593e-05, "loss": 0.3113, "step": 1431 }, { "epoch": 0.47733333333333333, "grad_norm": 2.774292469024658, "learning_rate": 2.9074074074074077e-05, "loss": 0.3339, "step": 1432 }, { "epoch": 0.4776666666666667, "grad_norm": 1.4413480758666992, "learning_rate": 2.9055555555555558e-05, "loss": 0.3266, "step": 1433 }, { "epoch": 0.478, "grad_norm": 1.1136285066604614, "learning_rate": 2.9037037037037042e-05, "loss": 0.3188, "step": 1434 }, { "epoch": 0.47833333333333333, "grad_norm": 1.4369518756866455, "learning_rate": 2.9018518518518523e-05, "loss": 0.3174, "step": 1435 }, { "epoch": 0.4786666666666667, "grad_norm": 1.121774435043335, "learning_rate": 2.9e-05, "loss": 0.2683, "step": 1436 }, { "epoch": 0.479, "grad_norm": 1.476367712020874, "learning_rate": 2.898148148148148e-05, "loss": 0.3649, "step": 1437 }, { "epoch": 0.47933333333333333, "grad_norm": 3.723578691482544, "learning_rate": 2.8962962962962965e-05, "loss": 0.2983, "step": 1438 }, { "epoch": 0.4796666666666667, "grad_norm": 1.183883547782898, "learning_rate": 2.8944444444444446e-05, "loss": 0.2876, "step": 1439 }, { "epoch": 0.48, "grad_norm": 1.4269229173660278, "learning_rate": 2.892592592592593e-05, "loss": 0.3635, "step": 1440 }, { "epoch": 0.48033333333333333, "grad_norm": 1.3004590272903442, "learning_rate": 2.890740740740741e-05, "loss": 0.3151, "step": 1441 }, { "epoch": 0.4806666666666667, "grad_norm": 1.383721947669983, "learning_rate": 2.8888888888888888e-05, "loss": 0.3826, "step": 1442 }, { "epoch": 0.481, "grad_norm": 1.2294740676879883, "learning_rate": 2.887037037037037e-05, "loss": 0.3172, "step": 1443 }, { "epoch": 0.48133333333333334, "grad_norm": 1.5366986989974976, "learning_rate": 2.8851851851851853e-05, "loss": 0.4267, "step": 1444 }, { "epoch": 0.4816666666666667, "grad_norm": 1.90938138961792, "learning_rate": 2.8833333333333334e-05, "loss": 0.3637, "step": 1445 }, { "epoch": 0.482, "grad_norm": 1.1772290468215942, "learning_rate": 2.8814814814814818e-05, "loss": 0.3076, "step": 1446 }, { "epoch": 0.48233333333333334, "grad_norm": 1.1554288864135742, "learning_rate": 2.87962962962963e-05, "loss": 0.2402, "step": 1447 }, { "epoch": 0.4826666666666667, "grad_norm": 1.2633064985275269, "learning_rate": 2.877777777777778e-05, "loss": 0.3329, "step": 1448 }, { "epoch": 0.483, "grad_norm": 1.2321231365203857, "learning_rate": 2.8759259259259257e-05, "loss": 0.3074, "step": 1449 }, { "epoch": 0.48333333333333334, "grad_norm": 1.156182050704956, "learning_rate": 2.874074074074074e-05, "loss": 0.2835, "step": 1450 }, { "epoch": 0.4836666666666667, "grad_norm": 1.3381316661834717, "learning_rate": 2.8722222222222222e-05, "loss": 0.3476, "step": 1451 }, { "epoch": 0.484, "grad_norm": 1.2112376689910889, "learning_rate": 2.8703703703703706e-05, "loss": 0.2773, "step": 1452 }, { "epoch": 0.48433333333333334, "grad_norm": 1.2340188026428223, "learning_rate": 2.8685185185185187e-05, "loss": 0.289, "step": 1453 }, { "epoch": 0.4846666666666667, "grad_norm": 1.2579541206359863, "learning_rate": 2.8666666666666668e-05, "loss": 0.313, "step": 1454 }, { "epoch": 0.485, "grad_norm": 1.241226077079773, "learning_rate": 2.8648148148148152e-05, "loss": 0.2794, "step": 1455 }, { "epoch": 0.48533333333333334, "grad_norm": 1.2922860383987427, "learning_rate": 2.862962962962963e-05, "loss": 0.3087, "step": 1456 }, { "epoch": 0.4856666666666667, "grad_norm": 1.7174919843673706, "learning_rate": 2.861111111111111e-05, "loss": 0.283, "step": 1457 }, { "epoch": 0.486, "grad_norm": 1.0002614259719849, "learning_rate": 2.8592592592592594e-05, "loss": 0.2754, "step": 1458 }, { "epoch": 0.48633333333333334, "grad_norm": 1.2910239696502686, "learning_rate": 2.8574074074074075e-05, "loss": 0.2671, "step": 1459 }, { "epoch": 0.4866666666666667, "grad_norm": 2.047118663787842, "learning_rate": 2.855555555555556e-05, "loss": 0.3482, "step": 1460 }, { "epoch": 0.487, "grad_norm": 1.1803579330444336, "learning_rate": 2.853703703703704e-05, "loss": 0.2532, "step": 1461 }, { "epoch": 0.48733333333333334, "grad_norm": 1.1615252494812012, "learning_rate": 2.851851851851852e-05, "loss": 0.3177, "step": 1462 }, { "epoch": 0.4876666666666667, "grad_norm": 1.30791437625885, "learning_rate": 2.8499999999999998e-05, "loss": 0.31, "step": 1463 }, { "epoch": 0.488, "grad_norm": 1.5526585578918457, "learning_rate": 2.8481481481481482e-05, "loss": 0.3354, "step": 1464 }, { "epoch": 0.48833333333333334, "grad_norm": 1.108884572982788, "learning_rate": 2.8462962962962963e-05, "loss": 0.2675, "step": 1465 }, { "epoch": 0.4886666666666667, "grad_norm": 1.4003392457962036, "learning_rate": 2.8444444444444447e-05, "loss": 0.3844, "step": 1466 }, { "epoch": 0.489, "grad_norm": 1.3697230815887451, "learning_rate": 2.8425925925925928e-05, "loss": 0.3385, "step": 1467 }, { "epoch": 0.48933333333333334, "grad_norm": 1.411913514137268, "learning_rate": 2.840740740740741e-05, "loss": 0.4013, "step": 1468 }, { "epoch": 0.48966666666666664, "grad_norm": 1.2229613065719604, "learning_rate": 2.8388888888888893e-05, "loss": 0.2815, "step": 1469 }, { "epoch": 0.49, "grad_norm": 1.2119219303131104, "learning_rate": 2.837037037037037e-05, "loss": 0.2537, "step": 1470 }, { "epoch": 0.49033333333333334, "grad_norm": 2.0135629177093506, "learning_rate": 2.835185185185185e-05, "loss": 0.3491, "step": 1471 }, { "epoch": 0.49066666666666664, "grad_norm": 1.0925936698913574, "learning_rate": 2.8333333333333335e-05, "loss": 0.2537, "step": 1472 }, { "epoch": 0.491, "grad_norm": 1.1854288578033447, "learning_rate": 2.8314814814814816e-05, "loss": 0.3186, "step": 1473 }, { "epoch": 0.49133333333333334, "grad_norm": 1.5400022268295288, "learning_rate": 2.8296296296296297e-05, "loss": 0.3173, "step": 1474 }, { "epoch": 0.49166666666666664, "grad_norm": 1.5304557085037231, "learning_rate": 2.827777777777778e-05, "loss": 0.3168, "step": 1475 }, { "epoch": 0.492, "grad_norm": 4.108854293823242, "learning_rate": 2.8259259259259262e-05, "loss": 0.3148, "step": 1476 }, { "epoch": 0.49233333333333335, "grad_norm": 1.3374249935150146, "learning_rate": 2.824074074074074e-05, "loss": 0.3366, "step": 1477 }, { "epoch": 0.49266666666666664, "grad_norm": 1.2893925905227661, "learning_rate": 2.8222222222222223e-05, "loss": 0.2685, "step": 1478 }, { "epoch": 0.493, "grad_norm": 1.2790155410766602, "learning_rate": 2.8203703703703704e-05, "loss": 0.3289, "step": 1479 }, { "epoch": 0.49333333333333335, "grad_norm": 2.0232150554656982, "learning_rate": 2.8185185185185185e-05, "loss": 0.2403, "step": 1480 }, { "epoch": 0.49366666666666664, "grad_norm": 1.3600914478302002, "learning_rate": 2.816666666666667e-05, "loss": 0.3932, "step": 1481 }, { "epoch": 0.494, "grad_norm": 1.1035760641098022, "learning_rate": 2.814814814814815e-05, "loss": 0.254, "step": 1482 }, { "epoch": 0.49433333333333335, "grad_norm": 2.872220277786255, "learning_rate": 2.8129629629629634e-05, "loss": 0.2667, "step": 1483 }, { "epoch": 0.49466666666666664, "grad_norm": 1.2034220695495605, "learning_rate": 2.811111111111111e-05, "loss": 0.2772, "step": 1484 }, { "epoch": 0.495, "grad_norm": 1.424274206161499, "learning_rate": 2.8092592592592592e-05, "loss": 0.3602, "step": 1485 }, { "epoch": 0.49533333333333335, "grad_norm": 1.2699123620986938, "learning_rate": 2.8074074074074076e-05, "loss": 0.3362, "step": 1486 }, { "epoch": 0.49566666666666664, "grad_norm": 1.281512975692749, "learning_rate": 2.8055555555555557e-05, "loss": 0.2962, "step": 1487 }, { "epoch": 0.496, "grad_norm": 2.509653329849243, "learning_rate": 2.8037037037037038e-05, "loss": 0.3732, "step": 1488 }, { "epoch": 0.49633333333333335, "grad_norm": 1.2363303899765015, "learning_rate": 2.8018518518518522e-05, "loss": 0.378, "step": 1489 }, { "epoch": 0.49666666666666665, "grad_norm": 1.356900691986084, "learning_rate": 2.8000000000000003e-05, "loss": 0.2891, "step": 1490 }, { "epoch": 0.497, "grad_norm": 1.3257609605789185, "learning_rate": 2.798148148148148e-05, "loss": 0.3558, "step": 1491 }, { "epoch": 0.49733333333333335, "grad_norm": 1.2962430715560913, "learning_rate": 2.7962962962962965e-05, "loss": 0.3697, "step": 1492 }, { "epoch": 0.49766666666666665, "grad_norm": 2.9671995639801025, "learning_rate": 2.7944444444444445e-05, "loss": 0.3084, "step": 1493 }, { "epoch": 0.498, "grad_norm": 1.1034150123596191, "learning_rate": 2.7925925925925926e-05, "loss": 0.292, "step": 1494 }, { "epoch": 0.49833333333333335, "grad_norm": 1.245284914970398, "learning_rate": 2.790740740740741e-05, "loss": 0.3399, "step": 1495 }, { "epoch": 0.49866666666666665, "grad_norm": 1.2290374040603638, "learning_rate": 2.788888888888889e-05, "loss": 0.2493, "step": 1496 }, { "epoch": 0.499, "grad_norm": 1.293812870979309, "learning_rate": 2.7870370370370375e-05, "loss": 0.317, "step": 1497 }, { "epoch": 0.49933333333333335, "grad_norm": 1.1965440511703491, "learning_rate": 2.7851851851851853e-05, "loss": 0.277, "step": 1498 }, { "epoch": 0.49966666666666665, "grad_norm": 1.456701397895813, "learning_rate": 2.7833333333333333e-05, "loss": 0.438, "step": 1499 }, { "epoch": 0.5, "grad_norm": 1.1733109951019287, "learning_rate": 2.7814814814814814e-05, "loss": 0.2996, "step": 1500 }, { "epoch": 0.5003333333333333, "grad_norm": 1.795959711074829, "learning_rate": 2.77962962962963e-05, "loss": 0.3614, "step": 1501 }, { "epoch": 0.5006666666666667, "grad_norm": 1.362471580505371, "learning_rate": 2.777777777777778e-05, "loss": 0.3061, "step": 1502 }, { "epoch": 0.501, "grad_norm": 1.1669842004776, "learning_rate": 2.7759259259259263e-05, "loss": 0.274, "step": 1503 }, { "epoch": 0.5013333333333333, "grad_norm": 1.132703423500061, "learning_rate": 2.774074074074074e-05, "loss": 0.2997, "step": 1504 }, { "epoch": 0.5016666666666667, "grad_norm": 1.29422926902771, "learning_rate": 2.772222222222222e-05, "loss": 0.3392, "step": 1505 }, { "epoch": 0.502, "grad_norm": 1.6348662376403809, "learning_rate": 2.7703703703703706e-05, "loss": 0.3127, "step": 1506 }, { "epoch": 0.5023333333333333, "grad_norm": 1.1919279098510742, "learning_rate": 2.7685185185185186e-05, "loss": 0.2783, "step": 1507 }, { "epoch": 0.5026666666666667, "grad_norm": 1.2770395278930664, "learning_rate": 2.7666666666666667e-05, "loss": 0.3331, "step": 1508 }, { "epoch": 0.503, "grad_norm": 1.3768861293792725, "learning_rate": 2.764814814814815e-05, "loss": 0.362, "step": 1509 }, { "epoch": 0.5033333333333333, "grad_norm": 1.5034273862838745, "learning_rate": 2.7629629629629632e-05, "loss": 0.3681, "step": 1510 }, { "epoch": 0.5036666666666667, "grad_norm": 1.255939245223999, "learning_rate": 2.761111111111111e-05, "loss": 0.2633, "step": 1511 }, { "epoch": 0.504, "grad_norm": 1.1085550785064697, "learning_rate": 2.7592592592592594e-05, "loss": 0.2981, "step": 1512 }, { "epoch": 0.5043333333333333, "grad_norm": 0.9547274112701416, "learning_rate": 2.7574074074074074e-05, "loss": 0.2532, "step": 1513 }, { "epoch": 0.5046666666666667, "grad_norm": 1.4143283367156982, "learning_rate": 2.7555555555555555e-05, "loss": 0.3831, "step": 1514 }, { "epoch": 0.505, "grad_norm": 1.1483356952667236, "learning_rate": 2.753703703703704e-05, "loss": 0.356, "step": 1515 }, { "epoch": 0.5053333333333333, "grad_norm": 1.388203740119934, "learning_rate": 2.751851851851852e-05, "loss": 0.3593, "step": 1516 }, { "epoch": 0.5056666666666667, "grad_norm": 1.219643235206604, "learning_rate": 2.7500000000000004e-05, "loss": 0.2778, "step": 1517 }, { "epoch": 0.506, "grad_norm": 1.013286828994751, "learning_rate": 2.7481481481481482e-05, "loss": 0.2374, "step": 1518 }, { "epoch": 0.5063333333333333, "grad_norm": 1.0495433807373047, "learning_rate": 2.7462962962962963e-05, "loss": 0.2699, "step": 1519 }, { "epoch": 0.5066666666666667, "grad_norm": 1.4823830127716064, "learning_rate": 2.7444444444444443e-05, "loss": 0.3477, "step": 1520 }, { "epoch": 0.507, "grad_norm": 1.4831222295761108, "learning_rate": 2.7425925925925927e-05, "loss": 0.3885, "step": 1521 }, { "epoch": 0.5073333333333333, "grad_norm": 1.5215445756912231, "learning_rate": 2.7407407407407408e-05, "loss": 0.3954, "step": 1522 }, { "epoch": 0.5076666666666667, "grad_norm": 1.320823311805725, "learning_rate": 2.7388888888888892e-05, "loss": 0.3391, "step": 1523 }, { "epoch": 0.508, "grad_norm": 1.2690623998641968, "learning_rate": 2.7370370370370373e-05, "loss": 0.3058, "step": 1524 }, { "epoch": 0.5083333333333333, "grad_norm": 1.3773949146270752, "learning_rate": 2.735185185185185e-05, "loss": 0.3742, "step": 1525 }, { "epoch": 0.5086666666666667, "grad_norm": 1.2697372436523438, "learning_rate": 2.733333333333333e-05, "loss": 0.2814, "step": 1526 }, { "epoch": 0.509, "grad_norm": 1.3424737453460693, "learning_rate": 2.7314814814814816e-05, "loss": 0.3555, "step": 1527 }, { "epoch": 0.5093333333333333, "grad_norm": 2.459449291229248, "learning_rate": 2.7296296296296296e-05, "loss": 0.3297, "step": 1528 }, { "epoch": 0.5096666666666667, "grad_norm": 1.2995909452438354, "learning_rate": 2.727777777777778e-05, "loss": 0.3042, "step": 1529 }, { "epoch": 0.51, "grad_norm": 4.984405040740967, "learning_rate": 2.725925925925926e-05, "loss": 0.2865, "step": 1530 }, { "epoch": 0.5103333333333333, "grad_norm": 1.1686369180679321, "learning_rate": 2.7240740740740745e-05, "loss": 0.2803, "step": 1531 }, { "epoch": 0.5106666666666667, "grad_norm": 1.1103466749191284, "learning_rate": 2.7222222222222223e-05, "loss": 0.2739, "step": 1532 }, { "epoch": 0.511, "grad_norm": 1.3452515602111816, "learning_rate": 2.7203703703703704e-05, "loss": 0.3102, "step": 1533 }, { "epoch": 0.5113333333333333, "grad_norm": 1.1646496057510376, "learning_rate": 2.7185185185185184e-05, "loss": 0.3114, "step": 1534 }, { "epoch": 0.5116666666666667, "grad_norm": 1.2342944145202637, "learning_rate": 2.716666666666667e-05, "loss": 0.3331, "step": 1535 }, { "epoch": 0.512, "grad_norm": 1.2620246410369873, "learning_rate": 2.714814814814815e-05, "loss": 0.2919, "step": 1536 }, { "epoch": 0.5123333333333333, "grad_norm": 1.1050314903259277, "learning_rate": 2.7129629629629634e-05, "loss": 0.3076, "step": 1537 }, { "epoch": 0.5126666666666667, "grad_norm": 1.31367027759552, "learning_rate": 2.7111111111111114e-05, "loss": 0.32, "step": 1538 }, { "epoch": 0.513, "grad_norm": 1.3861865997314453, "learning_rate": 2.7092592592592592e-05, "loss": 0.3502, "step": 1539 }, { "epoch": 0.5133333333333333, "grad_norm": 1.3049886226654053, "learning_rate": 2.7074074074074072e-05, "loss": 0.3694, "step": 1540 }, { "epoch": 0.5136666666666667, "grad_norm": 1.3115769624710083, "learning_rate": 2.7055555555555557e-05, "loss": 0.329, "step": 1541 }, { "epoch": 0.514, "grad_norm": 1.2977041006088257, "learning_rate": 2.7037037037037037e-05, "loss": 0.3339, "step": 1542 }, { "epoch": 0.5143333333333333, "grad_norm": 1.3517369031906128, "learning_rate": 2.701851851851852e-05, "loss": 0.3119, "step": 1543 }, { "epoch": 0.5146666666666667, "grad_norm": 1.0044556856155396, "learning_rate": 2.7000000000000002e-05, "loss": 0.2226, "step": 1544 }, { "epoch": 0.515, "grad_norm": 1.1695088148117065, "learning_rate": 2.6981481481481487e-05, "loss": 0.2791, "step": 1545 }, { "epoch": 0.5153333333333333, "grad_norm": 1.1711336374282837, "learning_rate": 2.696296296296296e-05, "loss": 0.2537, "step": 1546 }, { "epoch": 0.5156666666666667, "grad_norm": 1.1778956651687622, "learning_rate": 2.6944444444444445e-05, "loss": 0.2617, "step": 1547 }, { "epoch": 0.516, "grad_norm": 1.229142189025879, "learning_rate": 2.6925925925925925e-05, "loss": 0.3043, "step": 1548 }, { "epoch": 0.5163333333333333, "grad_norm": 6.447018146514893, "learning_rate": 2.690740740740741e-05, "loss": 0.3321, "step": 1549 }, { "epoch": 0.5166666666666667, "grad_norm": 1.188348412513733, "learning_rate": 2.688888888888889e-05, "loss": 0.2974, "step": 1550 }, { "epoch": 0.517, "grad_norm": 1.1774636507034302, "learning_rate": 2.6870370370370375e-05, "loss": 0.269, "step": 1551 }, { "epoch": 0.5173333333333333, "grad_norm": 1.2182412147521973, "learning_rate": 2.6851851851851855e-05, "loss": 0.2713, "step": 1552 }, { "epoch": 0.5176666666666667, "grad_norm": 1.2212414741516113, "learning_rate": 2.6833333333333333e-05, "loss": 0.3139, "step": 1553 }, { "epoch": 0.518, "grad_norm": 1.2275668382644653, "learning_rate": 2.6814814814814814e-05, "loss": 0.3416, "step": 1554 }, { "epoch": 0.5183333333333333, "grad_norm": 1.2838383913040161, "learning_rate": 2.6796296296296298e-05, "loss": 0.3962, "step": 1555 }, { "epoch": 0.5186666666666667, "grad_norm": 1.2085764408111572, "learning_rate": 2.677777777777778e-05, "loss": 0.2911, "step": 1556 }, { "epoch": 0.519, "grad_norm": 1.1722321510314941, "learning_rate": 2.6759259259259263e-05, "loss": 0.2794, "step": 1557 }, { "epoch": 0.5193333333333333, "grad_norm": 1.6736053228378296, "learning_rate": 2.6740740740740743e-05, "loss": 0.4637, "step": 1558 }, { "epoch": 0.5196666666666667, "grad_norm": 1.3191688060760498, "learning_rate": 2.6722222222222228e-05, "loss": 0.264, "step": 1559 }, { "epoch": 0.52, "grad_norm": 1.2203680276870728, "learning_rate": 2.67037037037037e-05, "loss": 0.2937, "step": 1560 }, { "epoch": 0.5203333333333333, "grad_norm": 1.2008111476898193, "learning_rate": 2.6685185185185186e-05, "loss": 0.2635, "step": 1561 }, { "epoch": 0.5206666666666667, "grad_norm": 1.1602681875228882, "learning_rate": 2.6666666666666667e-05, "loss": 0.3138, "step": 1562 }, { "epoch": 0.521, "grad_norm": 1.1101711988449097, "learning_rate": 2.664814814814815e-05, "loss": 0.2678, "step": 1563 }, { "epoch": 0.5213333333333333, "grad_norm": 0.9724413752555847, "learning_rate": 2.662962962962963e-05, "loss": 0.2642, "step": 1564 }, { "epoch": 0.5216666666666666, "grad_norm": 1.194257140159607, "learning_rate": 2.6611111111111116e-05, "loss": 0.2929, "step": 1565 }, { "epoch": 0.522, "grad_norm": 1.0933821201324463, "learning_rate": 2.659259259259259e-05, "loss": 0.263, "step": 1566 }, { "epoch": 0.5223333333333333, "grad_norm": 1.198868989944458, "learning_rate": 2.6574074074074074e-05, "loss": 0.2868, "step": 1567 }, { "epoch": 0.5226666666666666, "grad_norm": 1.2028801441192627, "learning_rate": 2.6555555555555555e-05, "loss": 0.3438, "step": 1568 }, { "epoch": 0.523, "grad_norm": 1.0905169248580933, "learning_rate": 2.653703703703704e-05, "loss": 0.2738, "step": 1569 }, { "epoch": 0.5233333333333333, "grad_norm": 1.446824550628662, "learning_rate": 2.651851851851852e-05, "loss": 0.4008, "step": 1570 }, { "epoch": 0.5236666666666666, "grad_norm": 1.1336214542388916, "learning_rate": 2.6500000000000004e-05, "loss": 0.2859, "step": 1571 }, { "epoch": 0.524, "grad_norm": 1.2836651802062988, "learning_rate": 2.6481481481481485e-05, "loss": 0.3105, "step": 1572 }, { "epoch": 0.5243333333333333, "grad_norm": 1.2498403787612915, "learning_rate": 2.6462962962962962e-05, "loss": 0.274, "step": 1573 }, { "epoch": 0.5246666666666666, "grad_norm": 1.4189499616622925, "learning_rate": 2.6444444444444443e-05, "loss": 0.2612, "step": 1574 }, { "epoch": 0.525, "grad_norm": 1.6289254426956177, "learning_rate": 2.6425925925925927e-05, "loss": 0.272, "step": 1575 }, { "epoch": 0.5253333333333333, "grad_norm": 0.9528519511222839, "learning_rate": 2.6407407407407408e-05, "loss": 0.2107, "step": 1576 }, { "epoch": 0.5256666666666666, "grad_norm": 1.4156134128570557, "learning_rate": 2.6388888888888892e-05, "loss": 0.3525, "step": 1577 }, { "epoch": 0.526, "grad_norm": 1.1498883962631226, "learning_rate": 2.6370370370370373e-05, "loss": 0.2523, "step": 1578 }, { "epoch": 0.5263333333333333, "grad_norm": 1.0480231046676636, "learning_rate": 2.6351851851851857e-05, "loss": 0.2916, "step": 1579 }, { "epoch": 0.5266666666666666, "grad_norm": 1.1528786420822144, "learning_rate": 2.633333333333333e-05, "loss": 0.2733, "step": 1580 }, { "epoch": 0.527, "grad_norm": 1.1869351863861084, "learning_rate": 2.6314814814814815e-05, "loss": 0.2566, "step": 1581 }, { "epoch": 0.5273333333333333, "grad_norm": 1.1295397281646729, "learning_rate": 2.6296296296296296e-05, "loss": 0.2935, "step": 1582 }, { "epoch": 0.5276666666666666, "grad_norm": 1.3174736499786377, "learning_rate": 2.627777777777778e-05, "loss": 0.2993, "step": 1583 }, { "epoch": 0.528, "grad_norm": 1.2269182205200195, "learning_rate": 2.625925925925926e-05, "loss": 0.3256, "step": 1584 }, { "epoch": 0.5283333333333333, "grad_norm": 1.141493797302246, "learning_rate": 2.6240740740740745e-05, "loss": 0.2875, "step": 1585 }, { "epoch": 0.5286666666666666, "grad_norm": 1.2619270086288452, "learning_rate": 2.6222222222222226e-05, "loss": 0.3303, "step": 1586 }, { "epoch": 0.529, "grad_norm": 1.3654987812042236, "learning_rate": 2.6203703703703703e-05, "loss": 0.3765, "step": 1587 }, { "epoch": 0.5293333333333333, "grad_norm": 1.2210416793823242, "learning_rate": 2.6185185185185184e-05, "loss": 0.3223, "step": 1588 }, { "epoch": 0.5296666666666666, "grad_norm": 2.0776712894439697, "learning_rate": 2.6166666666666668e-05, "loss": 0.3938, "step": 1589 }, { "epoch": 0.53, "grad_norm": 1.270135760307312, "learning_rate": 2.614814814814815e-05, "loss": 0.37, "step": 1590 }, { "epoch": 0.5303333333333333, "grad_norm": 1.3975799083709717, "learning_rate": 2.6129629629629633e-05, "loss": 0.3623, "step": 1591 }, { "epoch": 0.5306666666666666, "grad_norm": 2.404874801635742, "learning_rate": 2.6111111111111114e-05, "loss": 0.3664, "step": 1592 }, { "epoch": 0.531, "grad_norm": 1.3307793140411377, "learning_rate": 2.6092592592592598e-05, "loss": 0.3875, "step": 1593 }, { "epoch": 0.5313333333333333, "grad_norm": 1.1280320882797241, "learning_rate": 2.6074074074074072e-05, "loss": 0.2968, "step": 1594 }, { "epoch": 0.5316666666666666, "grad_norm": 1.227504849433899, "learning_rate": 2.6055555555555556e-05, "loss": 0.3592, "step": 1595 }, { "epoch": 0.532, "grad_norm": 1.2810957431793213, "learning_rate": 2.6037037037037037e-05, "loss": 0.3057, "step": 1596 }, { "epoch": 0.5323333333333333, "grad_norm": 1.3251159191131592, "learning_rate": 2.601851851851852e-05, "loss": 0.379, "step": 1597 }, { "epoch": 0.5326666666666666, "grad_norm": 1.1702214479446411, "learning_rate": 2.6000000000000002e-05, "loss": 0.309, "step": 1598 }, { "epoch": 0.533, "grad_norm": 1.2882493734359741, "learning_rate": 2.5981481481481486e-05, "loss": 0.3367, "step": 1599 }, { "epoch": 0.5333333333333333, "grad_norm": 1.1131504774093628, "learning_rate": 2.5962962962962967e-05, "loss": 0.2526, "step": 1600 }, { "epoch": 0.5336666666666666, "grad_norm": 2.30546236038208, "learning_rate": 2.5944444444444444e-05, "loss": 0.3137, "step": 1601 }, { "epoch": 0.534, "grad_norm": 1.3010516166687012, "learning_rate": 2.5925925925925925e-05, "loss": 0.2772, "step": 1602 }, { "epoch": 0.5343333333333333, "grad_norm": 1.2690236568450928, "learning_rate": 2.590740740740741e-05, "loss": 0.3352, "step": 1603 }, { "epoch": 0.5346666666666666, "grad_norm": 2.1412811279296875, "learning_rate": 2.588888888888889e-05, "loss": 0.3358, "step": 1604 }, { "epoch": 0.535, "grad_norm": 1.3549082279205322, "learning_rate": 2.5870370370370374e-05, "loss": 0.3133, "step": 1605 }, { "epoch": 0.5353333333333333, "grad_norm": 1.1291340589523315, "learning_rate": 2.5851851851851855e-05, "loss": 0.3163, "step": 1606 }, { "epoch": 0.5356666666666666, "grad_norm": 1.151941180229187, "learning_rate": 2.5833333333333336e-05, "loss": 0.2888, "step": 1607 }, { "epoch": 0.536, "grad_norm": 1.0711581707000732, "learning_rate": 2.5814814814814813e-05, "loss": 0.258, "step": 1608 }, { "epoch": 0.5363333333333333, "grad_norm": 1.137495994567871, "learning_rate": 2.5796296296296297e-05, "loss": 0.2733, "step": 1609 }, { "epoch": 0.5366666666666666, "grad_norm": 1.2141145467758179, "learning_rate": 2.5777777777777778e-05, "loss": 0.2617, "step": 1610 }, { "epoch": 0.537, "grad_norm": 1.159049153327942, "learning_rate": 2.5759259259259262e-05, "loss": 0.282, "step": 1611 }, { "epoch": 0.5373333333333333, "grad_norm": 1.2445913553237915, "learning_rate": 2.5740740740740743e-05, "loss": 0.3053, "step": 1612 }, { "epoch": 0.5376666666666666, "grad_norm": 1.138244390487671, "learning_rate": 2.5722222222222224e-05, "loss": 0.2826, "step": 1613 }, { "epoch": 0.538, "grad_norm": 1.1292667388916016, "learning_rate": 2.5703703703703708e-05, "loss": 0.2485, "step": 1614 }, { "epoch": 0.5383333333333333, "grad_norm": 1.29878830909729, "learning_rate": 2.5685185185185185e-05, "loss": 0.3121, "step": 1615 }, { "epoch": 0.5386666666666666, "grad_norm": 1.2880653142929077, "learning_rate": 2.5666666666666666e-05, "loss": 0.3358, "step": 1616 }, { "epoch": 0.539, "grad_norm": 1.230959177017212, "learning_rate": 2.564814814814815e-05, "loss": 0.3031, "step": 1617 }, { "epoch": 0.5393333333333333, "grad_norm": 1.4221138954162598, "learning_rate": 2.562962962962963e-05, "loss": 0.3362, "step": 1618 }, { "epoch": 0.5396666666666666, "grad_norm": 1.3428351879119873, "learning_rate": 2.5611111111111115e-05, "loss": 0.3575, "step": 1619 }, { "epoch": 0.54, "grad_norm": 1.2297545671463013, "learning_rate": 2.5592592592592596e-05, "loss": 0.314, "step": 1620 }, { "epoch": 0.5403333333333333, "grad_norm": 2.001146078109741, "learning_rate": 2.5574074074074077e-05, "loss": 0.3477, "step": 1621 }, { "epoch": 0.5406666666666666, "grad_norm": 1.2080425024032593, "learning_rate": 2.5555555555555554e-05, "loss": 0.3497, "step": 1622 }, { "epoch": 0.541, "grad_norm": 1.3569546937942505, "learning_rate": 2.5537037037037038e-05, "loss": 0.3306, "step": 1623 }, { "epoch": 0.5413333333333333, "grad_norm": 1.1848833560943604, "learning_rate": 2.551851851851852e-05, "loss": 0.311, "step": 1624 }, { "epoch": 0.5416666666666666, "grad_norm": 1.3221973180770874, "learning_rate": 2.5500000000000003e-05, "loss": 0.3476, "step": 1625 }, { "epoch": 0.542, "grad_norm": 1.2601120471954346, "learning_rate": 2.5481481481481484e-05, "loss": 0.2966, "step": 1626 }, { "epoch": 0.5423333333333333, "grad_norm": 1.4615579843521118, "learning_rate": 2.5462962962962965e-05, "loss": 0.3089, "step": 1627 }, { "epoch": 0.5426666666666666, "grad_norm": 1.2451344728469849, "learning_rate": 2.5444444444444442e-05, "loss": 0.3176, "step": 1628 }, { "epoch": 0.543, "grad_norm": 1.14347243309021, "learning_rate": 2.5425925925925926e-05, "loss": 0.3087, "step": 1629 }, { "epoch": 0.5433333333333333, "grad_norm": 1.4387857913970947, "learning_rate": 2.5407407407407407e-05, "loss": 0.3286, "step": 1630 }, { "epoch": 0.5436666666666666, "grad_norm": 1.3314769268035889, "learning_rate": 2.538888888888889e-05, "loss": 0.3177, "step": 1631 }, { "epoch": 0.544, "grad_norm": 1.348276138305664, "learning_rate": 2.5370370370370372e-05, "loss": 0.3763, "step": 1632 }, { "epoch": 0.5443333333333333, "grad_norm": 1.228848934173584, "learning_rate": 2.5351851851851853e-05, "loss": 0.2978, "step": 1633 }, { "epoch": 0.5446666666666666, "grad_norm": 1.13449227809906, "learning_rate": 2.5333333333333337e-05, "loss": 0.2838, "step": 1634 }, { "epoch": 0.545, "grad_norm": 1.43413245677948, "learning_rate": 2.5314814814814814e-05, "loss": 0.3185, "step": 1635 }, { "epoch": 0.5453333333333333, "grad_norm": 1.55903959274292, "learning_rate": 2.5296296296296295e-05, "loss": 0.2708, "step": 1636 }, { "epoch": 0.5456666666666666, "grad_norm": 1.307433843612671, "learning_rate": 2.527777777777778e-05, "loss": 0.2561, "step": 1637 }, { "epoch": 0.546, "grad_norm": 1.4203810691833496, "learning_rate": 2.525925925925926e-05, "loss": 0.3707, "step": 1638 }, { "epoch": 0.5463333333333333, "grad_norm": 1.1473782062530518, "learning_rate": 2.524074074074074e-05, "loss": 0.3148, "step": 1639 }, { "epoch": 0.5466666666666666, "grad_norm": 1.371105432510376, "learning_rate": 2.5222222222222225e-05, "loss": 0.373, "step": 1640 }, { "epoch": 0.547, "grad_norm": 1.258097529411316, "learning_rate": 2.5203703703703706e-05, "loss": 0.3034, "step": 1641 }, { "epoch": 0.5473333333333333, "grad_norm": 1.3621323108673096, "learning_rate": 2.5185185185185183e-05, "loss": 0.3531, "step": 1642 }, { "epoch": 0.5476666666666666, "grad_norm": 1.4661622047424316, "learning_rate": 2.5166666666666667e-05, "loss": 0.3186, "step": 1643 }, { "epoch": 0.548, "grad_norm": 1.2495981454849243, "learning_rate": 2.5148148148148148e-05, "loss": 0.3264, "step": 1644 }, { "epoch": 0.5483333333333333, "grad_norm": 1.3196824789047241, "learning_rate": 2.5129629629629632e-05, "loss": 0.3283, "step": 1645 }, { "epoch": 0.5486666666666666, "grad_norm": 1.5936256647109985, "learning_rate": 2.5111111111111113e-05, "loss": 0.4363, "step": 1646 }, { "epoch": 0.549, "grad_norm": 1.232159972190857, "learning_rate": 2.5092592592592594e-05, "loss": 0.3052, "step": 1647 }, { "epoch": 0.5493333333333333, "grad_norm": 1.361991047859192, "learning_rate": 2.5074074074074078e-05, "loss": 0.2837, "step": 1648 }, { "epoch": 0.5496666666666666, "grad_norm": 1.4128187894821167, "learning_rate": 2.5055555555555555e-05, "loss": 0.3641, "step": 1649 }, { "epoch": 0.55, "grad_norm": 1.0768829584121704, "learning_rate": 2.5037037037037036e-05, "loss": 0.2826, "step": 1650 }, { "epoch": 0.5503333333333333, "grad_norm": 1.1104084253311157, "learning_rate": 2.501851851851852e-05, "loss": 0.2694, "step": 1651 }, { "epoch": 0.5506666666666666, "grad_norm": 1.2818753719329834, "learning_rate": 2.5e-05, "loss": 0.2937, "step": 1652 }, { "epoch": 0.551, "grad_norm": 1.1923905611038208, "learning_rate": 2.4981481481481482e-05, "loss": 0.2936, "step": 1653 }, { "epoch": 0.5513333333333333, "grad_norm": 1.0978777408599854, "learning_rate": 2.4962962962962963e-05, "loss": 0.2496, "step": 1654 }, { "epoch": 0.5516666666666666, "grad_norm": 1.176694393157959, "learning_rate": 2.4944444444444447e-05, "loss": 0.3142, "step": 1655 }, { "epoch": 0.552, "grad_norm": 1.253347396850586, "learning_rate": 2.4925925925925928e-05, "loss": 0.2781, "step": 1656 }, { "epoch": 0.5523333333333333, "grad_norm": 1.1762571334838867, "learning_rate": 2.490740740740741e-05, "loss": 0.2597, "step": 1657 }, { "epoch": 0.5526666666666666, "grad_norm": 1.2914427518844604, "learning_rate": 2.488888888888889e-05, "loss": 0.3417, "step": 1658 }, { "epoch": 0.553, "grad_norm": 1.0712039470672607, "learning_rate": 2.487037037037037e-05, "loss": 0.2934, "step": 1659 }, { "epoch": 0.5533333333333333, "grad_norm": 1.3131605386734009, "learning_rate": 2.4851851851851854e-05, "loss": 0.3025, "step": 1660 }, { "epoch": 0.5536666666666666, "grad_norm": 1.6354283094406128, "learning_rate": 2.4833333333333335e-05, "loss": 0.3115, "step": 1661 }, { "epoch": 0.554, "grad_norm": 1.2606550455093384, "learning_rate": 2.4814814814814816e-05, "loss": 0.3152, "step": 1662 }, { "epoch": 0.5543333333333333, "grad_norm": 1.266679286956787, "learning_rate": 2.4796296296296297e-05, "loss": 0.2908, "step": 1663 }, { "epoch": 0.5546666666666666, "grad_norm": 1.1013392210006714, "learning_rate": 2.477777777777778e-05, "loss": 0.3086, "step": 1664 }, { "epoch": 0.555, "grad_norm": 1.3577028512954712, "learning_rate": 2.475925925925926e-05, "loss": 0.3153, "step": 1665 }, { "epoch": 0.5553333333333333, "grad_norm": 3.720935821533203, "learning_rate": 2.4740740740740742e-05, "loss": 0.2915, "step": 1666 }, { "epoch": 0.5556666666666666, "grad_norm": 1.1450388431549072, "learning_rate": 2.4722222222222223e-05, "loss": 0.2682, "step": 1667 }, { "epoch": 0.556, "grad_norm": 1.3974690437316895, "learning_rate": 2.4703703703703704e-05, "loss": 0.3524, "step": 1668 }, { "epoch": 0.5563333333333333, "grad_norm": 1.2576948404312134, "learning_rate": 2.4685185185185185e-05, "loss": 0.3046, "step": 1669 }, { "epoch": 0.5566666666666666, "grad_norm": 1.2527835369110107, "learning_rate": 2.466666666666667e-05, "loss": 0.3136, "step": 1670 }, { "epoch": 0.557, "grad_norm": 1.6397353410720825, "learning_rate": 2.464814814814815e-05, "loss": 0.3889, "step": 1671 }, { "epoch": 0.5573333333333333, "grad_norm": 1.2080880403518677, "learning_rate": 2.462962962962963e-05, "loss": 0.3324, "step": 1672 }, { "epoch": 0.5576666666666666, "grad_norm": 1.867279291152954, "learning_rate": 2.461111111111111e-05, "loss": 0.3658, "step": 1673 }, { "epoch": 0.558, "grad_norm": 1.0999441146850586, "learning_rate": 2.4592592592592595e-05, "loss": 0.2995, "step": 1674 }, { "epoch": 0.5583333333333333, "grad_norm": 1.361112117767334, "learning_rate": 2.4574074074074073e-05, "loss": 0.314, "step": 1675 }, { "epoch": 0.5586666666666666, "grad_norm": 1.1732336282730103, "learning_rate": 2.4555555555555557e-05, "loss": 0.3079, "step": 1676 }, { "epoch": 0.559, "grad_norm": 1.4144160747528076, "learning_rate": 2.4537037037037038e-05, "loss": 0.2999, "step": 1677 }, { "epoch": 0.5593333333333333, "grad_norm": 1.1764041185379028, "learning_rate": 2.451851851851852e-05, "loss": 0.2949, "step": 1678 }, { "epoch": 0.5596666666666666, "grad_norm": 1.2319204807281494, "learning_rate": 2.45e-05, "loss": 0.3034, "step": 1679 }, { "epoch": 0.56, "grad_norm": 1.1083678007125854, "learning_rate": 2.4481481481481483e-05, "loss": 0.3043, "step": 1680 }, { "epoch": 0.5603333333333333, "grad_norm": 1.2945525646209717, "learning_rate": 2.4462962962962964e-05, "loss": 0.275, "step": 1681 }, { "epoch": 0.5606666666666666, "grad_norm": 1.2114111185073853, "learning_rate": 2.4444444444444445e-05, "loss": 0.3307, "step": 1682 }, { "epoch": 0.561, "grad_norm": 1.3150774240493774, "learning_rate": 2.4425925925925926e-05, "loss": 0.2775, "step": 1683 }, { "epoch": 0.5613333333333334, "grad_norm": 1.3594368696212769, "learning_rate": 2.440740740740741e-05, "loss": 0.287, "step": 1684 }, { "epoch": 0.5616666666666666, "grad_norm": 1.320681095123291, "learning_rate": 2.4388888888888887e-05, "loss": 0.3279, "step": 1685 }, { "epoch": 0.562, "grad_norm": 1.2790018320083618, "learning_rate": 2.437037037037037e-05, "loss": 0.365, "step": 1686 }, { "epoch": 0.5623333333333334, "grad_norm": 1.4072740077972412, "learning_rate": 2.4351851851851852e-05, "loss": 0.338, "step": 1687 }, { "epoch": 0.5626666666666666, "grad_norm": 1.1290217638015747, "learning_rate": 2.4333333333333336e-05, "loss": 0.2796, "step": 1688 }, { "epoch": 0.563, "grad_norm": 1.194667935371399, "learning_rate": 2.4314814814814814e-05, "loss": 0.2819, "step": 1689 }, { "epoch": 0.5633333333333334, "grad_norm": 1.4942392110824585, "learning_rate": 2.4296296296296298e-05, "loss": 0.3906, "step": 1690 }, { "epoch": 0.5636666666666666, "grad_norm": 1.4964629411697388, "learning_rate": 2.427777777777778e-05, "loss": 0.3607, "step": 1691 }, { "epoch": 0.564, "grad_norm": 1.27310049533844, "learning_rate": 2.425925925925926e-05, "loss": 0.3224, "step": 1692 }, { "epoch": 0.5643333333333334, "grad_norm": 1.1442943811416626, "learning_rate": 2.424074074074074e-05, "loss": 0.2473, "step": 1693 }, { "epoch": 0.5646666666666667, "grad_norm": 1.3435713052749634, "learning_rate": 2.4222222222222224e-05, "loss": 0.3041, "step": 1694 }, { "epoch": 0.565, "grad_norm": 1.2853244543075562, "learning_rate": 2.4203703703703705e-05, "loss": 0.3062, "step": 1695 }, { "epoch": 0.5653333333333334, "grad_norm": 1.434497356414795, "learning_rate": 2.4185185185185186e-05, "loss": 0.2535, "step": 1696 }, { "epoch": 0.5656666666666667, "grad_norm": 1.242931842803955, "learning_rate": 2.4166666666666667e-05, "loss": 0.2751, "step": 1697 }, { "epoch": 0.566, "grad_norm": 1.6634811162948608, "learning_rate": 2.414814814814815e-05, "loss": 0.3619, "step": 1698 }, { "epoch": 0.5663333333333334, "grad_norm": 1.243573784828186, "learning_rate": 2.412962962962963e-05, "loss": 0.3375, "step": 1699 }, { "epoch": 0.5666666666666667, "grad_norm": 1.1053024530410767, "learning_rate": 2.4111111111111113e-05, "loss": 0.2712, "step": 1700 }, { "epoch": 0.567, "grad_norm": 1.2527536153793335, "learning_rate": 2.4092592592592593e-05, "loss": 0.4191, "step": 1701 }, { "epoch": 0.5673333333333334, "grad_norm": 1.2239128351211548, "learning_rate": 2.4074074074074074e-05, "loss": 0.323, "step": 1702 }, { "epoch": 0.5676666666666667, "grad_norm": 1.236100196838379, "learning_rate": 2.4055555555555555e-05, "loss": 0.3378, "step": 1703 }, { "epoch": 0.568, "grad_norm": 2.0577549934387207, "learning_rate": 2.403703703703704e-05, "loss": 0.3558, "step": 1704 }, { "epoch": 0.5683333333333334, "grad_norm": 1.2635501623153687, "learning_rate": 2.401851851851852e-05, "loss": 0.3578, "step": 1705 }, { "epoch": 0.5686666666666667, "grad_norm": 0.9147543907165527, "learning_rate": 2.4e-05, "loss": 0.2595, "step": 1706 }, { "epoch": 0.569, "grad_norm": 1.259108304977417, "learning_rate": 2.398148148148148e-05, "loss": 0.2943, "step": 1707 }, { "epoch": 0.5693333333333334, "grad_norm": 1.2028822898864746, "learning_rate": 2.3962962962962966e-05, "loss": 0.2593, "step": 1708 }, { "epoch": 0.5696666666666667, "grad_norm": 1.1309709548950195, "learning_rate": 2.3944444444444443e-05, "loss": 0.2994, "step": 1709 }, { "epoch": 0.57, "grad_norm": 1.1392065286636353, "learning_rate": 2.3925925925925927e-05, "loss": 0.2562, "step": 1710 }, { "epoch": 0.5703333333333334, "grad_norm": 1.9279837608337402, "learning_rate": 2.3907407407407408e-05, "loss": 0.309, "step": 1711 }, { "epoch": 0.5706666666666667, "grad_norm": 1.0560246706008911, "learning_rate": 2.3888888888888892e-05, "loss": 0.303, "step": 1712 }, { "epoch": 0.571, "grad_norm": 1.158282995223999, "learning_rate": 2.387037037037037e-05, "loss": 0.3685, "step": 1713 }, { "epoch": 0.5713333333333334, "grad_norm": 4.929553508758545, "learning_rate": 2.3851851851851854e-05, "loss": 0.268, "step": 1714 }, { "epoch": 0.5716666666666667, "grad_norm": 0.9856443405151367, "learning_rate": 2.3833333333333334e-05, "loss": 0.241, "step": 1715 }, { "epoch": 0.572, "grad_norm": 1.246117115020752, "learning_rate": 2.3814814814814815e-05, "loss": 0.2697, "step": 1716 }, { "epoch": 0.5723333333333334, "grad_norm": 1.3509972095489502, "learning_rate": 2.3796296296296296e-05, "loss": 0.2836, "step": 1717 }, { "epoch": 0.5726666666666667, "grad_norm": 1.41598379611969, "learning_rate": 2.377777777777778e-05, "loss": 0.3467, "step": 1718 }, { "epoch": 0.573, "grad_norm": 1.320853590965271, "learning_rate": 2.375925925925926e-05, "loss": 0.3759, "step": 1719 }, { "epoch": 0.5733333333333334, "grad_norm": 1.366987705230713, "learning_rate": 2.3740740740740742e-05, "loss": 0.3764, "step": 1720 }, { "epoch": 0.5736666666666667, "grad_norm": 1.2163584232330322, "learning_rate": 2.3722222222222222e-05, "loss": 0.2707, "step": 1721 }, { "epoch": 0.574, "grad_norm": 1.148999810218811, "learning_rate": 2.3703703703703707e-05, "loss": 0.3314, "step": 1722 }, { "epoch": 0.5743333333333334, "grad_norm": 1.2645198106765747, "learning_rate": 2.3685185185185184e-05, "loss": 0.2907, "step": 1723 }, { "epoch": 0.5746666666666667, "grad_norm": 1.1543145179748535, "learning_rate": 2.3666666666666668e-05, "loss": 0.2946, "step": 1724 }, { "epoch": 0.575, "grad_norm": 1.3046921491622925, "learning_rate": 2.364814814814815e-05, "loss": 0.2741, "step": 1725 }, { "epoch": 0.5753333333333334, "grad_norm": 1.3403282165527344, "learning_rate": 2.3629629629629633e-05, "loss": 0.357, "step": 1726 }, { "epoch": 0.5756666666666667, "grad_norm": 1.4381896257400513, "learning_rate": 2.361111111111111e-05, "loss": 0.4255, "step": 1727 }, { "epoch": 0.576, "grad_norm": 1.7682150602340698, "learning_rate": 2.3592592592592595e-05, "loss": 0.3509, "step": 1728 }, { "epoch": 0.5763333333333334, "grad_norm": 1.1885401010513306, "learning_rate": 2.3574074074074075e-05, "loss": 0.3113, "step": 1729 }, { "epoch": 0.5766666666666667, "grad_norm": 1.1749744415283203, "learning_rate": 2.3555555555555556e-05, "loss": 0.2695, "step": 1730 }, { "epoch": 0.577, "grad_norm": 1.2060470581054688, "learning_rate": 2.3537037037037037e-05, "loss": 0.3154, "step": 1731 }, { "epoch": 0.5773333333333334, "grad_norm": 1.233744740486145, "learning_rate": 2.351851851851852e-05, "loss": 0.2425, "step": 1732 }, { "epoch": 0.5776666666666667, "grad_norm": 1.3116306066513062, "learning_rate": 2.35e-05, "loss": 0.294, "step": 1733 }, { "epoch": 0.578, "grad_norm": 1.5063791275024414, "learning_rate": 2.3481481481481483e-05, "loss": 0.2686, "step": 1734 }, { "epoch": 0.5783333333333334, "grad_norm": 1.1149698495864868, "learning_rate": 2.3462962962962964e-05, "loss": 0.2915, "step": 1735 }, { "epoch": 0.5786666666666667, "grad_norm": 1.1930100917816162, "learning_rate": 2.3444444444444448e-05, "loss": 0.2908, "step": 1736 }, { "epoch": 0.579, "grad_norm": 1.1021292209625244, "learning_rate": 2.3425925925925925e-05, "loss": 0.2705, "step": 1737 }, { "epoch": 0.5793333333333334, "grad_norm": 1.1707621812820435, "learning_rate": 2.340740740740741e-05, "loss": 0.2581, "step": 1738 }, { "epoch": 0.5796666666666667, "grad_norm": 1.2104846239089966, "learning_rate": 2.338888888888889e-05, "loss": 0.2582, "step": 1739 }, { "epoch": 0.58, "grad_norm": 1.0939769744873047, "learning_rate": 2.337037037037037e-05, "loss": 0.2403, "step": 1740 }, { "epoch": 0.5803333333333334, "grad_norm": 1.2635754346847534, "learning_rate": 2.335185185185185e-05, "loss": 0.3101, "step": 1741 }, { "epoch": 0.5806666666666667, "grad_norm": 1.0988693237304688, "learning_rate": 2.3333333333333336e-05, "loss": 0.2417, "step": 1742 }, { "epoch": 0.581, "grad_norm": 2.1617372035980225, "learning_rate": 2.3314814814814817e-05, "loss": 0.3107, "step": 1743 }, { "epoch": 0.5813333333333334, "grad_norm": 1.2130281925201416, "learning_rate": 2.3296296296296297e-05, "loss": 0.3055, "step": 1744 }, { "epoch": 0.5816666666666667, "grad_norm": 1.2461963891983032, "learning_rate": 2.3277777777777778e-05, "loss": 0.2751, "step": 1745 }, { "epoch": 0.582, "grad_norm": 1.354074239730835, "learning_rate": 2.3259259259259262e-05, "loss": 0.3646, "step": 1746 }, { "epoch": 0.5823333333333334, "grad_norm": 1.4111844301223755, "learning_rate": 2.324074074074074e-05, "loss": 0.3452, "step": 1747 }, { "epoch": 0.5826666666666667, "grad_norm": 1.3657983541488647, "learning_rate": 2.3222222222222224e-05, "loss": 0.3517, "step": 1748 }, { "epoch": 0.583, "grad_norm": 1.3942766189575195, "learning_rate": 2.3203703703703705e-05, "loss": 0.3561, "step": 1749 }, { "epoch": 0.5833333333333334, "grad_norm": 1.3335144519805908, "learning_rate": 2.318518518518519e-05, "loss": 0.346, "step": 1750 }, { "epoch": 0.5836666666666667, "grad_norm": 1.1133785247802734, "learning_rate": 2.3166666666666666e-05, "loss": 0.2237, "step": 1751 }, { "epoch": 0.584, "grad_norm": 1.339524745941162, "learning_rate": 2.314814814814815e-05, "loss": 0.3209, "step": 1752 }, { "epoch": 0.5843333333333334, "grad_norm": 1.1992334127426147, "learning_rate": 2.312962962962963e-05, "loss": 0.3388, "step": 1753 }, { "epoch": 0.5846666666666667, "grad_norm": 1.46676766872406, "learning_rate": 2.3111111111111112e-05, "loss": 0.418, "step": 1754 }, { "epoch": 0.585, "grad_norm": 1.7818154096603394, "learning_rate": 2.3092592592592593e-05, "loss": 0.3606, "step": 1755 }, { "epoch": 0.5853333333333334, "grad_norm": 1.469072699546814, "learning_rate": 2.3074074074074077e-05, "loss": 0.341, "step": 1756 }, { "epoch": 0.5856666666666667, "grad_norm": 1.0899888277053833, "learning_rate": 2.3055555555555558e-05, "loss": 0.288, "step": 1757 }, { "epoch": 0.586, "grad_norm": 1.2757806777954102, "learning_rate": 2.303703703703704e-05, "loss": 0.2776, "step": 1758 }, { "epoch": 0.5863333333333334, "grad_norm": 1.1895567178726196, "learning_rate": 2.301851851851852e-05, "loss": 0.2897, "step": 1759 }, { "epoch": 0.5866666666666667, "grad_norm": 1.0780622959136963, "learning_rate": 2.3000000000000003e-05, "loss": 0.2622, "step": 1760 }, { "epoch": 0.587, "grad_norm": 1.380104899406433, "learning_rate": 2.298148148148148e-05, "loss": 0.2832, "step": 1761 }, { "epoch": 0.5873333333333334, "grad_norm": 1.1301422119140625, "learning_rate": 2.2962962962962965e-05, "loss": 0.2817, "step": 1762 }, { "epoch": 0.5876666666666667, "grad_norm": 1.2102361917495728, "learning_rate": 2.2944444444444446e-05, "loss": 0.3315, "step": 1763 }, { "epoch": 0.588, "grad_norm": 1.179661750793457, "learning_rate": 2.2925925925925927e-05, "loss": 0.2688, "step": 1764 }, { "epoch": 0.5883333333333334, "grad_norm": 1.4603049755096436, "learning_rate": 2.2907407407407407e-05, "loss": 0.3317, "step": 1765 }, { "epoch": 0.5886666666666667, "grad_norm": 1.249125361442566, "learning_rate": 2.288888888888889e-05, "loss": 0.3515, "step": 1766 }, { "epoch": 0.589, "grad_norm": 1.1526137590408325, "learning_rate": 2.2870370370370372e-05, "loss": 0.2941, "step": 1767 }, { "epoch": 0.5893333333333334, "grad_norm": 1.2609868049621582, "learning_rate": 2.2851851851851853e-05, "loss": 0.2806, "step": 1768 }, { "epoch": 0.5896666666666667, "grad_norm": 1.1438018083572388, "learning_rate": 2.2833333333333334e-05, "loss": 0.2586, "step": 1769 }, { "epoch": 0.59, "grad_norm": 1.0569912195205688, "learning_rate": 2.2814814814814818e-05, "loss": 0.303, "step": 1770 }, { "epoch": 0.5903333333333334, "grad_norm": 1.2642929553985596, "learning_rate": 2.2796296296296295e-05, "loss": 0.3194, "step": 1771 }, { "epoch": 0.5906666666666667, "grad_norm": 1.117351770401001, "learning_rate": 2.277777777777778e-05, "loss": 0.2767, "step": 1772 }, { "epoch": 0.591, "grad_norm": 1.3347728252410889, "learning_rate": 2.275925925925926e-05, "loss": 0.3336, "step": 1773 }, { "epoch": 0.5913333333333334, "grad_norm": 1.2015211582183838, "learning_rate": 2.2740740740740744e-05, "loss": 0.2853, "step": 1774 }, { "epoch": 0.5916666666666667, "grad_norm": 1.1698435544967651, "learning_rate": 2.2722222222222222e-05, "loss": 0.254, "step": 1775 }, { "epoch": 0.592, "grad_norm": 1.5131430625915527, "learning_rate": 2.2703703703703706e-05, "loss": 0.3284, "step": 1776 }, { "epoch": 0.5923333333333334, "grad_norm": 1.0668686628341675, "learning_rate": 2.2685185185185187e-05, "loss": 0.2732, "step": 1777 }, { "epoch": 0.5926666666666667, "grad_norm": 1.4489037990570068, "learning_rate": 2.2666666666666668e-05, "loss": 0.3418, "step": 1778 }, { "epoch": 0.593, "grad_norm": 1.16927969455719, "learning_rate": 2.264814814814815e-05, "loss": 0.2993, "step": 1779 }, { "epoch": 0.5933333333333334, "grad_norm": 1.4882746934890747, "learning_rate": 2.2629629629629633e-05, "loss": 0.3318, "step": 1780 }, { "epoch": 0.5936666666666667, "grad_norm": 2.0864250659942627, "learning_rate": 2.2611111111111113e-05, "loss": 0.2687, "step": 1781 }, { "epoch": 0.594, "grad_norm": 1.1608772277832031, "learning_rate": 2.2592592592592594e-05, "loss": 0.2539, "step": 1782 }, { "epoch": 0.5943333333333334, "grad_norm": 2.111567735671997, "learning_rate": 2.2574074074074075e-05, "loss": 0.3273, "step": 1783 }, { "epoch": 0.5946666666666667, "grad_norm": 1.1452022790908813, "learning_rate": 2.255555555555556e-05, "loss": 0.2919, "step": 1784 }, { "epoch": 0.595, "grad_norm": 1.146765112876892, "learning_rate": 2.2537037037037036e-05, "loss": 0.2536, "step": 1785 }, { "epoch": 0.5953333333333334, "grad_norm": 1.423264741897583, "learning_rate": 2.251851851851852e-05, "loss": 0.2842, "step": 1786 }, { "epoch": 0.5956666666666667, "grad_norm": 1.177667260169983, "learning_rate": 2.25e-05, "loss": 0.3172, "step": 1787 }, { "epoch": 0.596, "grad_norm": 1.1249909400939941, "learning_rate": 2.2481481481481486e-05, "loss": 0.2375, "step": 1788 }, { "epoch": 0.5963333333333334, "grad_norm": 1.266745924949646, "learning_rate": 2.2462962962962963e-05, "loss": 0.3012, "step": 1789 }, { "epoch": 0.5966666666666667, "grad_norm": 1.0687531232833862, "learning_rate": 2.2444444444444447e-05, "loss": 0.2673, "step": 1790 }, { "epoch": 0.597, "grad_norm": 1.1585710048675537, "learning_rate": 2.2425925925925928e-05, "loss": 0.277, "step": 1791 }, { "epoch": 0.5973333333333334, "grad_norm": 1.4982292652130127, "learning_rate": 2.240740740740741e-05, "loss": 0.2999, "step": 1792 }, { "epoch": 0.5976666666666667, "grad_norm": 1.179132342338562, "learning_rate": 2.238888888888889e-05, "loss": 0.3068, "step": 1793 }, { "epoch": 0.598, "grad_norm": 1.2970823049545288, "learning_rate": 2.2370370370370374e-05, "loss": 0.3658, "step": 1794 }, { "epoch": 0.5983333333333334, "grad_norm": 1.445186734199524, "learning_rate": 2.235185185185185e-05, "loss": 0.4234, "step": 1795 }, { "epoch": 0.5986666666666667, "grad_norm": 1.1528774499893188, "learning_rate": 2.2333333333333335e-05, "loss": 0.307, "step": 1796 }, { "epoch": 0.599, "grad_norm": 1.1850299835205078, "learning_rate": 2.2314814814814816e-05, "loss": 0.3367, "step": 1797 }, { "epoch": 0.5993333333333334, "grad_norm": 1.418897271156311, "learning_rate": 2.2296296296296297e-05, "loss": 0.339, "step": 1798 }, { "epoch": 0.5996666666666667, "grad_norm": 1.3328450918197632, "learning_rate": 2.2277777777777778e-05, "loss": 0.3573, "step": 1799 }, { "epoch": 0.6, "grad_norm": 1.2324028015136719, "learning_rate": 2.2259259259259262e-05, "loss": 0.342, "step": 1800 }, { "epoch": 0.6003333333333334, "grad_norm": 1.1721744537353516, "learning_rate": 2.2240740740740743e-05, "loss": 0.2828, "step": 1801 }, { "epoch": 0.6006666666666667, "grad_norm": 1.0245660543441772, "learning_rate": 2.2222222222222223e-05, "loss": 0.2683, "step": 1802 }, { "epoch": 0.601, "grad_norm": 1.7061488628387451, "learning_rate": 2.2203703703703704e-05, "loss": 0.3393, "step": 1803 }, { "epoch": 0.6013333333333334, "grad_norm": 1.2286412715911865, "learning_rate": 2.2185185185185188e-05, "loss": 0.3205, "step": 1804 }, { "epoch": 0.6016666666666667, "grad_norm": 1.2103099822998047, "learning_rate": 2.216666666666667e-05, "loss": 0.3026, "step": 1805 }, { "epoch": 0.602, "grad_norm": 1.8570104837417603, "learning_rate": 2.214814814814815e-05, "loss": 0.2579, "step": 1806 }, { "epoch": 0.6023333333333334, "grad_norm": 1.2374097108840942, "learning_rate": 2.212962962962963e-05, "loss": 0.309, "step": 1807 }, { "epoch": 0.6026666666666667, "grad_norm": 1.0504631996154785, "learning_rate": 2.211111111111111e-05, "loss": 0.2346, "step": 1808 }, { "epoch": 0.603, "grad_norm": 1.204936146736145, "learning_rate": 2.2092592592592592e-05, "loss": 0.2783, "step": 1809 }, { "epoch": 0.6033333333333334, "grad_norm": 1.432580590248108, "learning_rate": 2.2074074074074076e-05, "loss": 0.3652, "step": 1810 }, { "epoch": 0.6036666666666667, "grad_norm": 1.1430526971817017, "learning_rate": 2.2055555555555557e-05, "loss": 0.25, "step": 1811 }, { "epoch": 0.604, "grad_norm": 1.3105876445770264, "learning_rate": 2.2037037037037038e-05, "loss": 0.3337, "step": 1812 }, { "epoch": 0.6043333333333333, "grad_norm": 1.254717230796814, "learning_rate": 2.201851851851852e-05, "loss": 0.3366, "step": 1813 }, { "epoch": 0.6046666666666667, "grad_norm": 1.2206424474716187, "learning_rate": 2.2000000000000003e-05, "loss": 0.3126, "step": 1814 }, { "epoch": 0.605, "grad_norm": 1.0285736322402954, "learning_rate": 2.1981481481481484e-05, "loss": 0.2784, "step": 1815 }, { "epoch": 0.6053333333333333, "grad_norm": 1.0412527322769165, "learning_rate": 2.1962962962962964e-05, "loss": 0.2325, "step": 1816 }, { "epoch": 0.6056666666666667, "grad_norm": 1.1226699352264404, "learning_rate": 2.1944444444444445e-05, "loss": 0.3141, "step": 1817 }, { "epoch": 0.606, "grad_norm": 1.463566541671753, "learning_rate": 2.1925925925925926e-05, "loss": 0.3069, "step": 1818 }, { "epoch": 0.6063333333333333, "grad_norm": 1.8040052652359009, "learning_rate": 2.190740740740741e-05, "loss": 0.397, "step": 1819 }, { "epoch": 0.6066666666666667, "grad_norm": 1.21146559715271, "learning_rate": 2.188888888888889e-05, "loss": 0.3052, "step": 1820 }, { "epoch": 0.607, "grad_norm": 1.0456948280334473, "learning_rate": 2.187037037037037e-05, "loss": 0.2744, "step": 1821 }, { "epoch": 0.6073333333333333, "grad_norm": 1.093034029006958, "learning_rate": 2.1851851851851852e-05, "loss": 0.2369, "step": 1822 }, { "epoch": 0.6076666666666667, "grad_norm": 1.2086904048919678, "learning_rate": 2.1833333333333333e-05, "loss": 0.3441, "step": 1823 }, { "epoch": 0.608, "grad_norm": 1.2877882719039917, "learning_rate": 2.1814814814814817e-05, "loss": 0.3242, "step": 1824 }, { "epoch": 0.6083333333333333, "grad_norm": 1.5536692142486572, "learning_rate": 2.1796296296296298e-05, "loss": 0.3599, "step": 1825 }, { "epoch": 0.6086666666666667, "grad_norm": 1.1821976900100708, "learning_rate": 2.177777777777778e-05, "loss": 0.2712, "step": 1826 }, { "epoch": 0.609, "grad_norm": 1.1729826927185059, "learning_rate": 2.175925925925926e-05, "loss": 0.2678, "step": 1827 }, { "epoch": 0.6093333333333333, "grad_norm": 1.4278620481491089, "learning_rate": 2.174074074074074e-05, "loss": 0.2967, "step": 1828 }, { "epoch": 1.0003333333333333, "grad_norm": 1.302182674407959, "learning_rate": 2.1722222222222225e-05, "loss": 0.3493, "step": 1829 }, { "epoch": 1.0006666666666666, "grad_norm": 1.0404973030090332, "learning_rate": 2.1703703703703705e-05, "loss": 0.2678, "step": 1830 }, { "epoch": 1.001, "grad_norm": 1.188072681427002, "learning_rate": 2.1685185185185186e-05, "loss": 0.317, "step": 1831 }, { "epoch": 1.0013333333333334, "grad_norm": 1.1617701053619385, "learning_rate": 2.1666666666666667e-05, "loss": 0.3048, "step": 1832 }, { "epoch": 1.0016666666666667, "grad_norm": 1.038446307182312, "learning_rate": 2.1648148148148148e-05, "loss": 0.2955, "step": 1833 }, { "epoch": 1.002, "grad_norm": 1.1430332660675049, "learning_rate": 2.162962962962963e-05, "loss": 0.3194, "step": 1834 }, { "epoch": 1.0023333333333333, "grad_norm": 1.3381142616271973, "learning_rate": 2.1611111111111113e-05, "loss": 0.3171, "step": 1835 }, { "epoch": 1.0026666666666666, "grad_norm": 1.2083332538604736, "learning_rate": 2.1592592592592594e-05, "loss": 0.2818, "step": 1836 }, { "epoch": 1.003, "grad_norm": 1.5423758029937744, "learning_rate": 2.1574074074074074e-05, "loss": 0.2818, "step": 1837 }, { "epoch": 1.0033333333333334, "grad_norm": 1.0911376476287842, "learning_rate": 2.1555555555555555e-05, "loss": 0.247, "step": 1838 }, { "epoch": 1.0036666666666667, "grad_norm": 1.1435863971710205, "learning_rate": 2.153703703703704e-05, "loss": 0.28, "step": 1839 }, { "epoch": 1.004, "grad_norm": 1.2733820676803589, "learning_rate": 2.151851851851852e-05, "loss": 0.2598, "step": 1840 }, { "epoch": 1.0043333333333333, "grad_norm": 1.2856019735336304, "learning_rate": 2.15e-05, "loss": 0.3128, "step": 1841 }, { "epoch": 1.0046666666666666, "grad_norm": 1.2068068981170654, "learning_rate": 2.148148148148148e-05, "loss": 0.2998, "step": 1842 }, { "epoch": 1.005, "grad_norm": 1.2854981422424316, "learning_rate": 2.1462962962962966e-05, "loss": 0.3229, "step": 1843 }, { "epoch": 1.0053333333333334, "grad_norm": 1.1743899583816528, "learning_rate": 2.1444444444444443e-05, "loss": 0.2807, "step": 1844 }, { "epoch": 1.0056666666666667, "grad_norm": 1.0408605337142944, "learning_rate": 2.1425925925925927e-05, "loss": 0.2658, "step": 1845 }, { "epoch": 1.006, "grad_norm": 1.215695858001709, "learning_rate": 2.1407407407407408e-05, "loss": 0.3182, "step": 1846 }, { "epoch": 1.0063333333333333, "grad_norm": 1.2855089902877808, "learning_rate": 2.138888888888889e-05, "loss": 0.3406, "step": 1847 }, { "epoch": 1.0066666666666666, "grad_norm": 1.4617725610733032, "learning_rate": 2.137037037037037e-05, "loss": 0.3224, "step": 1848 }, { "epoch": 1.007, "grad_norm": 1.0579670667648315, "learning_rate": 2.1351851851851854e-05, "loss": 0.2405, "step": 1849 }, { "epoch": 1.0073333333333334, "grad_norm": 1.2777776718139648, "learning_rate": 2.1333333333333335e-05, "loss": 0.2937, "step": 1850 }, { "epoch": 1.0076666666666667, "grad_norm": 1.2581491470336914, "learning_rate": 2.1314814814814815e-05, "loss": 0.286, "step": 1851 }, { "epoch": 1.008, "grad_norm": 1.3602179288864136, "learning_rate": 2.1296296296296296e-05, "loss": 0.3436, "step": 1852 }, { "epoch": 1.0083333333333333, "grad_norm": 1.1872711181640625, "learning_rate": 2.127777777777778e-05, "loss": 0.2965, "step": 1853 }, { "epoch": 1.0086666666666666, "grad_norm": 1.1838449239730835, "learning_rate": 2.1259259259259258e-05, "loss": 0.2879, "step": 1854 }, { "epoch": 1.009, "grad_norm": 1.1886194944381714, "learning_rate": 2.1240740740740742e-05, "loss": 0.3188, "step": 1855 }, { "epoch": 1.0093333333333334, "grad_norm": 1.436417579650879, "learning_rate": 2.1222222222222223e-05, "loss": 0.3471, "step": 1856 }, { "epoch": 1.0096666666666667, "grad_norm": 1.2092169523239136, "learning_rate": 2.1203703703703703e-05, "loss": 0.2771, "step": 1857 }, { "epoch": 1.01, "grad_norm": 1.2030128240585327, "learning_rate": 2.1185185185185184e-05, "loss": 0.2904, "step": 1858 }, { "epoch": 1.0103333333333333, "grad_norm": 1.0994409322738647, "learning_rate": 2.116666666666667e-05, "loss": 0.2647, "step": 1859 }, { "epoch": 1.0106666666666666, "grad_norm": 1.1159305572509766, "learning_rate": 2.114814814814815e-05, "loss": 0.2734, "step": 1860 }, { "epoch": 1.011, "grad_norm": 1.1156705617904663, "learning_rate": 2.112962962962963e-05, "loss": 0.2972, "step": 1861 }, { "epoch": 1.0113333333333334, "grad_norm": 1.0875974893569946, "learning_rate": 2.111111111111111e-05, "loss": 0.2645, "step": 1862 }, { "epoch": 1.0116666666666667, "grad_norm": 1.2235674858093262, "learning_rate": 2.1092592592592595e-05, "loss": 0.2653, "step": 1863 }, { "epoch": 1.012, "grad_norm": 1.1224637031555176, "learning_rate": 2.1074074074074072e-05, "loss": 0.271, "step": 1864 }, { "epoch": 1.0123333333333333, "grad_norm": 1.5462406873703003, "learning_rate": 2.1055555555555556e-05, "loss": 0.3532, "step": 1865 }, { "epoch": 1.0126666666666666, "grad_norm": 1.1239745616912842, "learning_rate": 2.1037037037037037e-05, "loss": 0.3082, "step": 1866 }, { "epoch": 1.013, "grad_norm": 1.2063111066818237, "learning_rate": 2.101851851851852e-05, "loss": 0.3034, "step": 1867 }, { "epoch": 1.0133333333333334, "grad_norm": 1.1896368265151978, "learning_rate": 2.1e-05, "loss": 0.3125, "step": 1868 }, { "epoch": 1.0136666666666667, "grad_norm": 1.3331562280654907, "learning_rate": 2.0981481481481483e-05, "loss": 0.2501, "step": 1869 }, { "epoch": 1.014, "grad_norm": 1.0731514692306519, "learning_rate": 2.0962962962962964e-05, "loss": 0.2572, "step": 1870 }, { "epoch": 1.0143333333333333, "grad_norm": 1.449259877204895, "learning_rate": 2.0944444444444445e-05, "loss": 0.3416, "step": 1871 }, { "epoch": 1.0146666666666666, "grad_norm": 1.0001310110092163, "learning_rate": 2.0925925925925925e-05, "loss": 0.2351, "step": 1872 }, { "epoch": 1.015, "grad_norm": 1.1621854305267334, "learning_rate": 2.090740740740741e-05, "loss": 0.2842, "step": 1873 }, { "epoch": 1.0153333333333334, "grad_norm": 1.049918293952942, "learning_rate": 2.088888888888889e-05, "loss": 0.2402, "step": 1874 }, { "epoch": 1.0156666666666667, "grad_norm": 1.0949355363845825, "learning_rate": 2.087037037037037e-05, "loss": 0.2622, "step": 1875 }, { "epoch": 1.016, "grad_norm": 1.3457953929901123, "learning_rate": 2.0851851851851852e-05, "loss": 0.3087, "step": 1876 }, { "epoch": 1.0163333333333333, "grad_norm": 2.9082894325256348, "learning_rate": 2.0833333333333336e-05, "loss": 0.2815, "step": 1877 }, { "epoch": 1.0166666666666666, "grad_norm": 1.1484061479568481, "learning_rate": 2.0814814814814813e-05, "loss": 0.2339, "step": 1878 }, { "epoch": 1.017, "grad_norm": 1.2704479694366455, "learning_rate": 2.0796296296296298e-05, "loss": 0.3218, "step": 1879 }, { "epoch": 1.0173333333333334, "grad_norm": 1.68930983543396, "learning_rate": 2.077777777777778e-05, "loss": 0.2715, "step": 1880 }, { "epoch": 1.0176666666666667, "grad_norm": 1.0638198852539062, "learning_rate": 2.0759259259259263e-05, "loss": 0.2722, "step": 1881 }, { "epoch": 1.018, "grad_norm": 1.022449254989624, "learning_rate": 2.074074074074074e-05, "loss": 0.2285, "step": 1882 }, { "epoch": 1.0183333333333333, "grad_norm": 1.0179717540740967, "learning_rate": 2.0722222222222224e-05, "loss": 0.2386, "step": 1883 }, { "epoch": 1.0186666666666666, "grad_norm": 1.111007809638977, "learning_rate": 2.0703703703703705e-05, "loss": 0.2564, "step": 1884 }, { "epoch": 1.019, "grad_norm": 1.1237149238586426, "learning_rate": 2.0685185185185186e-05, "loss": 0.249, "step": 1885 }, { "epoch": 1.0193333333333334, "grad_norm": 1.2450875043869019, "learning_rate": 2.0666666666666666e-05, "loss": 0.2804, "step": 1886 }, { "epoch": 1.0196666666666667, "grad_norm": 1.0422711372375488, "learning_rate": 2.064814814814815e-05, "loss": 0.2268, "step": 1887 }, { "epoch": 1.02, "grad_norm": 1.3335553407669067, "learning_rate": 2.0629629629629628e-05, "loss": 0.2922, "step": 1888 }, { "epoch": 1.0203333333333333, "grad_norm": 1.0887916088104248, "learning_rate": 2.0611111111111112e-05, "loss": 0.2876, "step": 1889 }, { "epoch": 1.0206666666666666, "grad_norm": 1.110905408859253, "learning_rate": 2.0592592592592593e-05, "loss": 0.2656, "step": 1890 }, { "epoch": 1.021, "grad_norm": 1.0913283824920654, "learning_rate": 2.0574074074074077e-05, "loss": 0.2165, "step": 1891 }, { "epoch": 1.0213333333333334, "grad_norm": 1.0819134712219238, "learning_rate": 2.0555555555555555e-05, "loss": 0.2277, "step": 1892 }, { "epoch": 1.0216666666666667, "grad_norm": 1.1721434593200684, "learning_rate": 2.053703703703704e-05, "loss": 0.2218, "step": 1893 }, { "epoch": 1.022, "grad_norm": 1.17229163646698, "learning_rate": 2.051851851851852e-05, "loss": 0.2889, "step": 1894 }, { "epoch": 1.0223333333333333, "grad_norm": 1.3256553411483765, "learning_rate": 2.05e-05, "loss": 0.3611, "step": 1895 }, { "epoch": 1.0226666666666666, "grad_norm": 1.2750449180603027, "learning_rate": 2.048148148148148e-05, "loss": 0.2802, "step": 1896 }, { "epoch": 1.023, "grad_norm": 1.533634901046753, "learning_rate": 2.0462962962962965e-05, "loss": 0.2373, "step": 1897 }, { "epoch": 1.0233333333333334, "grad_norm": 1.12489652633667, "learning_rate": 2.0444444444444446e-05, "loss": 0.2761, "step": 1898 }, { "epoch": 1.0236666666666667, "grad_norm": 1.1781072616577148, "learning_rate": 2.0425925925925927e-05, "loss": 0.2537, "step": 1899 }, { "epoch": 1.024, "grad_norm": 1.1631786823272705, "learning_rate": 2.0407407407407408e-05, "loss": 0.2768, "step": 1900 }, { "epoch": 1.0243333333333333, "grad_norm": 1.0416260957717896, "learning_rate": 2.0388888888888892e-05, "loss": 0.2421, "step": 1901 }, { "epoch": 1.0246666666666666, "grad_norm": 0.9658091068267822, "learning_rate": 2.037037037037037e-05, "loss": 0.194, "step": 1902 }, { "epoch": 1.025, "grad_norm": 1.1174275875091553, "learning_rate": 2.0351851851851853e-05, "loss": 0.2311, "step": 1903 }, { "epoch": 1.0253333333333334, "grad_norm": 1.2713980674743652, "learning_rate": 2.0333333333333334e-05, "loss": 0.2573, "step": 1904 }, { "epoch": 1.0256666666666667, "grad_norm": 1.1400760412216187, "learning_rate": 2.0314814814814818e-05, "loss": 0.3417, "step": 1905 }, { "epoch": 1.026, "grad_norm": 1.2865747213363647, "learning_rate": 2.0296296296296296e-05, "loss": 0.2871, "step": 1906 }, { "epoch": 1.0263333333333333, "grad_norm": 1.345824956893921, "learning_rate": 2.027777777777778e-05, "loss": 0.2769, "step": 1907 }, { "epoch": 1.0266666666666666, "grad_norm": 1.0821865797042847, "learning_rate": 2.025925925925926e-05, "loss": 0.2315, "step": 1908 }, { "epoch": 1.027, "grad_norm": 1.0028663873672485, "learning_rate": 2.024074074074074e-05, "loss": 0.2148, "step": 1909 }, { "epoch": 1.0273333333333334, "grad_norm": 0.9448598027229309, "learning_rate": 2.0222222222222222e-05, "loss": 0.2412, "step": 1910 }, { "epoch": 1.0276666666666667, "grad_norm": 1.2178449630737305, "learning_rate": 2.0203703703703706e-05, "loss": 0.253, "step": 1911 }, { "epoch": 1.028, "grad_norm": 1.2426848411560059, "learning_rate": 2.0185185185185187e-05, "loss": 0.2739, "step": 1912 }, { "epoch": 1.0283333333333333, "grad_norm": 1.1190718412399292, "learning_rate": 2.0166666666666668e-05, "loss": 0.2451, "step": 1913 }, { "epoch": 1.0286666666666666, "grad_norm": 1.1792895793914795, "learning_rate": 2.014814814814815e-05, "loss": 0.2422, "step": 1914 }, { "epoch": 1.029, "grad_norm": 1.32844078540802, "learning_rate": 2.0129629629629633e-05, "loss": 0.2929, "step": 1915 }, { "epoch": 1.0293333333333334, "grad_norm": 1.2905480861663818, "learning_rate": 2.011111111111111e-05, "loss": 0.3552, "step": 1916 }, { "epoch": 1.0296666666666667, "grad_norm": 1.261162519454956, "learning_rate": 2.0092592592592594e-05, "loss": 0.3253, "step": 1917 }, { "epoch": 1.03, "grad_norm": 0.8853784203529358, "learning_rate": 2.0074074074074075e-05, "loss": 0.1804, "step": 1918 }, { "epoch": 1.0303333333333333, "grad_norm": 3.5916221141815186, "learning_rate": 2.0055555555555556e-05, "loss": 0.2918, "step": 1919 }, { "epoch": 1.0306666666666666, "grad_norm": 1.0343499183654785, "learning_rate": 2.0037037037037037e-05, "loss": 0.2341, "step": 1920 }, { "epoch": 1.031, "grad_norm": 0.9512354731559753, "learning_rate": 2.001851851851852e-05, "loss": 0.2513, "step": 1921 }, { "epoch": 1.0313333333333334, "grad_norm": 1.1051499843597412, "learning_rate": 2e-05, "loss": 0.2181, "step": 1922 }, { "epoch": 1.0316666666666667, "grad_norm": 1.271216869354248, "learning_rate": 1.9981481481481482e-05, "loss": 0.262, "step": 1923 }, { "epoch": 1.032, "grad_norm": 1.3168870210647583, "learning_rate": 1.9962962962962963e-05, "loss": 0.3285, "step": 1924 }, { "epoch": 1.0323333333333333, "grad_norm": 1.2547926902770996, "learning_rate": 1.9944444444444447e-05, "loss": 0.2482, "step": 1925 }, { "epoch": 1.0326666666666666, "grad_norm": 1.1486369371414185, "learning_rate": 1.9925925925925925e-05, "loss": 0.2992, "step": 1926 }, { "epoch": 1.033, "grad_norm": 1.1076180934906006, "learning_rate": 1.990740740740741e-05, "loss": 0.3101, "step": 1927 }, { "epoch": 1.0333333333333334, "grad_norm": 1.1300196647644043, "learning_rate": 1.988888888888889e-05, "loss": 0.2334, "step": 1928 }, { "epoch": 1.0336666666666667, "grad_norm": 1.0918118953704834, "learning_rate": 1.9870370370370374e-05, "loss": 0.2483, "step": 1929 }, { "epoch": 1.034, "grad_norm": 1.076111078262329, "learning_rate": 1.985185185185185e-05, "loss": 0.2666, "step": 1930 }, { "epoch": 1.0343333333333333, "grad_norm": 1.1161117553710938, "learning_rate": 1.9833333333333335e-05, "loss": 0.2565, "step": 1931 }, { "epoch": 1.0346666666666666, "grad_norm": 1.0240756273269653, "learning_rate": 1.9814814814814816e-05, "loss": 0.2405, "step": 1932 }, { "epoch": 1.035, "grad_norm": 1.0380420684814453, "learning_rate": 1.9796296296296297e-05, "loss": 0.2087, "step": 1933 }, { "epoch": 1.0353333333333334, "grad_norm": 1.1282161474227905, "learning_rate": 1.9777777777777778e-05, "loss": 0.2352, "step": 1934 }, { "epoch": 1.0356666666666667, "grad_norm": 1.0297683477401733, "learning_rate": 1.9759259259259262e-05, "loss": 0.2254, "step": 1935 }, { "epoch": 1.036, "grad_norm": 1.2745426893234253, "learning_rate": 1.9740740740740743e-05, "loss": 0.2996, "step": 1936 }, { "epoch": 1.0363333333333333, "grad_norm": 1.3266161680221558, "learning_rate": 1.9722222222222224e-05, "loss": 0.2534, "step": 1937 }, { "epoch": 1.0366666666666666, "grad_norm": 1.2449642419815063, "learning_rate": 1.9703703703703704e-05, "loss": 0.284, "step": 1938 }, { "epoch": 1.037, "grad_norm": 1.0897976160049438, "learning_rate": 1.968518518518519e-05, "loss": 0.2256, "step": 1939 }, { "epoch": 1.0373333333333334, "grad_norm": 0.9602470993995667, "learning_rate": 1.9666666666666666e-05, "loss": 0.204, "step": 1940 }, { "epoch": 1.0376666666666667, "grad_norm": 1.1370127201080322, "learning_rate": 1.964814814814815e-05, "loss": 0.2236, "step": 1941 }, { "epoch": 1.038, "grad_norm": 1.0259976387023926, "learning_rate": 1.962962962962963e-05, "loss": 0.2347, "step": 1942 }, { "epoch": 1.0383333333333333, "grad_norm": 0.9954286217689514, "learning_rate": 1.9611111111111115e-05, "loss": 0.2129, "step": 1943 }, { "epoch": 1.0386666666666666, "grad_norm": 1.2702150344848633, "learning_rate": 1.9592592592592592e-05, "loss": 0.2585, "step": 1944 }, { "epoch": 1.039, "grad_norm": 0.9997884631156921, "learning_rate": 1.9574074074074077e-05, "loss": 0.214, "step": 1945 }, { "epoch": 1.0393333333333334, "grad_norm": 1.1218552589416504, "learning_rate": 1.9555555555555557e-05, "loss": 0.2528, "step": 1946 }, { "epoch": 1.0396666666666667, "grad_norm": 1.1385159492492676, "learning_rate": 1.9537037037037038e-05, "loss": 0.2282, "step": 1947 }, { "epoch": 1.04, "grad_norm": 0.9886491298675537, "learning_rate": 1.951851851851852e-05, "loss": 0.2223, "step": 1948 }, { "epoch": 1.0403333333333333, "grad_norm": 1.0702970027923584, "learning_rate": 1.9500000000000003e-05, "loss": 0.2372, "step": 1949 }, { "epoch": 1.0406666666666666, "grad_norm": 1.1078321933746338, "learning_rate": 1.948148148148148e-05, "loss": 0.262, "step": 1950 }, { "epoch": 1.041, "grad_norm": 1.150516390800476, "learning_rate": 1.9462962962962965e-05, "loss": 0.2617, "step": 1951 }, { "epoch": 1.0413333333333332, "grad_norm": 1.1399508714675903, "learning_rate": 1.9444444444444445e-05, "loss": 0.2254, "step": 1952 }, { "epoch": 1.0416666666666667, "grad_norm": 1.2573822736740112, "learning_rate": 1.942592592592593e-05, "loss": 0.2864, "step": 1953 }, { "epoch": 1.042, "grad_norm": 1.4924308061599731, "learning_rate": 1.9407407407407407e-05, "loss": 0.3504, "step": 1954 }, { "epoch": 1.0423333333333333, "grad_norm": 1.2726359367370605, "learning_rate": 1.938888888888889e-05, "loss": 0.2409, "step": 1955 }, { "epoch": 1.0426666666666666, "grad_norm": 0.9332222938537598, "learning_rate": 1.9370370370370372e-05, "loss": 0.1982, "step": 1956 }, { "epoch": 1.043, "grad_norm": 1.0257881879806519, "learning_rate": 1.9351851851851853e-05, "loss": 0.1982, "step": 1957 }, { "epoch": 1.0433333333333334, "grad_norm": 1.0043282508850098, "learning_rate": 1.9333333333333333e-05, "loss": 0.249, "step": 1958 }, { "epoch": 1.0436666666666667, "grad_norm": 1.3399443626403809, "learning_rate": 1.9314814814814818e-05, "loss": 0.3184, "step": 1959 }, { "epoch": 1.044, "grad_norm": 0.9978703856468201, "learning_rate": 1.92962962962963e-05, "loss": 0.2246, "step": 1960 }, { "epoch": 1.0443333333333333, "grad_norm": 1.0570039749145508, "learning_rate": 1.927777777777778e-05, "loss": 0.2274, "step": 1961 }, { "epoch": 1.0446666666666666, "grad_norm": 1.0134309530258179, "learning_rate": 1.925925925925926e-05, "loss": 0.2091, "step": 1962 }, { "epoch": 1.045, "grad_norm": 1.01628577709198, "learning_rate": 1.9240740740740744e-05, "loss": 0.2409, "step": 1963 }, { "epoch": 1.0453333333333332, "grad_norm": 1.112223744392395, "learning_rate": 1.922222222222222e-05, "loss": 0.2177, "step": 1964 }, { "epoch": 1.0456666666666667, "grad_norm": 1.1675570011138916, "learning_rate": 1.9203703703703706e-05, "loss": 0.3389, "step": 1965 }, { "epoch": 1.046, "grad_norm": 1.1205443143844604, "learning_rate": 1.9185185185185186e-05, "loss": 0.2704, "step": 1966 }, { "epoch": 1.0463333333333333, "grad_norm": 0.9299030900001526, "learning_rate": 1.9166666666666667e-05, "loss": 0.1932, "step": 1967 }, { "epoch": 1.0466666666666666, "grad_norm": 1.0636249780654907, "learning_rate": 1.9148148148148148e-05, "loss": 0.2394, "step": 1968 }, { "epoch": 1.047, "grad_norm": 1.3086638450622559, "learning_rate": 1.9129629629629632e-05, "loss": 0.2326, "step": 1969 }, { "epoch": 1.0473333333333332, "grad_norm": 1.2588222026824951, "learning_rate": 1.9111111111111113e-05, "loss": 0.3162, "step": 1970 }, { "epoch": 1.0476666666666667, "grad_norm": 1.0554633140563965, "learning_rate": 1.9092592592592594e-05, "loss": 0.2278, "step": 1971 }, { "epoch": 1.048, "grad_norm": 1.1155823469161987, "learning_rate": 1.9074074074074075e-05, "loss": 0.2523, "step": 1972 }, { "epoch": 1.0483333333333333, "grad_norm": 1.12454092502594, "learning_rate": 1.905555555555556e-05, "loss": 0.2717, "step": 1973 }, { "epoch": 1.0486666666666666, "grad_norm": 1.1014012098312378, "learning_rate": 1.903703703703704e-05, "loss": 0.2381, "step": 1974 }, { "epoch": 1.049, "grad_norm": 1.011580228805542, "learning_rate": 1.901851851851852e-05, "loss": 0.2345, "step": 1975 }, { "epoch": 1.0493333333333332, "grad_norm": 1.1005390882492065, "learning_rate": 1.9e-05, "loss": 0.228, "step": 1976 }, { "epoch": 1.0496666666666667, "grad_norm": 1.171065092086792, "learning_rate": 1.8981481481481482e-05, "loss": 0.2904, "step": 1977 }, { "epoch": 1.05, "grad_norm": 1.1958742141723633, "learning_rate": 1.8962962962962963e-05, "loss": 0.2824, "step": 1978 }, { "epoch": 1.0503333333333333, "grad_norm": 0.9981474280357361, "learning_rate": 1.8944444444444447e-05, "loss": 0.2029, "step": 1979 }, { "epoch": 1.0506666666666666, "grad_norm": 0.9531847238540649, "learning_rate": 1.8925925925925928e-05, "loss": 0.235, "step": 1980 }, { "epoch": 1.051, "grad_norm": 0.9256868362426758, "learning_rate": 1.890740740740741e-05, "loss": 0.1946, "step": 1981 }, { "epoch": 1.0513333333333332, "grad_norm": 1.116603136062622, "learning_rate": 1.888888888888889e-05, "loss": 0.2499, "step": 1982 }, { "epoch": 1.0516666666666667, "grad_norm": 1.1806637048721313, "learning_rate": 1.887037037037037e-05, "loss": 0.2574, "step": 1983 }, { "epoch": 1.052, "grad_norm": 1.2645742893218994, "learning_rate": 1.8851851851851854e-05, "loss": 0.3083, "step": 1984 }, { "epoch": 1.0523333333333333, "grad_norm": 1.1511638164520264, "learning_rate": 1.8833333333333335e-05, "loss": 0.2669, "step": 1985 }, { "epoch": 1.0526666666666666, "grad_norm": 0.9783625602722168, "learning_rate": 1.8814814814814816e-05, "loss": 0.1964, "step": 1986 }, { "epoch": 1.053, "grad_norm": 1.2570024728775024, "learning_rate": 1.8796296296296296e-05, "loss": 0.2745, "step": 1987 }, { "epoch": 1.0533333333333332, "grad_norm": 0.9680691361427307, "learning_rate": 1.8777777777777777e-05, "loss": 0.2164, "step": 1988 }, { "epoch": 1.0536666666666668, "grad_norm": 1.010664939880371, "learning_rate": 1.875925925925926e-05, "loss": 0.1969, "step": 1989 }, { "epoch": 1.054, "grad_norm": 1.0429381132125854, "learning_rate": 1.8740740740740742e-05, "loss": 0.23, "step": 1990 }, { "epoch": 1.0543333333333333, "grad_norm": 0.8828306198120117, "learning_rate": 1.8722222222222223e-05, "loss": 0.1742, "step": 1991 }, { "epoch": 1.0546666666666666, "grad_norm": 1.0634962320327759, "learning_rate": 1.8703703703703704e-05, "loss": 0.2129, "step": 1992 }, { "epoch": 1.055, "grad_norm": 1.11493980884552, "learning_rate": 1.8685185185185184e-05, "loss": 0.2444, "step": 1993 }, { "epoch": 1.0553333333333332, "grad_norm": 0.8882637023925781, "learning_rate": 1.866666666666667e-05, "loss": 0.1851, "step": 1994 }, { "epoch": 1.0556666666666668, "grad_norm": 22.399517059326172, "learning_rate": 1.864814814814815e-05, "loss": 0.2139, "step": 1995 }, { "epoch": 1.056, "grad_norm": 1.0793142318725586, "learning_rate": 1.862962962962963e-05, "loss": 0.2191, "step": 1996 }, { "epoch": 1.0563333333333333, "grad_norm": 1.029279351234436, "learning_rate": 1.861111111111111e-05, "loss": 0.2091, "step": 1997 }, { "epoch": 1.0566666666666666, "grad_norm": 1.0435441732406616, "learning_rate": 1.8592592592592595e-05, "loss": 0.2138, "step": 1998 }, { "epoch": 1.057, "grad_norm": 0.9906209111213684, "learning_rate": 1.8574074074074076e-05, "loss": 0.2024, "step": 1999 }, { "epoch": 1.0573333333333332, "grad_norm": 1.212501049041748, "learning_rate": 1.8555555555555557e-05, "loss": 0.226, "step": 2000 }, { "epoch": 1.0576666666666668, "grad_norm": 0.8829335570335388, "learning_rate": 1.8537037037037037e-05, "loss": 0.2269, "step": 2001 }, { "epoch": 1.058, "grad_norm": 1.706305980682373, "learning_rate": 1.8518518518518518e-05, "loss": 0.2925, "step": 2002 }, { "epoch": 1.0583333333333333, "grad_norm": 1.141024112701416, "learning_rate": 1.85e-05, "loss": 0.2185, "step": 2003 }, { "epoch": 1.0586666666666666, "grad_norm": 0.9255512952804565, "learning_rate": 1.8481481481481483e-05, "loss": 0.215, "step": 2004 }, { "epoch": 1.059, "grad_norm": 0.848795473575592, "learning_rate": 1.8462962962962964e-05, "loss": 0.1617, "step": 2005 }, { "epoch": 1.0593333333333332, "grad_norm": 0.8989872336387634, "learning_rate": 1.8444444444444445e-05, "loss": 0.1586, "step": 2006 }, { "epoch": 1.0596666666666668, "grad_norm": 1.2361879348754883, "learning_rate": 1.8425925925925926e-05, "loss": 0.1969, "step": 2007 }, { "epoch": 1.06, "grad_norm": 1.0617257356643677, "learning_rate": 1.840740740740741e-05, "loss": 0.2286, "step": 2008 }, { "epoch": 1.0603333333333333, "grad_norm": 1.0964184999465942, "learning_rate": 1.838888888888889e-05, "loss": 0.2325, "step": 2009 }, { "epoch": 1.0606666666666666, "grad_norm": 1.1463758945465088, "learning_rate": 1.837037037037037e-05, "loss": 0.201, "step": 2010 }, { "epoch": 1.061, "grad_norm": 2.3886210918426514, "learning_rate": 1.8351851851851852e-05, "loss": 0.1971, "step": 2011 }, { "epoch": 1.0613333333333332, "grad_norm": 1.0440013408660889, "learning_rate": 1.8333333333333333e-05, "loss": 0.2204, "step": 2012 }, { "epoch": 1.0616666666666668, "grad_norm": 1.0675417184829712, "learning_rate": 1.8314814814814814e-05, "loss": 0.2402, "step": 2013 }, { "epoch": 1.062, "grad_norm": 1.108708143234253, "learning_rate": 1.8296296296296298e-05, "loss": 0.223, "step": 2014 }, { "epoch": 1.0623333333333334, "grad_norm": 1.0992263555526733, "learning_rate": 1.827777777777778e-05, "loss": 0.2509, "step": 2015 }, { "epoch": 1.0626666666666666, "grad_norm": 1.1471010446548462, "learning_rate": 1.825925925925926e-05, "loss": 0.3017, "step": 2016 }, { "epoch": 1.063, "grad_norm": 1.1411041021347046, "learning_rate": 1.824074074074074e-05, "loss": 0.1682, "step": 2017 }, { "epoch": 1.0633333333333332, "grad_norm": 0.8459961414337158, "learning_rate": 1.8222222222222224e-05, "loss": 0.1609, "step": 2018 }, { "epoch": 1.0636666666666668, "grad_norm": 1.0784475803375244, "learning_rate": 1.8203703703703702e-05, "loss": 0.2771, "step": 2019 }, { "epoch": 1.064, "grad_norm": 0.9699668288230896, "learning_rate": 1.8185185185185186e-05, "loss": 0.2003, "step": 2020 }, { "epoch": 1.0643333333333334, "grad_norm": 0.9782662391662598, "learning_rate": 1.8166666666666667e-05, "loss": 0.2041, "step": 2021 }, { "epoch": 1.0646666666666667, "grad_norm": 1.0554853677749634, "learning_rate": 1.814814814814815e-05, "loss": 0.206, "step": 2022 }, { "epoch": 1.065, "grad_norm": 0.9603425860404968, "learning_rate": 1.8129629629629628e-05, "loss": 0.1516, "step": 2023 }, { "epoch": 1.0653333333333332, "grad_norm": 0.8931741714477539, "learning_rate": 1.8111111111111112e-05, "loss": 0.2236, "step": 2024 }, { "epoch": 1.0656666666666668, "grad_norm": 1.0205386877059937, "learning_rate": 1.8092592592592593e-05, "loss": 0.2071, "step": 2025 }, { "epoch": 1.066, "grad_norm": 0.9397187232971191, "learning_rate": 1.8074074074074074e-05, "loss": 0.2198, "step": 2026 }, { "epoch": 1.0663333333333334, "grad_norm": 1.050789713859558, "learning_rate": 1.8055555555555555e-05, "loss": 0.2353, "step": 2027 }, { "epoch": 1.0666666666666667, "grad_norm": 1.0230066776275635, "learning_rate": 1.803703703703704e-05, "loss": 0.2515, "step": 2028 }, { "epoch": 1.067, "grad_norm": 1.1225669384002686, "learning_rate": 1.801851851851852e-05, "loss": 0.2949, "step": 2029 }, { "epoch": 1.0673333333333332, "grad_norm": 1.0630135536193848, "learning_rate": 1.8e-05, "loss": 0.248, "step": 2030 }, { "epoch": 1.0676666666666668, "grad_norm": 0.9765264987945557, "learning_rate": 1.798148148148148e-05, "loss": 0.1772, "step": 2031 }, { "epoch": 1.068, "grad_norm": 1.1076295375823975, "learning_rate": 1.7962962962962965e-05, "loss": 0.1939, "step": 2032 }, { "epoch": 1.0683333333333334, "grad_norm": 0.9945363402366638, "learning_rate": 1.7944444444444443e-05, "loss": 0.2122, "step": 2033 }, { "epoch": 1.0686666666666667, "grad_norm": 0.9660766124725342, "learning_rate": 1.7925925925925927e-05, "loss": 0.1852, "step": 2034 }, { "epoch": 1.069, "grad_norm": 1.059322714805603, "learning_rate": 1.7907407407407408e-05, "loss": 0.2087, "step": 2035 }, { "epoch": 1.0693333333333332, "grad_norm": 1.1842972040176392, "learning_rate": 1.788888888888889e-05, "loss": 0.2032, "step": 2036 }, { "epoch": 1.0696666666666668, "grad_norm": 1.0813212394714355, "learning_rate": 1.787037037037037e-05, "loss": 0.2478, "step": 2037 }, { "epoch": 1.07, "grad_norm": 1.0700602531433105, "learning_rate": 1.7851851851851853e-05, "loss": 0.2124, "step": 2038 }, { "epoch": 1.0703333333333334, "grad_norm": 1.1106547117233276, "learning_rate": 1.7833333333333334e-05, "loss": 0.2041, "step": 2039 }, { "epoch": 1.0706666666666667, "grad_norm": 1.0149705410003662, "learning_rate": 1.7814814814814815e-05, "loss": 0.2374, "step": 2040 }, { "epoch": 1.071, "grad_norm": 1.12710702419281, "learning_rate": 1.7796296296296296e-05, "loss": 0.2085, "step": 2041 }, { "epoch": 1.0713333333333332, "grad_norm": 1.279809832572937, "learning_rate": 1.777777777777778e-05, "loss": 0.2253, "step": 2042 }, { "epoch": 1.0716666666666668, "grad_norm": 0.8872043490409851, "learning_rate": 1.7759259259259257e-05, "loss": 0.1835, "step": 2043 }, { "epoch": 1.072, "grad_norm": 1.0180697441101074, "learning_rate": 1.774074074074074e-05, "loss": 0.2218, "step": 2044 }, { "epoch": 1.0723333333333334, "grad_norm": 0.9659439325332642, "learning_rate": 1.7722222222222222e-05, "loss": 0.2274, "step": 2045 }, { "epoch": 1.0726666666666667, "grad_norm": 1.0586413145065308, "learning_rate": 1.7703703703703706e-05, "loss": 0.2498, "step": 2046 }, { "epoch": 1.073, "grad_norm": 1.0410797595977783, "learning_rate": 1.7685185185185184e-05, "loss": 0.1947, "step": 2047 }, { "epoch": 1.0733333333333333, "grad_norm": 1.1873960494995117, "learning_rate": 1.7666666666666668e-05, "loss": 0.2786, "step": 2048 }, { "epoch": 1.0736666666666668, "grad_norm": 1.0231858491897583, "learning_rate": 1.764814814814815e-05, "loss": 0.23, "step": 2049 }, { "epoch": 1.074, "grad_norm": 0.9536886811256409, "learning_rate": 1.762962962962963e-05, "loss": 0.215, "step": 2050 }, { "epoch": 1.0743333333333334, "grad_norm": 0.9112495183944702, "learning_rate": 1.761111111111111e-05, "loss": 0.1958, "step": 2051 }, { "epoch": 1.0746666666666667, "grad_norm": 0.9726422429084778, "learning_rate": 1.7592592592592595e-05, "loss": 0.2165, "step": 2052 }, { "epoch": 1.075, "grad_norm": 0.8355358839035034, "learning_rate": 1.7574074074074075e-05, "loss": 0.1682, "step": 2053 }, { "epoch": 1.0753333333333333, "grad_norm": 1.071819543838501, "learning_rate": 1.7555555555555556e-05, "loss": 0.1794, "step": 2054 }, { "epoch": 1.0756666666666668, "grad_norm": 0.982518196105957, "learning_rate": 1.7537037037037037e-05, "loss": 0.2014, "step": 2055 }, { "epoch": 1.076, "grad_norm": 0.9334047436714172, "learning_rate": 1.751851851851852e-05, "loss": 0.2149, "step": 2056 }, { "epoch": 1.0763333333333334, "grad_norm": 1.1427710056304932, "learning_rate": 1.75e-05, "loss": 0.2543, "step": 2057 }, { "epoch": 1.0766666666666667, "grad_norm": 1.195214033126831, "learning_rate": 1.7481481481481483e-05, "loss": 0.1954, "step": 2058 }, { "epoch": 1.077, "grad_norm": 0.98680579662323, "learning_rate": 1.7462962962962963e-05, "loss": 0.2058, "step": 2059 }, { "epoch": 1.0773333333333333, "grad_norm": 1.0706815719604492, "learning_rate": 1.7444444444444448e-05, "loss": 0.2833, "step": 2060 }, { "epoch": 1.0776666666666666, "grad_norm": 1.0589638948440552, "learning_rate": 1.7425925925925925e-05, "loss": 0.2008, "step": 2061 }, { "epoch": 1.078, "grad_norm": 0.9860408902168274, "learning_rate": 1.740740740740741e-05, "loss": 0.2154, "step": 2062 }, { "epoch": 1.0783333333333334, "grad_norm": 1.2925128936767578, "learning_rate": 1.738888888888889e-05, "loss": 0.2186, "step": 2063 }, { "epoch": 1.0786666666666667, "grad_norm": 1.077786922454834, "learning_rate": 1.737037037037037e-05, "loss": 0.2226, "step": 2064 }, { "epoch": 1.079, "grad_norm": 1.1662242412567139, "learning_rate": 1.735185185185185e-05, "loss": 0.2053, "step": 2065 }, { "epoch": 1.0793333333333333, "grad_norm": 1.0970308780670166, "learning_rate": 1.7333333333333336e-05, "loss": 0.2341, "step": 2066 }, { "epoch": 1.0796666666666668, "grad_norm": 1.0492171049118042, "learning_rate": 1.7314814814814813e-05, "loss": 0.2112, "step": 2067 }, { "epoch": 1.08, "grad_norm": 0.7986046075820923, "learning_rate": 1.7296296296296297e-05, "loss": 0.1565, "step": 2068 }, { "epoch": 1.0803333333333334, "grad_norm": 0.8536087870597839, "learning_rate": 1.7277777777777778e-05, "loss": 0.1536, "step": 2069 }, { "epoch": 1.0806666666666667, "grad_norm": 1.1294783353805542, "learning_rate": 1.7259259259259262e-05, "loss": 0.2062, "step": 2070 }, { "epoch": 1.081, "grad_norm": 0.9594528675079346, "learning_rate": 1.724074074074074e-05, "loss": 0.2151, "step": 2071 }, { "epoch": 1.0813333333333333, "grad_norm": 0.9567373991012573, "learning_rate": 1.7222222222222224e-05, "loss": 0.2332, "step": 2072 }, { "epoch": 1.0816666666666666, "grad_norm": 0.8186901211738586, "learning_rate": 1.7203703703703705e-05, "loss": 0.1439, "step": 2073 }, { "epoch": 1.082, "grad_norm": 0.9524355530738831, "learning_rate": 1.7185185185185185e-05, "loss": 0.2031, "step": 2074 }, { "epoch": 1.0823333333333334, "grad_norm": 1.0576741695404053, "learning_rate": 1.7166666666666666e-05, "loss": 0.2477, "step": 2075 }, { "epoch": 1.0826666666666667, "grad_norm": 1.2730311155319214, "learning_rate": 1.714814814814815e-05, "loss": 0.2142, "step": 2076 }, { "epoch": 1.083, "grad_norm": 0.9650608897209167, "learning_rate": 1.712962962962963e-05, "loss": 0.1998, "step": 2077 }, { "epoch": 1.0833333333333333, "grad_norm": 1.0543009042739868, "learning_rate": 1.7111111111111112e-05, "loss": 0.2322, "step": 2078 }, { "epoch": 1.0836666666666668, "grad_norm": 0.9013429880142212, "learning_rate": 1.7092592592592593e-05, "loss": 0.1859, "step": 2079 }, { "epoch": 1.084, "grad_norm": 0.9617881178855896, "learning_rate": 1.7074074074074077e-05, "loss": 0.179, "step": 2080 }, { "epoch": 1.0843333333333334, "grad_norm": 0.8923283815383911, "learning_rate": 1.7055555555555554e-05, "loss": 0.1496, "step": 2081 }, { "epoch": 1.0846666666666667, "grad_norm": 1.0280269384384155, "learning_rate": 1.7037037037037038e-05, "loss": 0.2308, "step": 2082 }, { "epoch": 1.085, "grad_norm": 0.8725159168243408, "learning_rate": 1.701851851851852e-05, "loss": 0.1967, "step": 2083 }, { "epoch": 1.0853333333333333, "grad_norm": 1.0347720384597778, "learning_rate": 1.7000000000000003e-05, "loss": 0.1913, "step": 2084 }, { "epoch": 1.0856666666666666, "grad_norm": 1.3244045972824097, "learning_rate": 1.698148148148148e-05, "loss": 0.2552, "step": 2085 }, { "epoch": 1.086, "grad_norm": 0.823243260383606, "learning_rate": 1.6962962962962965e-05, "loss": 0.1543, "step": 2086 }, { "epoch": 1.0863333333333334, "grad_norm": 1.0438340902328491, "learning_rate": 1.6944444444444446e-05, "loss": 0.1941, "step": 2087 }, { "epoch": 1.0866666666666667, "grad_norm": 1.5034364461898804, "learning_rate": 1.6925925925925926e-05, "loss": 0.2289, "step": 2088 }, { "epoch": 1.087, "grad_norm": 0.9648354649543762, "learning_rate": 1.6907407407407407e-05, "loss": 0.1992, "step": 2089 }, { "epoch": 1.0873333333333333, "grad_norm": 1.0349411964416504, "learning_rate": 1.688888888888889e-05, "loss": 0.2085, "step": 2090 }, { "epoch": 1.0876666666666668, "grad_norm": 0.9225409030914307, "learning_rate": 1.6870370370370372e-05, "loss": 0.167, "step": 2091 }, { "epoch": 1.088, "grad_norm": 0.9573783874511719, "learning_rate": 1.6851851851851853e-05, "loss": 0.1873, "step": 2092 }, { "epoch": 1.0883333333333334, "grad_norm": 1.0714730024337769, "learning_rate": 1.6833333333333334e-05, "loss": 0.2318, "step": 2093 }, { "epoch": 1.0886666666666667, "grad_norm": 0.8399251699447632, "learning_rate": 1.6814814814814818e-05, "loss": 0.1575, "step": 2094 }, { "epoch": 1.089, "grad_norm": 0.8963523507118225, "learning_rate": 1.6796296296296295e-05, "loss": 0.1867, "step": 2095 }, { "epoch": 1.0893333333333333, "grad_norm": 1.1668241024017334, "learning_rate": 1.677777777777778e-05, "loss": 0.2643, "step": 2096 }, { "epoch": 1.0896666666666666, "grad_norm": 0.8897339701652527, "learning_rate": 1.675925925925926e-05, "loss": 0.2079, "step": 2097 }, { "epoch": 1.09, "grad_norm": 1.124363660812378, "learning_rate": 1.674074074074074e-05, "loss": 0.2344, "step": 2098 }, { "epoch": 1.0903333333333334, "grad_norm": 0.7442623376846313, "learning_rate": 1.6722222222222222e-05, "loss": 0.1484, "step": 2099 }, { "epoch": 1.0906666666666667, "grad_norm": 0.9967872500419617, "learning_rate": 1.6703703703703706e-05, "loss": 0.1976, "step": 2100 }, { "epoch": 1.091, "grad_norm": 1.0675513744354248, "learning_rate": 1.6685185185185187e-05, "loss": 0.1966, "step": 2101 }, { "epoch": 1.0913333333333333, "grad_norm": 1.2333810329437256, "learning_rate": 1.6666666666666667e-05, "loss": 0.2115, "step": 2102 }, { "epoch": 1.0916666666666666, "grad_norm": 0.928504467010498, "learning_rate": 1.6648148148148148e-05, "loss": 0.2317, "step": 2103 }, { "epoch": 1.092, "grad_norm": 0.9404610395431519, "learning_rate": 1.6629629629629632e-05, "loss": 0.1684, "step": 2104 }, { "epoch": 1.0923333333333334, "grad_norm": 1.003855586051941, "learning_rate": 1.661111111111111e-05, "loss": 0.1943, "step": 2105 }, { "epoch": 1.0926666666666667, "grad_norm": 1.023870587348938, "learning_rate": 1.6592592592592594e-05, "loss": 0.2293, "step": 2106 }, { "epoch": 1.093, "grad_norm": 0.9677971601486206, "learning_rate": 1.6574074074074075e-05, "loss": 0.2268, "step": 2107 }, { "epoch": 1.0933333333333333, "grad_norm": 0.9635859131813049, "learning_rate": 1.655555555555556e-05, "loss": 0.2053, "step": 2108 }, { "epoch": 1.0936666666666666, "grad_norm": 0.8653714656829834, "learning_rate": 1.6537037037037036e-05, "loss": 0.1641, "step": 2109 }, { "epoch": 1.094, "grad_norm": 5.131249904632568, "learning_rate": 1.651851851851852e-05, "loss": 0.2088, "step": 2110 }, { "epoch": 1.0943333333333334, "grad_norm": 1.0381118059158325, "learning_rate": 1.65e-05, "loss": 0.2429, "step": 2111 }, { "epoch": 1.0946666666666667, "grad_norm": 0.8847362995147705, "learning_rate": 1.6481481481481482e-05, "loss": 0.2064, "step": 2112 }, { "epoch": 1.095, "grad_norm": 0.9073659777641296, "learning_rate": 1.6462962962962963e-05, "loss": 0.2181, "step": 2113 }, { "epoch": 1.0953333333333333, "grad_norm": 0.8961798548698425, "learning_rate": 1.6444444444444447e-05, "loss": 0.2015, "step": 2114 }, { "epoch": 1.0956666666666666, "grad_norm": 0.844902515411377, "learning_rate": 1.6425925925925928e-05, "loss": 0.1568, "step": 2115 }, { "epoch": 1.096, "grad_norm": 1.0445706844329834, "learning_rate": 1.640740740740741e-05, "loss": 0.2769, "step": 2116 }, { "epoch": 1.0963333333333334, "grad_norm": 0.9700827598571777, "learning_rate": 1.638888888888889e-05, "loss": 0.1981, "step": 2117 }, { "epoch": 1.0966666666666667, "grad_norm": 0.9638786911964417, "learning_rate": 1.6370370370370374e-05, "loss": 0.1893, "step": 2118 }, { "epoch": 1.097, "grad_norm": 0.8860688805580139, "learning_rate": 1.635185185185185e-05, "loss": 0.1975, "step": 2119 }, { "epoch": 1.0973333333333333, "grad_norm": 0.9143542647361755, "learning_rate": 1.6333333333333335e-05, "loss": 0.1839, "step": 2120 }, { "epoch": 1.0976666666666666, "grad_norm": 0.9842739105224609, "learning_rate": 1.6314814814814816e-05, "loss": 0.2036, "step": 2121 }, { "epoch": 1.098, "grad_norm": 1.0804957151412964, "learning_rate": 1.62962962962963e-05, "loss": 0.26, "step": 2122 }, { "epoch": 1.0983333333333334, "grad_norm": 0.8141484260559082, "learning_rate": 1.6277777777777777e-05, "loss": 0.1961, "step": 2123 }, { "epoch": 1.0986666666666667, "grad_norm": 1.08640456199646, "learning_rate": 1.625925925925926e-05, "loss": 0.241, "step": 2124 }, { "epoch": 1.099, "grad_norm": 0.7890015840530396, "learning_rate": 1.6240740740740742e-05, "loss": 0.1637, "step": 2125 }, { "epoch": 1.0993333333333333, "grad_norm": 1.0943570137023926, "learning_rate": 1.6222222222222223e-05, "loss": 0.2111, "step": 2126 }, { "epoch": 1.0996666666666666, "grad_norm": 0.9191109538078308, "learning_rate": 1.6203703703703704e-05, "loss": 0.1943, "step": 2127 }, { "epoch": 1.1, "grad_norm": 0.9370154142379761, "learning_rate": 1.6185185185185188e-05, "loss": 0.209, "step": 2128 }, { "epoch": 1.1003333333333334, "grad_norm": 0.8681079745292664, "learning_rate": 1.6166666666666665e-05, "loss": 0.2365, "step": 2129 }, { "epoch": 1.1006666666666667, "grad_norm": 0.8862259387969971, "learning_rate": 1.614814814814815e-05, "loss": 0.1556, "step": 2130 }, { "epoch": 1.101, "grad_norm": 0.9562053084373474, "learning_rate": 1.612962962962963e-05, "loss": 0.2234, "step": 2131 }, { "epoch": 1.1013333333333333, "grad_norm": 0.9769837856292725, "learning_rate": 1.6111111111111115e-05, "loss": 0.2073, "step": 2132 }, { "epoch": 1.1016666666666666, "grad_norm": 0.9316353797912598, "learning_rate": 1.6092592592592592e-05, "loss": 0.1865, "step": 2133 }, { "epoch": 1.102, "grad_norm": 0.9212445020675659, "learning_rate": 1.6074074074074076e-05, "loss": 0.1733, "step": 2134 }, { "epoch": 1.1023333333333334, "grad_norm": 1.0975306034088135, "learning_rate": 1.6055555555555557e-05, "loss": 0.2714, "step": 2135 }, { "epoch": 1.1026666666666667, "grad_norm": 1.132080078125, "learning_rate": 1.6037037037037038e-05, "loss": 0.1755, "step": 2136 }, { "epoch": 1.103, "grad_norm": 1.133729100227356, "learning_rate": 1.601851851851852e-05, "loss": 0.2389, "step": 2137 }, { "epoch": 1.1033333333333333, "grad_norm": 1.0045747756958008, "learning_rate": 1.6000000000000003e-05, "loss": 0.1853, "step": 2138 }, { "epoch": 1.1036666666666666, "grad_norm": 0.8974010348320007, "learning_rate": 1.5981481481481483e-05, "loss": 0.1898, "step": 2139 }, { "epoch": 1.104, "grad_norm": 0.9542253613471985, "learning_rate": 1.5962962962962964e-05, "loss": 0.2243, "step": 2140 }, { "epoch": 1.1043333333333334, "grad_norm": 0.8464305400848389, "learning_rate": 1.5944444444444445e-05, "loss": 0.1609, "step": 2141 }, { "epoch": 1.1046666666666667, "grad_norm": 1.074691891670227, "learning_rate": 1.5925925925925926e-05, "loss": 0.1765, "step": 2142 }, { "epoch": 1.105, "grad_norm": 0.9177310466766357, "learning_rate": 1.5907407407407407e-05, "loss": 0.1786, "step": 2143 }, { "epoch": 1.1053333333333333, "grad_norm": 0.899019181728363, "learning_rate": 1.588888888888889e-05, "loss": 0.2111, "step": 2144 }, { "epoch": 1.1056666666666666, "grad_norm": 0.927657425403595, "learning_rate": 1.587037037037037e-05, "loss": 0.2198, "step": 2145 }, { "epoch": 1.106, "grad_norm": 0.9521124958992004, "learning_rate": 1.5851851851851852e-05, "loss": 0.164, "step": 2146 }, { "epoch": 1.1063333333333334, "grad_norm": 0.9778364300727844, "learning_rate": 1.5833333333333333e-05, "loss": 0.2315, "step": 2147 }, { "epoch": 1.1066666666666667, "grad_norm": 0.8089255094528198, "learning_rate": 1.5814814814814817e-05, "loss": 0.156, "step": 2148 }, { "epoch": 1.107, "grad_norm": 1.0599455833435059, "learning_rate": 1.5796296296296298e-05, "loss": 0.2196, "step": 2149 }, { "epoch": 1.1073333333333333, "grad_norm": 1.0142085552215576, "learning_rate": 1.577777777777778e-05, "loss": 0.2101, "step": 2150 }, { "epoch": 1.1076666666666666, "grad_norm": 0.9436377286911011, "learning_rate": 1.575925925925926e-05, "loss": 0.2062, "step": 2151 }, { "epoch": 1.108, "grad_norm": 0.9652098417282104, "learning_rate": 1.574074074074074e-05, "loss": 0.1724, "step": 2152 }, { "epoch": 1.1083333333333334, "grad_norm": 1.0249912738800049, "learning_rate": 1.5722222222222225e-05, "loss": 0.1937, "step": 2153 }, { "epoch": 1.1086666666666667, "grad_norm": 1.0767107009887695, "learning_rate": 1.5703703703703705e-05, "loss": 0.2178, "step": 2154 }, { "epoch": 1.109, "grad_norm": 0.8836619257926941, "learning_rate": 1.5685185185185186e-05, "loss": 0.1797, "step": 2155 }, { "epoch": 1.1093333333333333, "grad_norm": 0.9334393739700317, "learning_rate": 1.5666666666666667e-05, "loss": 0.2183, "step": 2156 }, { "epoch": 1.1096666666666666, "grad_norm": 0.9741693735122681, "learning_rate": 1.5648148148148148e-05, "loss": 0.2211, "step": 2157 }, { "epoch": 1.11, "grad_norm": 1.1582486629486084, "learning_rate": 1.5629629629629632e-05, "loss": 0.2005, "step": 2158 }, { "epoch": 1.1103333333333334, "grad_norm": 1.0750397443771362, "learning_rate": 1.5611111111111113e-05, "loss": 0.227, "step": 2159 }, { "epoch": 1.1106666666666667, "grad_norm": 1.0473932027816772, "learning_rate": 1.5592592592592593e-05, "loss": 0.2005, "step": 2160 }, { "epoch": 1.111, "grad_norm": 1.0549204349517822, "learning_rate": 1.5574074074074074e-05, "loss": 0.2037, "step": 2161 }, { "epoch": 1.1113333333333333, "grad_norm": 0.9556578397750854, "learning_rate": 1.5555555555555555e-05, "loss": 0.207, "step": 2162 }, { "epoch": 1.1116666666666666, "grad_norm": 1.0002638101577759, "learning_rate": 1.553703703703704e-05, "loss": 0.2422, "step": 2163 }, { "epoch": 1.112, "grad_norm": 1.0288307666778564, "learning_rate": 1.551851851851852e-05, "loss": 0.2066, "step": 2164 }, { "epoch": 1.1123333333333334, "grad_norm": 0.9889616370201111, "learning_rate": 1.55e-05, "loss": 0.2473, "step": 2165 }, { "epoch": 1.1126666666666667, "grad_norm": 0.8899287581443787, "learning_rate": 1.548148148148148e-05, "loss": 0.1411, "step": 2166 }, { "epoch": 1.113, "grad_norm": 0.8022812604904175, "learning_rate": 1.5462962962962962e-05, "loss": 0.1468, "step": 2167 }, { "epoch": 1.1133333333333333, "grad_norm": 1.0052958726882935, "learning_rate": 1.5444444444444446e-05, "loss": 0.2451, "step": 2168 }, { "epoch": 1.1136666666666666, "grad_norm": 0.9390006065368652, "learning_rate": 1.5425925925925927e-05, "loss": 0.1583, "step": 2169 }, { "epoch": 1.114, "grad_norm": 1.7061927318572998, "learning_rate": 1.5407407407407408e-05, "loss": 0.247, "step": 2170 }, { "epoch": 1.1143333333333334, "grad_norm": 0.8380952477455139, "learning_rate": 1.538888888888889e-05, "loss": 0.19, "step": 2171 }, { "epoch": 1.1146666666666667, "grad_norm": 1.019309163093567, "learning_rate": 1.537037037037037e-05, "loss": 0.1996, "step": 2172 }, { "epoch": 1.115, "grad_norm": 0.9804152250289917, "learning_rate": 1.5351851851851854e-05, "loss": 0.2037, "step": 2173 }, { "epoch": 1.1153333333333333, "grad_norm": 0.9337167739868164, "learning_rate": 1.5333333333333334e-05, "loss": 0.2275, "step": 2174 }, { "epoch": 1.1156666666666666, "grad_norm": 1.0157527923583984, "learning_rate": 1.5314814814814815e-05, "loss": 0.2113, "step": 2175 }, { "epoch": 1.116, "grad_norm": 0.8031270503997803, "learning_rate": 1.5296296296296296e-05, "loss": 0.138, "step": 2176 }, { "epoch": 1.1163333333333334, "grad_norm": 0.9438620209693909, "learning_rate": 1.527777777777778e-05, "loss": 0.2044, "step": 2177 }, { "epoch": 1.1166666666666667, "grad_norm": 0.8591117858886719, "learning_rate": 1.5259259259259258e-05, "loss": 0.1832, "step": 2178 }, { "epoch": 1.117, "grad_norm": 0.9764658212661743, "learning_rate": 1.5240740740740742e-05, "loss": 0.1788, "step": 2179 }, { "epoch": 1.1173333333333333, "grad_norm": 0.9684407711029053, "learning_rate": 1.5222222222222224e-05, "loss": 0.2004, "step": 2180 }, { "epoch": 1.1176666666666666, "grad_norm": 0.9890850186347961, "learning_rate": 1.5203703703703703e-05, "loss": 0.1788, "step": 2181 }, { "epoch": 1.1179999999999999, "grad_norm": 1.0169103145599365, "learning_rate": 1.5185185185185186e-05, "loss": 0.2472, "step": 2182 }, { "epoch": 1.1183333333333334, "grad_norm": 0.8416377305984497, "learning_rate": 1.5166666666666668e-05, "loss": 0.1821, "step": 2183 }, { "epoch": 1.1186666666666667, "grad_norm": 0.9116507768630981, "learning_rate": 1.514814814814815e-05, "loss": 0.1716, "step": 2184 }, { "epoch": 1.119, "grad_norm": 0.8843859434127808, "learning_rate": 1.512962962962963e-05, "loss": 0.176, "step": 2185 }, { "epoch": 1.1193333333333333, "grad_norm": 1.223575472831726, "learning_rate": 1.5111111111111112e-05, "loss": 0.2138, "step": 2186 }, { "epoch": 1.1196666666666666, "grad_norm": 0.8203871250152588, "learning_rate": 1.5092592592592595e-05, "loss": 0.1584, "step": 2187 }, { "epoch": 1.12, "grad_norm": 1.0477163791656494, "learning_rate": 1.5074074074074074e-05, "loss": 0.2747, "step": 2188 }, { "epoch": 1.1203333333333334, "grad_norm": 0.9362011551856995, "learning_rate": 1.5055555555555556e-05, "loss": 0.2009, "step": 2189 }, { "epoch": 1.1206666666666667, "grad_norm": 0.9120894074440002, "learning_rate": 1.5037037037037039e-05, "loss": 0.2003, "step": 2190 }, { "epoch": 1.121, "grad_norm": 0.9699391722679138, "learning_rate": 1.5018518518518518e-05, "loss": 0.2013, "step": 2191 }, { "epoch": 1.1213333333333333, "grad_norm": 0.8156198859214783, "learning_rate": 1.5e-05, "loss": 0.1618, "step": 2192 }, { "epoch": 1.1216666666666666, "grad_norm": 0.9512951970100403, "learning_rate": 1.4981481481481483e-05, "loss": 0.1926, "step": 2193 }, { "epoch": 1.1219999999999999, "grad_norm": 0.9788254499435425, "learning_rate": 1.4962962962962965e-05, "loss": 0.181, "step": 2194 }, { "epoch": 1.1223333333333334, "grad_norm": 0.8434889912605286, "learning_rate": 1.4944444444444444e-05, "loss": 0.1651, "step": 2195 }, { "epoch": 1.1226666666666667, "grad_norm": 0.9505458474159241, "learning_rate": 1.4925925925925927e-05, "loss": 0.2132, "step": 2196 }, { "epoch": 1.123, "grad_norm": 0.8991893529891968, "learning_rate": 1.490740740740741e-05, "loss": 0.168, "step": 2197 }, { "epoch": 1.1233333333333333, "grad_norm": 1.4959102869033813, "learning_rate": 1.4888888888888888e-05, "loss": 0.2051, "step": 2198 }, { "epoch": 1.1236666666666666, "grad_norm": 0.807263970375061, "learning_rate": 1.4870370370370371e-05, "loss": 0.1555, "step": 2199 }, { "epoch": 1.124, "grad_norm": 1.3668156862258911, "learning_rate": 1.4851851851851853e-05, "loss": 0.2015, "step": 2200 }, { "epoch": 1.1243333333333334, "grad_norm": 0.8170708417892456, "learning_rate": 1.4833333333333336e-05, "loss": 0.1693, "step": 2201 }, { "epoch": 1.1246666666666667, "grad_norm": 1.0220147371292114, "learning_rate": 1.4814814814814815e-05, "loss": 0.1758, "step": 2202 }, { "epoch": 1.125, "grad_norm": 1.381028175354004, "learning_rate": 1.4796296296296297e-05, "loss": 0.2757, "step": 2203 }, { "epoch": 1.1253333333333333, "grad_norm": 1.0246168375015259, "learning_rate": 1.477777777777778e-05, "loss": 0.2162, "step": 2204 }, { "epoch": 1.1256666666666666, "grad_norm": 0.8435527682304382, "learning_rate": 1.4759259259259259e-05, "loss": 0.2074, "step": 2205 }, { "epoch": 1.126, "grad_norm": 0.7494838237762451, "learning_rate": 1.4740740740740741e-05, "loss": 0.1473, "step": 2206 }, { "epoch": 1.1263333333333334, "grad_norm": 0.8565221428871155, "learning_rate": 1.4722222222222224e-05, "loss": 0.2056, "step": 2207 }, { "epoch": 1.1266666666666667, "grad_norm": 0.7864659428596497, "learning_rate": 1.4703703703703706e-05, "loss": 0.1572, "step": 2208 }, { "epoch": 1.127, "grad_norm": 1.058485984802246, "learning_rate": 1.4685185185185186e-05, "loss": 0.2642, "step": 2209 }, { "epoch": 1.1273333333333333, "grad_norm": 1.2263177633285522, "learning_rate": 1.4666666666666668e-05, "loss": 0.2328, "step": 2210 }, { "epoch": 1.1276666666666666, "grad_norm": 0.9084923267364502, "learning_rate": 1.464814814814815e-05, "loss": 0.1663, "step": 2211 }, { "epoch": 1.1280000000000001, "grad_norm": 0.9083546996116638, "learning_rate": 1.462962962962963e-05, "loss": 0.1679, "step": 2212 }, { "epoch": 1.1283333333333334, "grad_norm": 1.0286734104156494, "learning_rate": 1.4611111111111112e-05, "loss": 0.2063, "step": 2213 }, { "epoch": 1.1286666666666667, "grad_norm": 0.8321689367294312, "learning_rate": 1.4592592592592594e-05, "loss": 0.1892, "step": 2214 }, { "epoch": 1.129, "grad_norm": 0.9158602356910706, "learning_rate": 1.4574074074074075e-05, "loss": 0.1974, "step": 2215 }, { "epoch": 1.1293333333333333, "grad_norm": 0.8578663468360901, "learning_rate": 1.4555555555555556e-05, "loss": 0.1812, "step": 2216 }, { "epoch": 1.1296666666666666, "grad_norm": 1.0267949104309082, "learning_rate": 1.4537037037037039e-05, "loss": 0.2, "step": 2217 }, { "epoch": 1.13, "grad_norm": 0.9850027561187744, "learning_rate": 1.4518518518518521e-05, "loss": 0.2135, "step": 2218 }, { "epoch": 1.1303333333333334, "grad_norm": 0.9116972088813782, "learning_rate": 1.45e-05, "loss": 0.1874, "step": 2219 }, { "epoch": 1.1306666666666667, "grad_norm": 1.093145489692688, "learning_rate": 1.4481481481481483e-05, "loss": 0.1984, "step": 2220 }, { "epoch": 1.131, "grad_norm": 1.3409804105758667, "learning_rate": 1.4462962962962965e-05, "loss": 0.2841, "step": 2221 }, { "epoch": 1.1313333333333333, "grad_norm": 0.9402973651885986, "learning_rate": 1.4444444444444444e-05, "loss": 0.2349, "step": 2222 }, { "epoch": 1.1316666666666666, "grad_norm": 1.4110242128372192, "learning_rate": 1.4425925925925927e-05, "loss": 0.1962, "step": 2223 }, { "epoch": 1.1320000000000001, "grad_norm": 0.9131693243980408, "learning_rate": 1.4407407407407409e-05, "loss": 0.1619, "step": 2224 }, { "epoch": 1.1323333333333334, "grad_norm": 0.8951862454414368, "learning_rate": 1.438888888888889e-05, "loss": 0.1866, "step": 2225 }, { "epoch": 1.1326666666666667, "grad_norm": 0.8668744564056396, "learning_rate": 1.437037037037037e-05, "loss": 0.1715, "step": 2226 }, { "epoch": 1.133, "grad_norm": 1.1141948699951172, "learning_rate": 1.4351851851851853e-05, "loss": 0.2396, "step": 2227 }, { "epoch": 1.1333333333333333, "grad_norm": 0.8532832860946655, "learning_rate": 1.4333333333333334e-05, "loss": 0.1591, "step": 2228 }, { "epoch": 1.1336666666666666, "grad_norm": 1.0878738164901733, "learning_rate": 1.4314814814814815e-05, "loss": 0.2848, "step": 2229 }, { "epoch": 1.134, "grad_norm": 1.057705044746399, "learning_rate": 1.4296296296296297e-05, "loss": 0.2952, "step": 2230 }, { "epoch": 1.1343333333333334, "grad_norm": 0.969605565071106, "learning_rate": 1.427777777777778e-05, "loss": 0.1682, "step": 2231 }, { "epoch": 1.1346666666666667, "grad_norm": 0.8568479418754578, "learning_rate": 1.425925925925926e-05, "loss": 0.1492, "step": 2232 }, { "epoch": 1.135, "grad_norm": 1.033345103263855, "learning_rate": 1.4240740740740741e-05, "loss": 0.193, "step": 2233 }, { "epoch": 1.1353333333333333, "grad_norm": 1.1199339628219604, "learning_rate": 1.4222222222222224e-05, "loss": 0.2145, "step": 2234 }, { "epoch": 1.1356666666666666, "grad_norm": 0.9941549301147461, "learning_rate": 1.4203703703703704e-05, "loss": 0.2034, "step": 2235 }, { "epoch": 1.1360000000000001, "grad_norm": 1.0237022638320923, "learning_rate": 1.4185185185185185e-05, "loss": 0.1445, "step": 2236 }, { "epoch": 1.1363333333333334, "grad_norm": 1.1580047607421875, "learning_rate": 1.4166666666666668e-05, "loss": 0.1908, "step": 2237 }, { "epoch": 1.1366666666666667, "grad_norm": 0.9268129467964172, "learning_rate": 1.4148148148148148e-05, "loss": 0.1972, "step": 2238 }, { "epoch": 1.137, "grad_norm": 1.134542465209961, "learning_rate": 1.4129629629629631e-05, "loss": 0.2465, "step": 2239 }, { "epoch": 1.1373333333333333, "grad_norm": 0.9526962637901306, "learning_rate": 1.4111111111111112e-05, "loss": 0.1881, "step": 2240 }, { "epoch": 1.1376666666666666, "grad_norm": 0.8760911226272583, "learning_rate": 1.4092592592592592e-05, "loss": 0.1683, "step": 2241 }, { "epoch": 1.138, "grad_norm": 0.9281866550445557, "learning_rate": 1.4074074074074075e-05, "loss": 0.2152, "step": 2242 }, { "epoch": 1.1383333333333334, "grad_norm": 0.8853356838226318, "learning_rate": 1.4055555555555556e-05, "loss": 0.1738, "step": 2243 }, { "epoch": 1.1386666666666667, "grad_norm": 0.9558939337730408, "learning_rate": 1.4037037037037038e-05, "loss": 0.1941, "step": 2244 }, { "epoch": 1.139, "grad_norm": 0.8877848386764526, "learning_rate": 1.4018518518518519e-05, "loss": 0.1834, "step": 2245 }, { "epoch": 1.1393333333333333, "grad_norm": 0.9331690073013306, "learning_rate": 1.4000000000000001e-05, "loss": 0.2125, "step": 2246 }, { "epoch": 1.1396666666666666, "grad_norm": 0.9237476587295532, "learning_rate": 1.3981481481481482e-05, "loss": 0.2187, "step": 2247 }, { "epoch": 1.1400000000000001, "grad_norm": 1.065024971961975, "learning_rate": 1.3962962962962963e-05, "loss": 0.2306, "step": 2248 }, { "epoch": 1.1403333333333334, "grad_norm": 1.1303154230117798, "learning_rate": 1.3944444444444446e-05, "loss": 0.2223, "step": 2249 }, { "epoch": 1.1406666666666667, "grad_norm": 0.8999857902526855, "learning_rate": 1.3925925925925926e-05, "loss": 0.1923, "step": 2250 }, { "epoch": 1.141, "grad_norm": 0.8279082775115967, "learning_rate": 1.3907407407407407e-05, "loss": 0.1736, "step": 2251 }, { "epoch": 1.1413333333333333, "grad_norm": 0.903988778591156, "learning_rate": 1.388888888888889e-05, "loss": 0.1673, "step": 2252 }, { "epoch": 1.1416666666666666, "grad_norm": 0.9202327132225037, "learning_rate": 1.387037037037037e-05, "loss": 0.1792, "step": 2253 }, { "epoch": 1.142, "grad_norm": 1.0034010410308838, "learning_rate": 1.3851851851851853e-05, "loss": 0.1846, "step": 2254 }, { "epoch": 1.1423333333333334, "grad_norm": 0.9593462347984314, "learning_rate": 1.3833333333333334e-05, "loss": 0.1766, "step": 2255 }, { "epoch": 1.1426666666666667, "grad_norm": 0.9264740347862244, "learning_rate": 1.3814814814814816e-05, "loss": 0.1916, "step": 2256 }, { "epoch": 1.143, "grad_norm": 0.8699621558189392, "learning_rate": 1.3796296296296297e-05, "loss": 0.1903, "step": 2257 }, { "epoch": 1.1433333333333333, "grad_norm": 1.2357009649276733, "learning_rate": 1.3777777777777778e-05, "loss": 0.2223, "step": 2258 }, { "epoch": 1.1436666666666666, "grad_norm": 1.0048093795776367, "learning_rate": 1.375925925925926e-05, "loss": 0.2246, "step": 2259 }, { "epoch": 1.144, "grad_norm": 1.003810167312622, "learning_rate": 1.3740740740740741e-05, "loss": 0.1721, "step": 2260 }, { "epoch": 1.1443333333333334, "grad_norm": 1.0912247896194458, "learning_rate": 1.3722222222222222e-05, "loss": 0.1993, "step": 2261 }, { "epoch": 1.1446666666666667, "grad_norm": 1.0844639539718628, "learning_rate": 1.3703703703703704e-05, "loss": 0.2407, "step": 2262 }, { "epoch": 1.145, "grad_norm": 0.9761238098144531, "learning_rate": 1.3685185185185187e-05, "loss": 0.1957, "step": 2263 }, { "epoch": 1.1453333333333333, "grad_norm": 0.9952976107597351, "learning_rate": 1.3666666666666666e-05, "loss": 0.1829, "step": 2264 }, { "epoch": 1.1456666666666666, "grad_norm": 0.9777056574821472, "learning_rate": 1.3648148148148148e-05, "loss": 0.2134, "step": 2265 }, { "epoch": 1.146, "grad_norm": 1.041153073310852, "learning_rate": 1.362962962962963e-05, "loss": 0.2397, "step": 2266 }, { "epoch": 1.1463333333333334, "grad_norm": 0.9638266563415527, "learning_rate": 1.3611111111111111e-05, "loss": 0.1979, "step": 2267 }, { "epoch": 1.1466666666666667, "grad_norm": 0.9639540910720825, "learning_rate": 1.3592592592592592e-05, "loss": 0.2154, "step": 2268 }, { "epoch": 1.147, "grad_norm": 0.8736037015914917, "learning_rate": 1.3574074074074075e-05, "loss": 0.1854, "step": 2269 }, { "epoch": 1.1473333333333333, "grad_norm": 0.9987918734550476, "learning_rate": 1.3555555555555557e-05, "loss": 0.2428, "step": 2270 }, { "epoch": 1.1476666666666666, "grad_norm": 0.9553184509277344, "learning_rate": 1.3537037037037036e-05, "loss": 0.1845, "step": 2271 }, { "epoch": 1.148, "grad_norm": 0.858397901058197, "learning_rate": 1.3518518518518519e-05, "loss": 0.1733, "step": 2272 }, { "epoch": 1.1483333333333334, "grad_norm": 0.839996337890625, "learning_rate": 1.3500000000000001e-05, "loss": 0.1664, "step": 2273 }, { "epoch": 1.1486666666666667, "grad_norm": 1.544132947921753, "learning_rate": 1.348148148148148e-05, "loss": 0.2488, "step": 2274 }, { "epoch": 1.149, "grad_norm": 0.8938061594963074, "learning_rate": 1.3462962962962963e-05, "loss": 0.1675, "step": 2275 }, { "epoch": 1.1493333333333333, "grad_norm": 1.0084125995635986, "learning_rate": 1.3444444444444445e-05, "loss": 0.2089, "step": 2276 }, { "epoch": 1.1496666666666666, "grad_norm": 0.8476467132568359, "learning_rate": 1.3425925925925928e-05, "loss": 0.1667, "step": 2277 }, { "epoch": 1.15, "grad_norm": 0.8857554197311401, "learning_rate": 1.3407407407407407e-05, "loss": 0.1854, "step": 2278 }, { "epoch": 1.1503333333333334, "grad_norm": 0.7593657970428467, "learning_rate": 1.338888888888889e-05, "loss": 0.1321, "step": 2279 }, { "epoch": 1.1506666666666667, "grad_norm": 1.0428160429000854, "learning_rate": 1.3370370370370372e-05, "loss": 0.2138, "step": 2280 }, { "epoch": 1.151, "grad_norm": 1.1200573444366455, "learning_rate": 1.335185185185185e-05, "loss": 0.2634, "step": 2281 }, { "epoch": 1.1513333333333333, "grad_norm": 0.8812530636787415, "learning_rate": 1.3333333333333333e-05, "loss": 0.1679, "step": 2282 }, { "epoch": 1.1516666666666666, "grad_norm": 1.018892765045166, "learning_rate": 1.3314814814814816e-05, "loss": 0.2414, "step": 2283 }, { "epoch": 1.152, "grad_norm": 1.0272302627563477, "learning_rate": 1.3296296296296295e-05, "loss": 0.2114, "step": 2284 }, { "epoch": 1.1523333333333334, "grad_norm": 0.984102725982666, "learning_rate": 1.3277777777777777e-05, "loss": 0.1894, "step": 2285 }, { "epoch": 1.1526666666666667, "grad_norm": 0.9255942106246948, "learning_rate": 1.325925925925926e-05, "loss": 0.1705, "step": 2286 }, { "epoch": 1.153, "grad_norm": 0.8360569477081299, "learning_rate": 1.3240740740740742e-05, "loss": 0.126, "step": 2287 }, { "epoch": 1.1533333333333333, "grad_norm": 1.09330415725708, "learning_rate": 1.3222222222222221e-05, "loss": 0.1661, "step": 2288 }, { "epoch": 1.1536666666666666, "grad_norm": 1.387697458267212, "learning_rate": 1.3203703703703704e-05, "loss": 0.17, "step": 2289 }, { "epoch": 1.154, "grad_norm": 0.9346994757652283, "learning_rate": 1.3185185185185186e-05, "loss": 0.2006, "step": 2290 }, { "epoch": 1.1543333333333332, "grad_norm": 0.8176154494285583, "learning_rate": 1.3166666666666665e-05, "loss": 0.1518, "step": 2291 }, { "epoch": 1.1546666666666667, "grad_norm": 0.9127277731895447, "learning_rate": 1.3148148148148148e-05, "loss": 0.1942, "step": 2292 }, { "epoch": 1.155, "grad_norm": 1.1862456798553467, "learning_rate": 1.312962962962963e-05, "loss": 0.2057, "step": 2293 }, { "epoch": 1.1553333333333333, "grad_norm": 0.8911072015762329, "learning_rate": 1.3111111111111113e-05, "loss": 0.1819, "step": 2294 }, { "epoch": 1.1556666666666666, "grad_norm": 0.8386430144309998, "learning_rate": 1.3092592592592592e-05, "loss": 0.1758, "step": 2295 }, { "epoch": 1.156, "grad_norm": 1.1725108623504639, "learning_rate": 1.3074074074074074e-05, "loss": 0.2241, "step": 2296 }, { "epoch": 1.1563333333333334, "grad_norm": 0.8939727544784546, "learning_rate": 1.3055555555555557e-05, "loss": 0.2211, "step": 2297 }, { "epoch": 1.1566666666666667, "grad_norm": 1.0178627967834473, "learning_rate": 1.3037037037037036e-05, "loss": 0.2271, "step": 2298 }, { "epoch": 1.157, "grad_norm": 0.899093747138977, "learning_rate": 1.3018518518518518e-05, "loss": 0.1726, "step": 2299 }, { "epoch": 1.1573333333333333, "grad_norm": 1.3817046880722046, "learning_rate": 1.3000000000000001e-05, "loss": 0.1854, "step": 2300 }, { "epoch": 1.1576666666666666, "grad_norm": 1.2270386219024658, "learning_rate": 1.2981481481481483e-05, "loss": 0.2866, "step": 2301 }, { "epoch": 1.158, "grad_norm": 1.1368544101715088, "learning_rate": 1.2962962962962962e-05, "loss": 0.2241, "step": 2302 }, { "epoch": 1.1583333333333332, "grad_norm": 0.828377366065979, "learning_rate": 1.2944444444444445e-05, "loss": 0.1379, "step": 2303 }, { "epoch": 1.1586666666666667, "grad_norm": 1.1934839487075806, "learning_rate": 1.2925925925925927e-05, "loss": 0.2388, "step": 2304 }, { "epoch": 1.159, "grad_norm": 0.8342475295066833, "learning_rate": 1.2907407407407406e-05, "loss": 0.1924, "step": 2305 }, { "epoch": 1.1593333333333333, "grad_norm": 0.9818294644355774, "learning_rate": 1.2888888888888889e-05, "loss": 0.2401, "step": 2306 }, { "epoch": 1.1596666666666666, "grad_norm": 0.9281703233718872, "learning_rate": 1.2870370370370371e-05, "loss": 0.157, "step": 2307 }, { "epoch": 1.16, "grad_norm": 0.9676050543785095, "learning_rate": 1.2851851851851854e-05, "loss": 0.1994, "step": 2308 }, { "epoch": 1.1603333333333334, "grad_norm": 1.0548067092895508, "learning_rate": 1.2833333333333333e-05, "loss": 0.1825, "step": 2309 }, { "epoch": 1.1606666666666667, "grad_norm": 0.9721633791923523, "learning_rate": 1.2814814814814815e-05, "loss": 0.2289, "step": 2310 }, { "epoch": 1.161, "grad_norm": 0.8777031898498535, "learning_rate": 1.2796296296296298e-05, "loss": 0.1727, "step": 2311 }, { "epoch": 1.1613333333333333, "grad_norm": 0.894198477268219, "learning_rate": 1.2777777777777777e-05, "loss": 0.1943, "step": 2312 }, { "epoch": 1.1616666666666666, "grad_norm": 0.7951983213424683, "learning_rate": 1.275925925925926e-05, "loss": 0.1491, "step": 2313 }, { "epoch": 1.162, "grad_norm": 0.8266198039054871, "learning_rate": 1.2740740740740742e-05, "loss": 0.1775, "step": 2314 }, { "epoch": 1.1623333333333332, "grad_norm": 1.1339575052261353, "learning_rate": 1.2722222222222221e-05, "loss": 0.2145, "step": 2315 }, { "epoch": 1.1626666666666667, "grad_norm": 1.0392986536026, "learning_rate": 1.2703703703703704e-05, "loss": 0.2334, "step": 2316 }, { "epoch": 1.163, "grad_norm": 0.8919639587402344, "learning_rate": 1.2685185185185186e-05, "loss": 0.1868, "step": 2317 }, { "epoch": 1.1633333333333333, "grad_norm": 0.7974128127098083, "learning_rate": 1.2666666666666668e-05, "loss": 0.1765, "step": 2318 }, { "epoch": 1.1636666666666666, "grad_norm": 0.9419289827346802, "learning_rate": 1.2648148148148148e-05, "loss": 0.1847, "step": 2319 }, { "epoch": 1.164, "grad_norm": 0.9000619053840637, "learning_rate": 1.262962962962963e-05, "loss": 0.1655, "step": 2320 }, { "epoch": 1.1643333333333334, "grad_norm": 0.989544153213501, "learning_rate": 1.2611111111111113e-05, "loss": 0.1965, "step": 2321 }, { "epoch": 1.1646666666666667, "grad_norm": 0.9509243965148926, "learning_rate": 1.2592592592592592e-05, "loss": 0.1675, "step": 2322 }, { "epoch": 1.165, "grad_norm": 0.8960977792739868, "learning_rate": 1.2574074074074074e-05, "loss": 0.1786, "step": 2323 }, { "epoch": 1.1653333333333333, "grad_norm": 0.9834352731704712, "learning_rate": 1.2555555555555557e-05, "loss": 0.189, "step": 2324 }, { "epoch": 1.1656666666666666, "grad_norm": 0.9799903631210327, "learning_rate": 1.2537037037037039e-05, "loss": 0.1834, "step": 2325 }, { "epoch": 1.166, "grad_norm": 0.9234716892242432, "learning_rate": 1.2518518518518518e-05, "loss": 0.1844, "step": 2326 }, { "epoch": 1.1663333333333332, "grad_norm": 0.9154486656188965, "learning_rate": 1.25e-05, "loss": 0.1731, "step": 2327 }, { "epoch": 1.1666666666666667, "grad_norm": 0.8893579244613647, "learning_rate": 1.2481481481481481e-05, "loss": 0.1838, "step": 2328 }, { "epoch": 1.167, "grad_norm": 1.233702301979065, "learning_rate": 1.2462962962962964e-05, "loss": 0.259, "step": 2329 }, { "epoch": 1.1673333333333333, "grad_norm": 0.8539048433303833, "learning_rate": 1.2444444444444445e-05, "loss": 0.157, "step": 2330 }, { "epoch": 1.1676666666666666, "grad_norm": 1.0975748300552368, "learning_rate": 1.2425925925925927e-05, "loss": 0.2223, "step": 2331 }, { "epoch": 1.168, "grad_norm": 0.9203888773918152, "learning_rate": 1.2407407407407408e-05, "loss": 0.1925, "step": 2332 }, { "epoch": 1.1683333333333334, "grad_norm": 0.8802652359008789, "learning_rate": 1.238888888888889e-05, "loss": 0.1735, "step": 2333 }, { "epoch": 1.1686666666666667, "grad_norm": 0.9726187586784363, "learning_rate": 1.2370370370370371e-05, "loss": 0.1608, "step": 2334 }, { "epoch": 1.169, "grad_norm": 0.9395556449890137, "learning_rate": 1.2351851851851852e-05, "loss": 0.2206, "step": 2335 }, { "epoch": 1.1693333333333333, "grad_norm": 1.1647778749465942, "learning_rate": 1.2333333333333334e-05, "loss": 0.2112, "step": 2336 }, { "epoch": 1.1696666666666666, "grad_norm": 0.8982585668563843, "learning_rate": 1.2314814814814815e-05, "loss": 0.1603, "step": 2337 }, { "epoch": 1.17, "grad_norm": 0.9931663274765015, "learning_rate": 1.2296296296296298e-05, "loss": 0.1921, "step": 2338 }, { "epoch": 1.1703333333333332, "grad_norm": 0.9650465250015259, "learning_rate": 1.2277777777777778e-05, "loss": 0.1708, "step": 2339 }, { "epoch": 1.1706666666666667, "grad_norm": 0.9695413112640381, "learning_rate": 1.225925925925926e-05, "loss": 0.2029, "step": 2340 }, { "epoch": 1.171, "grad_norm": 0.8655105233192444, "learning_rate": 1.2240740740740742e-05, "loss": 0.1427, "step": 2341 }, { "epoch": 1.1713333333333333, "grad_norm": 0.9917687177658081, "learning_rate": 1.2222222222222222e-05, "loss": 0.2304, "step": 2342 }, { "epoch": 1.1716666666666666, "grad_norm": 0.9273653626441956, "learning_rate": 1.2203703703703705e-05, "loss": 0.1927, "step": 2343 }, { "epoch": 1.172, "grad_norm": 1.0843684673309326, "learning_rate": 1.2185185185185186e-05, "loss": 0.228, "step": 2344 }, { "epoch": 1.1723333333333334, "grad_norm": 0.9338691830635071, "learning_rate": 1.2166666666666668e-05, "loss": 0.1914, "step": 2345 }, { "epoch": 1.1726666666666667, "grad_norm": 1.0203696489334106, "learning_rate": 1.2148148148148149e-05, "loss": 0.2289, "step": 2346 }, { "epoch": 1.173, "grad_norm": 1.3889464139938354, "learning_rate": 1.212962962962963e-05, "loss": 0.2992, "step": 2347 }, { "epoch": 1.1733333333333333, "grad_norm": 1.192658543586731, "learning_rate": 1.2111111111111112e-05, "loss": 0.2454, "step": 2348 }, { "epoch": 1.1736666666666666, "grad_norm": 0.8189980983734131, "learning_rate": 1.2092592592592593e-05, "loss": 0.1438, "step": 2349 }, { "epoch": 1.174, "grad_norm": 0.8609191179275513, "learning_rate": 1.2074074074074075e-05, "loss": 0.1828, "step": 2350 }, { "epoch": 1.1743333333333332, "grad_norm": 0.8650686144828796, "learning_rate": 1.2055555555555556e-05, "loss": 0.1788, "step": 2351 }, { "epoch": 1.1746666666666667, "grad_norm": 0.9826124906539917, "learning_rate": 1.2037037037037037e-05, "loss": 0.2135, "step": 2352 }, { "epoch": 1.175, "grad_norm": 1.0277800559997559, "learning_rate": 1.201851851851852e-05, "loss": 0.2136, "step": 2353 }, { "epoch": 1.1753333333333333, "grad_norm": 0.9769812822341919, "learning_rate": 1.2e-05, "loss": 0.1987, "step": 2354 }, { "epoch": 1.1756666666666666, "grad_norm": 0.9910891652107239, "learning_rate": 1.1981481481481483e-05, "loss": 0.1805, "step": 2355 }, { "epoch": 1.176, "grad_norm": 1.1119892597198486, "learning_rate": 1.1962962962962964e-05, "loss": 0.2131, "step": 2356 }, { "epoch": 1.1763333333333335, "grad_norm": 0.8520978093147278, "learning_rate": 1.1944444444444446e-05, "loss": 0.1757, "step": 2357 }, { "epoch": 1.1766666666666667, "grad_norm": 0.9290887117385864, "learning_rate": 1.1925925925925927e-05, "loss": 0.2286, "step": 2358 }, { "epoch": 1.177, "grad_norm": 1.045520305633545, "learning_rate": 1.1907407407407408e-05, "loss": 0.2276, "step": 2359 }, { "epoch": 1.1773333333333333, "grad_norm": 0.9038102030754089, "learning_rate": 1.188888888888889e-05, "loss": 0.1824, "step": 2360 }, { "epoch": 1.1776666666666666, "grad_norm": 1.0485085248947144, "learning_rate": 1.1870370370370371e-05, "loss": 0.2568, "step": 2361 }, { "epoch": 1.178, "grad_norm": 1.0210354328155518, "learning_rate": 1.1851851851851853e-05, "loss": 0.1857, "step": 2362 }, { "epoch": 1.1783333333333332, "grad_norm": 1.1301509141921997, "learning_rate": 1.1833333333333334e-05, "loss": 0.2212, "step": 2363 }, { "epoch": 1.1786666666666668, "grad_norm": 0.995701789855957, "learning_rate": 1.1814814814814817e-05, "loss": 0.2179, "step": 2364 }, { "epoch": 1.179, "grad_norm": 1.8561822175979614, "learning_rate": 1.1796296296296297e-05, "loss": 0.1619, "step": 2365 }, { "epoch": 1.1793333333333333, "grad_norm": 1.0271340608596802, "learning_rate": 1.1777777777777778e-05, "loss": 0.2015, "step": 2366 }, { "epoch": 1.1796666666666666, "grad_norm": 0.9209191799163818, "learning_rate": 1.175925925925926e-05, "loss": 0.1897, "step": 2367 }, { "epoch": 1.18, "grad_norm": 0.8936677575111389, "learning_rate": 1.1740740740740741e-05, "loss": 0.1592, "step": 2368 }, { "epoch": 1.1803333333333335, "grad_norm": 1.0135260820388794, "learning_rate": 1.1722222222222224e-05, "loss": 0.2093, "step": 2369 }, { "epoch": 1.1806666666666668, "grad_norm": 0.9799386858940125, "learning_rate": 1.1703703703703705e-05, "loss": 0.214, "step": 2370 }, { "epoch": 1.181, "grad_norm": 1.2087537050247192, "learning_rate": 1.1685185185185185e-05, "loss": 0.1563, "step": 2371 }, { "epoch": 1.1813333333333333, "grad_norm": 0.8062125444412231, "learning_rate": 1.1666666666666668e-05, "loss": 0.169, "step": 2372 }, { "epoch": 1.1816666666666666, "grad_norm": 0.9861561059951782, "learning_rate": 1.1648148148148149e-05, "loss": 0.2127, "step": 2373 }, { "epoch": 1.182, "grad_norm": 1.0344388484954834, "learning_rate": 1.1629629629629631e-05, "loss": 0.2537, "step": 2374 }, { "epoch": 1.1823333333333332, "grad_norm": 0.9109979271888733, "learning_rate": 1.1611111111111112e-05, "loss": 0.2067, "step": 2375 }, { "epoch": 1.1826666666666668, "grad_norm": 0.898750364780426, "learning_rate": 1.1592592592592594e-05, "loss": 0.202, "step": 2376 }, { "epoch": 1.183, "grad_norm": 1.0480680465698242, "learning_rate": 1.1574074074074075e-05, "loss": 0.1996, "step": 2377 }, { "epoch": 1.1833333333333333, "grad_norm": 1.1241027116775513, "learning_rate": 1.1555555555555556e-05, "loss": 0.2512, "step": 2378 }, { "epoch": 1.1836666666666666, "grad_norm": 1.035653829574585, "learning_rate": 1.1537037037037038e-05, "loss": 0.2428, "step": 2379 }, { "epoch": 1.184, "grad_norm": 0.9017251133918762, "learning_rate": 1.151851851851852e-05, "loss": 0.1657, "step": 2380 }, { "epoch": 1.1843333333333332, "grad_norm": 1.0372421741485596, "learning_rate": 1.1500000000000002e-05, "loss": 0.2374, "step": 2381 }, { "epoch": 1.1846666666666668, "grad_norm": 1.0673779249191284, "learning_rate": 1.1481481481481482e-05, "loss": 0.1732, "step": 2382 }, { "epoch": 1.185, "grad_norm": 0.8439103364944458, "learning_rate": 1.1462962962962963e-05, "loss": 0.1573, "step": 2383 }, { "epoch": 1.1853333333333333, "grad_norm": 0.8490680456161499, "learning_rate": 1.1444444444444446e-05, "loss": 0.1927, "step": 2384 }, { "epoch": 1.1856666666666666, "grad_norm": 0.8952745795249939, "learning_rate": 1.1425925925925927e-05, "loss": 0.1534, "step": 2385 }, { "epoch": 1.186, "grad_norm": 0.8070921301841736, "learning_rate": 1.1407407407407409e-05, "loss": 0.1931, "step": 2386 }, { "epoch": 1.1863333333333332, "grad_norm": 0.8862190842628479, "learning_rate": 1.138888888888889e-05, "loss": 0.2086, "step": 2387 }, { "epoch": 1.1866666666666668, "grad_norm": 0.9107018113136292, "learning_rate": 1.1370370370370372e-05, "loss": 0.163, "step": 2388 }, { "epoch": 1.187, "grad_norm": 0.920968770980835, "learning_rate": 1.1351851851851853e-05, "loss": 0.1902, "step": 2389 }, { "epoch": 1.1873333333333334, "grad_norm": 1.0496678352355957, "learning_rate": 1.1333333333333334e-05, "loss": 0.2153, "step": 2390 }, { "epoch": 1.1876666666666666, "grad_norm": 0.8646895885467529, "learning_rate": 1.1314814814814816e-05, "loss": 0.1703, "step": 2391 }, { "epoch": 1.188, "grad_norm": 0.827187180519104, "learning_rate": 1.1296296296296297e-05, "loss": 0.1609, "step": 2392 }, { "epoch": 1.1883333333333332, "grad_norm": 0.8656892776489258, "learning_rate": 1.127777777777778e-05, "loss": 0.1907, "step": 2393 }, { "epoch": 1.1886666666666668, "grad_norm": 0.8568325638771057, "learning_rate": 1.125925925925926e-05, "loss": 0.1727, "step": 2394 }, { "epoch": 1.189, "grad_norm": 0.9740400314331055, "learning_rate": 1.1240740740740743e-05, "loss": 0.1885, "step": 2395 }, { "epoch": 1.1893333333333334, "grad_norm": 0.8829242587089539, "learning_rate": 1.1222222222222224e-05, "loss": 0.1682, "step": 2396 }, { "epoch": 1.1896666666666667, "grad_norm": 1.0749387741088867, "learning_rate": 1.1203703703703704e-05, "loss": 0.2147, "step": 2397 }, { "epoch": 1.19, "grad_norm": 1.2671093940734863, "learning_rate": 1.1185185185185187e-05, "loss": 0.2345, "step": 2398 }, { "epoch": 1.1903333333333332, "grad_norm": 0.8773061633110046, "learning_rate": 1.1166666666666668e-05, "loss": 0.1721, "step": 2399 }, { "epoch": 1.1906666666666668, "grad_norm": 0.858053982257843, "learning_rate": 1.1148148148148148e-05, "loss": 0.2169, "step": 2400 }, { "epoch": 1.191, "grad_norm": 0.9698401689529419, "learning_rate": 1.1129629629629631e-05, "loss": 0.1832, "step": 2401 }, { "epoch": 1.1913333333333334, "grad_norm": 1.0493662357330322, "learning_rate": 1.1111111111111112e-05, "loss": 0.2041, "step": 2402 }, { "epoch": 1.1916666666666667, "grad_norm": 1.3105801343917847, "learning_rate": 1.1092592592592594e-05, "loss": 0.2152, "step": 2403 }, { "epoch": 1.192, "grad_norm": 0.8877505660057068, "learning_rate": 1.1074074074074075e-05, "loss": 0.1395, "step": 2404 }, { "epoch": 1.1923333333333332, "grad_norm": 1.480436086654663, "learning_rate": 1.1055555555555556e-05, "loss": 0.1723, "step": 2405 }, { "epoch": 1.1926666666666668, "grad_norm": 0.9312608242034912, "learning_rate": 1.1037037037037038e-05, "loss": 0.1853, "step": 2406 }, { "epoch": 1.193, "grad_norm": 1.0320396423339844, "learning_rate": 1.1018518518518519e-05, "loss": 0.2001, "step": 2407 }, { "epoch": 1.1933333333333334, "grad_norm": 0.8101778030395508, "learning_rate": 1.1000000000000001e-05, "loss": 0.141, "step": 2408 }, { "epoch": 1.1936666666666667, "grad_norm": 1.0000907182693481, "learning_rate": 1.0981481481481482e-05, "loss": 0.1935, "step": 2409 }, { "epoch": 1.194, "grad_norm": 0.9354886412620544, "learning_rate": 1.0962962962962963e-05, "loss": 0.1688, "step": 2410 }, { "epoch": 1.1943333333333332, "grad_norm": 0.9462569952011108, "learning_rate": 1.0944444444444445e-05, "loss": 0.1917, "step": 2411 }, { "epoch": 1.1946666666666665, "grad_norm": 0.9907427430152893, "learning_rate": 1.0925925925925926e-05, "loss": 0.205, "step": 2412 }, { "epoch": 1.195, "grad_norm": 0.8275697231292725, "learning_rate": 1.0907407407407409e-05, "loss": 0.142, "step": 2413 }, { "epoch": 1.1953333333333334, "grad_norm": 0.804972231388092, "learning_rate": 1.088888888888889e-05, "loss": 0.1581, "step": 2414 }, { "epoch": 1.1956666666666667, "grad_norm": 1.0068371295928955, "learning_rate": 1.087037037037037e-05, "loss": 0.2044, "step": 2415 }, { "epoch": 1.196, "grad_norm": 0.914963960647583, "learning_rate": 1.0851851851851853e-05, "loss": 0.1605, "step": 2416 }, { "epoch": 1.1963333333333332, "grad_norm": 0.9598990082740784, "learning_rate": 1.0833333333333334e-05, "loss": 0.2339, "step": 2417 }, { "epoch": 1.1966666666666668, "grad_norm": 0.8896540403366089, "learning_rate": 1.0814814814814814e-05, "loss": 0.1769, "step": 2418 }, { "epoch": 1.197, "grad_norm": 1.0657458305358887, "learning_rate": 1.0796296296296297e-05, "loss": 0.2304, "step": 2419 }, { "epoch": 1.1973333333333334, "grad_norm": 0.9208482503890991, "learning_rate": 1.0777777777777778e-05, "loss": 0.1753, "step": 2420 }, { "epoch": 1.1976666666666667, "grad_norm": 1.0866022109985352, "learning_rate": 1.075925925925926e-05, "loss": 0.193, "step": 2421 }, { "epoch": 1.198, "grad_norm": 1.0109961032867432, "learning_rate": 1.074074074074074e-05, "loss": 0.1633, "step": 2422 }, { "epoch": 1.1983333333333333, "grad_norm": 0.8668932914733887, "learning_rate": 1.0722222222222222e-05, "loss": 0.1604, "step": 2423 }, { "epoch": 1.1986666666666665, "grad_norm": 0.9153904914855957, "learning_rate": 1.0703703703703704e-05, "loss": 0.1723, "step": 2424 }, { "epoch": 1.199, "grad_norm": 0.800855278968811, "learning_rate": 1.0685185185185185e-05, "loss": 0.1447, "step": 2425 }, { "epoch": 1.1993333333333334, "grad_norm": 0.8523545861244202, "learning_rate": 1.0666666666666667e-05, "loss": 0.1683, "step": 2426 }, { "epoch": 1.1996666666666667, "grad_norm": 0.9978244304656982, "learning_rate": 1.0648148148148148e-05, "loss": 0.2194, "step": 2427 }, { "epoch": 1.2, "grad_norm": 1.332067847251892, "learning_rate": 1.0629629629629629e-05, "loss": 0.2193, "step": 2428 }, { "epoch": 1.2003333333333333, "grad_norm": 0.8926036953926086, "learning_rate": 1.0611111111111111e-05, "loss": 0.202, "step": 2429 }, { "epoch": 1.2006666666666668, "grad_norm": 0.9450075626373291, "learning_rate": 1.0592592592592592e-05, "loss": 0.187, "step": 2430 }, { "epoch": 1.201, "grad_norm": 0.8496041297912598, "learning_rate": 1.0574074074074075e-05, "loss": 0.1501, "step": 2431 }, { "epoch": 1.2013333333333334, "grad_norm": 0.894069254398346, "learning_rate": 1.0555555555555555e-05, "loss": 0.1714, "step": 2432 }, { "epoch": 1.2016666666666667, "grad_norm": 0.8396603465080261, "learning_rate": 1.0537037037037036e-05, "loss": 0.1665, "step": 2433 }, { "epoch": 1.202, "grad_norm": 1.206847071647644, "learning_rate": 1.0518518518518519e-05, "loss": 0.199, "step": 2434 }, { "epoch": 1.2023333333333333, "grad_norm": 0.9432430863380432, "learning_rate": 1.05e-05, "loss": 0.2016, "step": 2435 }, { "epoch": 1.2026666666666666, "grad_norm": 0.9682559967041016, "learning_rate": 1.0481481481481482e-05, "loss": 0.2018, "step": 2436 }, { "epoch": 1.203, "grad_norm": 0.9412656426429749, "learning_rate": 1.0462962962962963e-05, "loss": 0.166, "step": 2437 }, { "epoch": 1.2033333333333334, "grad_norm": 1.0931813716888428, "learning_rate": 1.0444444444444445e-05, "loss": 0.223, "step": 2438 }, { "epoch": 1.2036666666666667, "grad_norm": 0.9936985969543457, "learning_rate": 1.0425925925925926e-05, "loss": 0.1786, "step": 2439 }, { "epoch": 1.204, "grad_norm": 1.0666356086730957, "learning_rate": 1.0407407407407407e-05, "loss": 0.2497, "step": 2440 }, { "epoch": 1.2043333333333333, "grad_norm": 0.8734342455863953, "learning_rate": 1.038888888888889e-05, "loss": 0.1797, "step": 2441 }, { "epoch": 1.2046666666666668, "grad_norm": 0.8564519286155701, "learning_rate": 1.037037037037037e-05, "loss": 0.1522, "step": 2442 }, { "epoch": 1.205, "grad_norm": 0.9328429698944092, "learning_rate": 1.0351851851851852e-05, "loss": 0.2006, "step": 2443 }, { "epoch": 1.2053333333333334, "grad_norm": 0.8193173408508301, "learning_rate": 1.0333333333333333e-05, "loss": 0.1538, "step": 2444 }, { "epoch": 1.2056666666666667, "grad_norm": 0.9523964524269104, "learning_rate": 1.0314814814814814e-05, "loss": 0.1769, "step": 2445 }, { "epoch": 1.206, "grad_norm": 0.7777414321899414, "learning_rate": 1.0296296296296296e-05, "loss": 0.1301, "step": 2446 }, { "epoch": 1.2063333333333333, "grad_norm": 0.8991370797157288, "learning_rate": 1.0277777777777777e-05, "loss": 0.1761, "step": 2447 }, { "epoch": 1.2066666666666666, "grad_norm": 0.9593900442123413, "learning_rate": 1.025925925925926e-05, "loss": 0.1893, "step": 2448 }, { "epoch": 1.207, "grad_norm": 0.900973916053772, "learning_rate": 1.024074074074074e-05, "loss": 0.1586, "step": 2449 }, { "epoch": 1.2073333333333334, "grad_norm": 0.8921811580657959, "learning_rate": 1.0222222222222223e-05, "loss": 0.1856, "step": 2450 }, { "epoch": 1.2076666666666667, "grad_norm": 0.9778081774711609, "learning_rate": 1.0203703703703704e-05, "loss": 0.1747, "step": 2451 }, { "epoch": 1.208, "grad_norm": 0.8724320530891418, "learning_rate": 1.0185185185185185e-05, "loss": 0.1747, "step": 2452 }, { "epoch": 1.2083333333333333, "grad_norm": 0.9022849798202515, "learning_rate": 1.0166666666666667e-05, "loss": 0.1726, "step": 2453 }, { "epoch": 1.2086666666666668, "grad_norm": 0.8412411212921143, "learning_rate": 1.0148148148148148e-05, "loss": 0.1719, "step": 2454 }, { "epoch": 1.209, "grad_norm": 0.8796981573104858, "learning_rate": 1.012962962962963e-05, "loss": 0.2084, "step": 2455 }, { "epoch": 1.2093333333333334, "grad_norm": 1.0028024911880493, "learning_rate": 1.0111111111111111e-05, "loss": 0.2152, "step": 2456 }, { "epoch": 1.2096666666666667, "grad_norm": 1.0448696613311768, "learning_rate": 1.0092592592592594e-05, "loss": 0.1603, "step": 2457 }, { "epoch": 1.21, "grad_norm": 0.912966787815094, "learning_rate": 1.0074074074074074e-05, "loss": 0.1589, "step": 2458 }, { "epoch": 1.2103333333333333, "grad_norm": 0.910209059715271, "learning_rate": 1.0055555555555555e-05, "loss": 0.149, "step": 2459 }, { "epoch": 1.2106666666666666, "grad_norm": 1.0989863872528076, "learning_rate": 1.0037037037037038e-05, "loss": 0.2322, "step": 2460 }, { "epoch": 1.211, "grad_norm": 0.9206047654151917, "learning_rate": 1.0018518518518518e-05, "loss": 0.1781, "step": 2461 }, { "epoch": 1.2113333333333334, "grad_norm": 1.5872405767440796, "learning_rate": 1e-05, "loss": 0.167, "step": 2462 }, { "epoch": 1.2116666666666667, "grad_norm": 1.0123355388641357, "learning_rate": 9.981481481481482e-06, "loss": 0.1935, "step": 2463 }, { "epoch": 1.212, "grad_norm": 0.9455386400222778, "learning_rate": 9.962962962962962e-06, "loss": 0.1969, "step": 2464 }, { "epoch": 1.2123333333333333, "grad_norm": 1.0086538791656494, "learning_rate": 9.944444444444445e-06, "loss": 0.2255, "step": 2465 }, { "epoch": 1.2126666666666668, "grad_norm": 0.8727650046348572, "learning_rate": 9.925925925925926e-06, "loss": 0.1618, "step": 2466 }, { "epoch": 1.213, "grad_norm": 0.9240233898162842, "learning_rate": 9.907407407407408e-06, "loss": 0.1959, "step": 2467 }, { "epoch": 1.2133333333333334, "grad_norm": 0.8468765020370483, "learning_rate": 9.888888888888889e-06, "loss": 0.1484, "step": 2468 }, { "epoch": 1.2136666666666667, "grad_norm": 0.9340613484382629, "learning_rate": 9.870370370370371e-06, "loss": 0.1801, "step": 2469 }, { "epoch": 1.214, "grad_norm": 1.0150049924850464, "learning_rate": 9.851851851851852e-06, "loss": 0.1803, "step": 2470 }, { "epoch": 1.2143333333333333, "grad_norm": 1.026406168937683, "learning_rate": 9.833333333333333e-06, "loss": 0.1888, "step": 2471 }, { "epoch": 1.2146666666666666, "grad_norm": 0.9774262309074402, "learning_rate": 9.814814814814815e-06, "loss": 0.2122, "step": 2472 }, { "epoch": 1.215, "grad_norm": 1.0074964761734009, "learning_rate": 9.796296296296296e-06, "loss": 0.1979, "step": 2473 }, { "epoch": 1.2153333333333334, "grad_norm": 0.8987526893615723, "learning_rate": 9.777777777777779e-06, "loss": 0.1654, "step": 2474 }, { "epoch": 1.2156666666666667, "grad_norm": 0.8959802985191345, "learning_rate": 9.75925925925926e-06, "loss": 0.1891, "step": 2475 }, { "epoch": 1.216, "grad_norm": 1.7085167169570923, "learning_rate": 9.74074074074074e-06, "loss": 0.1865, "step": 2476 }, { "epoch": 1.2163333333333333, "grad_norm": 0.8780807256698608, "learning_rate": 9.722222222222223e-06, "loss": 0.1493, "step": 2477 }, { "epoch": 1.2166666666666668, "grad_norm": 1.5032075643539429, "learning_rate": 9.703703703703703e-06, "loss": 0.2448, "step": 2478 }, { "epoch": 1.217, "grad_norm": 1.101014256477356, "learning_rate": 9.685185185185186e-06, "loss": 0.2357, "step": 2479 }, { "epoch": 1.2173333333333334, "grad_norm": 1.6080784797668457, "learning_rate": 9.666666666666667e-06, "loss": 0.2572, "step": 2480 }, { "epoch": 1.2176666666666667, "grad_norm": 0.9070063233375549, "learning_rate": 9.64814814814815e-06, "loss": 0.2066, "step": 2481 }, { "epoch": 1.218, "grad_norm": 1.0592137575149536, "learning_rate": 9.62962962962963e-06, "loss": 0.1896, "step": 2482 }, { "epoch": 1.2183333333333333, "grad_norm": 0.9901026487350464, "learning_rate": 9.61111111111111e-06, "loss": 0.2128, "step": 2483 }, { "epoch": 1.2186666666666666, "grad_norm": 1.0413964986801147, "learning_rate": 9.592592592592593e-06, "loss": 0.208, "step": 2484 }, { "epoch": 1.219, "grad_norm": 0.9524031281471252, "learning_rate": 9.574074074074074e-06, "loss": 0.1965, "step": 2485 }, { "epoch": 1.2193333333333334, "grad_norm": 1.1905667781829834, "learning_rate": 9.555555555555556e-06, "loss": 0.2608, "step": 2486 }, { "epoch": 1.2196666666666667, "grad_norm": 1.0449979305267334, "learning_rate": 9.537037037037037e-06, "loss": 0.2418, "step": 2487 }, { "epoch": 1.22, "grad_norm": 0.8597928285598755, "learning_rate": 9.51851851851852e-06, "loss": 0.2013, "step": 2488 }, { "epoch": 1.2203333333333333, "grad_norm": 0.8524590730667114, "learning_rate": 9.5e-06, "loss": 0.1813, "step": 2489 }, { "epoch": 1.2206666666666668, "grad_norm": 0.9972014427185059, "learning_rate": 9.481481481481481e-06, "loss": 0.1777, "step": 2490 }, { "epoch": 1.221, "grad_norm": 0.9574674367904663, "learning_rate": 9.462962962962964e-06, "loss": 0.1802, "step": 2491 }, { "epoch": 1.2213333333333334, "grad_norm": 1.100608468055725, "learning_rate": 9.444444444444445e-06, "loss": 0.2782, "step": 2492 }, { "epoch": 1.2216666666666667, "grad_norm": 0.8836084604263306, "learning_rate": 9.425925925925927e-06, "loss": 0.1657, "step": 2493 }, { "epoch": 1.222, "grad_norm": 0.7987039089202881, "learning_rate": 9.407407407407408e-06, "loss": 0.1484, "step": 2494 }, { "epoch": 1.2223333333333333, "grad_norm": 0.7586180567741394, "learning_rate": 9.388888888888889e-06, "loss": 0.1356, "step": 2495 }, { "epoch": 1.2226666666666666, "grad_norm": 0.8159490823745728, "learning_rate": 9.370370370370371e-06, "loss": 0.1581, "step": 2496 }, { "epoch": 1.223, "grad_norm": 1.057168960571289, "learning_rate": 9.351851851851852e-06, "loss": 0.2346, "step": 2497 }, { "epoch": 1.2233333333333334, "grad_norm": 1.1058357954025269, "learning_rate": 9.333333333333334e-06, "loss": 0.2737, "step": 2498 }, { "epoch": 1.2236666666666667, "grad_norm": 0.9783181548118591, "learning_rate": 9.314814814814815e-06, "loss": 0.1826, "step": 2499 }, { "epoch": 1.224, "grad_norm": 0.9163445830345154, "learning_rate": 9.296296296296298e-06, "loss": 0.1755, "step": 2500 }, { "epoch": 1.2243333333333333, "grad_norm": 1.0868847370147705, "learning_rate": 9.277777777777778e-06, "loss": 0.2118, "step": 2501 }, { "epoch": 1.2246666666666666, "grad_norm": 1.042824625968933, "learning_rate": 9.259259259259259e-06, "loss": 0.1987, "step": 2502 }, { "epoch": 1.225, "grad_norm": 1.1092015504837036, "learning_rate": 9.240740740740742e-06, "loss": 0.2423, "step": 2503 }, { "epoch": 1.2253333333333334, "grad_norm": 0.9695181846618652, "learning_rate": 9.222222222222222e-06, "loss": 0.168, "step": 2504 }, { "epoch": 1.2256666666666667, "grad_norm": 0.9761254787445068, "learning_rate": 9.203703703703705e-06, "loss": 0.1365, "step": 2505 }, { "epoch": 1.226, "grad_norm": 0.865266740322113, "learning_rate": 9.185185185185186e-06, "loss": 0.1544, "step": 2506 }, { "epoch": 1.2263333333333333, "grad_norm": 1.0077999830245972, "learning_rate": 9.166666666666666e-06, "loss": 0.2089, "step": 2507 }, { "epoch": 1.2266666666666666, "grad_norm": 1.0453605651855469, "learning_rate": 9.148148148148149e-06, "loss": 0.1671, "step": 2508 }, { "epoch": 1.227, "grad_norm": 1.178647518157959, "learning_rate": 9.12962962962963e-06, "loss": 0.1988, "step": 2509 }, { "epoch": 1.2273333333333334, "grad_norm": 0.8370939493179321, "learning_rate": 9.111111111111112e-06, "loss": 0.1466, "step": 2510 }, { "epoch": 1.2276666666666667, "grad_norm": 0.8363418579101562, "learning_rate": 9.092592592592593e-06, "loss": 0.1407, "step": 2511 }, { "epoch": 1.228, "grad_norm": 1.0834261178970337, "learning_rate": 9.074074074074075e-06, "loss": 0.2368, "step": 2512 }, { "epoch": 1.2283333333333333, "grad_norm": 0.8101013898849487, "learning_rate": 9.055555555555556e-06, "loss": 0.1526, "step": 2513 }, { "epoch": 1.2286666666666666, "grad_norm": 0.9910758137702942, "learning_rate": 9.037037037037037e-06, "loss": 0.1808, "step": 2514 }, { "epoch": 1.229, "grad_norm": 0.8570390343666077, "learning_rate": 9.01851851851852e-06, "loss": 0.1485, "step": 2515 }, { "epoch": 1.2293333333333334, "grad_norm": 1.0612525939941406, "learning_rate": 9e-06, "loss": 0.2512, "step": 2516 }, { "epoch": 1.2296666666666667, "grad_norm": 0.9105696082115173, "learning_rate": 8.981481481481483e-06, "loss": 0.1502, "step": 2517 }, { "epoch": 1.23, "grad_norm": 0.8979559540748596, "learning_rate": 8.962962962962963e-06, "loss": 0.1745, "step": 2518 }, { "epoch": 1.2303333333333333, "grad_norm": 0.998579740524292, "learning_rate": 8.944444444444444e-06, "loss": 0.2224, "step": 2519 }, { "epoch": 1.2306666666666666, "grad_norm": 1.050783634185791, "learning_rate": 8.925925925925927e-06, "loss": 0.1991, "step": 2520 }, { "epoch": 1.231, "grad_norm": 0.8856275081634521, "learning_rate": 8.907407407407408e-06, "loss": 0.1746, "step": 2521 }, { "epoch": 1.2313333333333334, "grad_norm": 1.2881275415420532, "learning_rate": 8.88888888888889e-06, "loss": 0.227, "step": 2522 }, { "epoch": 1.2316666666666667, "grad_norm": 1.0731322765350342, "learning_rate": 8.87037037037037e-06, "loss": 0.2155, "step": 2523 }, { "epoch": 1.232, "grad_norm": 0.8806699514389038, "learning_rate": 8.851851851851853e-06, "loss": 0.1646, "step": 2524 }, { "epoch": 1.2323333333333333, "grad_norm": 1.0441854000091553, "learning_rate": 8.833333333333334e-06, "loss": 0.2103, "step": 2525 }, { "epoch": 1.2326666666666666, "grad_norm": 0.9226812720298767, "learning_rate": 8.814814814814815e-06, "loss": 0.1814, "step": 2526 }, { "epoch": 1.233, "grad_norm": 0.9000945091247559, "learning_rate": 8.796296296296297e-06, "loss": 0.192, "step": 2527 }, { "epoch": 1.2333333333333334, "grad_norm": 1.0679408311843872, "learning_rate": 8.777777777777778e-06, "loss": 0.204, "step": 2528 }, { "epoch": 1.2336666666666667, "grad_norm": 0.8810842037200928, "learning_rate": 8.75925925925926e-06, "loss": 0.1639, "step": 2529 }, { "epoch": 1.234, "grad_norm": 0.9961338043212891, "learning_rate": 8.740740740740741e-06, "loss": 0.2059, "step": 2530 }, { "epoch": 1.2343333333333333, "grad_norm": 0.808376133441925, "learning_rate": 8.722222222222224e-06, "loss": 0.1695, "step": 2531 }, { "epoch": 1.2346666666666666, "grad_norm": 1.0084871053695679, "learning_rate": 8.703703703703705e-06, "loss": 0.2068, "step": 2532 }, { "epoch": 1.2349999999999999, "grad_norm": 0.8352002501487732, "learning_rate": 8.685185185185185e-06, "loss": 0.1478, "step": 2533 }, { "epoch": 1.2353333333333334, "grad_norm": 1.009437084197998, "learning_rate": 8.666666666666668e-06, "loss": 0.1714, "step": 2534 }, { "epoch": 1.2356666666666667, "grad_norm": 0.8519355654716492, "learning_rate": 8.648148148148149e-06, "loss": 0.159, "step": 2535 }, { "epoch": 1.236, "grad_norm": 0.8853855729103088, "learning_rate": 8.629629629629631e-06, "loss": 0.1948, "step": 2536 }, { "epoch": 1.2363333333333333, "grad_norm": 1.0543920993804932, "learning_rate": 8.611111111111112e-06, "loss": 0.217, "step": 2537 }, { "epoch": 1.2366666666666666, "grad_norm": 0.8974376916885376, "learning_rate": 8.592592592592593e-06, "loss": 0.179, "step": 2538 }, { "epoch": 1.237, "grad_norm": 1.0803145170211792, "learning_rate": 8.574074074074075e-06, "loss": 0.1345, "step": 2539 }, { "epoch": 1.2373333333333334, "grad_norm": 0.8542050123214722, "learning_rate": 8.555555555555556e-06, "loss": 0.1537, "step": 2540 }, { "epoch": 1.2376666666666667, "grad_norm": 0.9252827167510986, "learning_rate": 8.537037037037038e-06, "loss": 0.1586, "step": 2541 }, { "epoch": 1.238, "grad_norm": 1.0106323957443237, "learning_rate": 8.518518518518519e-06, "loss": 0.2161, "step": 2542 }, { "epoch": 1.2383333333333333, "grad_norm": 1.0413882732391357, "learning_rate": 8.500000000000002e-06, "loss": 0.2112, "step": 2543 }, { "epoch": 1.2386666666666666, "grad_norm": 0.9911980032920837, "learning_rate": 8.481481481481482e-06, "loss": 0.2277, "step": 2544 }, { "epoch": 1.2389999999999999, "grad_norm": 0.9290024638175964, "learning_rate": 8.462962962962963e-06, "loss": 0.1687, "step": 2545 }, { "epoch": 1.2393333333333334, "grad_norm": 1.1617422103881836, "learning_rate": 8.444444444444446e-06, "loss": 0.1886, "step": 2546 }, { "epoch": 1.2396666666666667, "grad_norm": 1.0593061447143555, "learning_rate": 8.425925925925926e-06, "loss": 0.2309, "step": 2547 }, { "epoch": 1.24, "grad_norm": 0.8044810891151428, "learning_rate": 8.407407407407409e-06, "loss": 0.1192, "step": 2548 }, { "epoch": 1.2403333333333333, "grad_norm": 0.9200271964073181, "learning_rate": 8.38888888888889e-06, "loss": 0.1614, "step": 2549 }, { "epoch": 1.2406666666666666, "grad_norm": 0.8241491317749023, "learning_rate": 8.37037037037037e-06, "loss": 0.1511, "step": 2550 }, { "epoch": 1.241, "grad_norm": 0.9687180519104004, "learning_rate": 8.351851851851853e-06, "loss": 0.1876, "step": 2551 }, { "epoch": 1.2413333333333334, "grad_norm": 0.7691722512245178, "learning_rate": 8.333333333333334e-06, "loss": 0.1442, "step": 2552 }, { "epoch": 1.2416666666666667, "grad_norm": 1.6151025295257568, "learning_rate": 8.314814814814816e-06, "loss": 0.2802, "step": 2553 }, { "epoch": 1.242, "grad_norm": 1.0393931865692139, "learning_rate": 8.296296296296297e-06, "loss": 0.2275, "step": 2554 }, { "epoch": 1.2423333333333333, "grad_norm": 0.8847096562385559, "learning_rate": 8.27777777777778e-06, "loss": 0.1987, "step": 2555 }, { "epoch": 1.2426666666666666, "grad_norm": 0.962252676486969, "learning_rate": 8.25925925925926e-06, "loss": 0.1871, "step": 2556 }, { "epoch": 1.2429999999999999, "grad_norm": 1.9275672435760498, "learning_rate": 8.240740740740741e-06, "loss": 0.1705, "step": 2557 }, { "epoch": 1.2433333333333334, "grad_norm": 0.8879818320274353, "learning_rate": 8.222222222222223e-06, "loss": 0.1999, "step": 2558 }, { "epoch": 1.2436666666666667, "grad_norm": 0.8100075125694275, "learning_rate": 8.203703703703704e-06, "loss": 0.1558, "step": 2559 }, { "epoch": 1.244, "grad_norm": 0.9387907385826111, "learning_rate": 8.185185185185187e-06, "loss": 0.2065, "step": 2560 }, { "epoch": 1.2443333333333333, "grad_norm": 1.2042814493179321, "learning_rate": 8.166666666666668e-06, "loss": 0.2026, "step": 2561 }, { "epoch": 1.2446666666666666, "grad_norm": 0.9653371572494507, "learning_rate": 8.14814814814815e-06, "loss": 0.2305, "step": 2562 }, { "epoch": 1.245, "grad_norm": 0.8897085785865784, "learning_rate": 8.12962962962963e-06, "loss": 0.1789, "step": 2563 }, { "epoch": 1.2453333333333334, "grad_norm": 0.9638081789016724, "learning_rate": 8.111111111111112e-06, "loss": 0.2366, "step": 2564 }, { "epoch": 1.2456666666666667, "grad_norm": 1.0335400104522705, "learning_rate": 8.092592592592594e-06, "loss": 0.2077, "step": 2565 }, { "epoch": 1.246, "grad_norm": 0.8551097512245178, "learning_rate": 8.074074074074075e-06, "loss": 0.1587, "step": 2566 }, { "epoch": 1.2463333333333333, "grad_norm": 0.8972370028495789, "learning_rate": 8.055555555555557e-06, "loss": 0.1765, "step": 2567 }, { "epoch": 1.2466666666666666, "grad_norm": 1.2043334245681763, "learning_rate": 8.037037037037038e-06, "loss": 0.2456, "step": 2568 }, { "epoch": 1.2469999999999999, "grad_norm": 1.0676496028900146, "learning_rate": 8.018518518518519e-06, "loss": 0.1829, "step": 2569 }, { "epoch": 1.2473333333333334, "grad_norm": 0.8685334324836731, "learning_rate": 8.000000000000001e-06, "loss": 0.1749, "step": 2570 }, { "epoch": 1.2476666666666667, "grad_norm": 0.7867780327796936, "learning_rate": 7.981481481481482e-06, "loss": 0.1633, "step": 2571 }, { "epoch": 1.248, "grad_norm": 1.265339732170105, "learning_rate": 7.962962962962963e-06, "loss": 0.2036, "step": 2572 }, { "epoch": 1.2483333333333333, "grad_norm": 0.9318132400512695, "learning_rate": 7.944444444444445e-06, "loss": 0.1655, "step": 2573 }, { "epoch": 1.2486666666666666, "grad_norm": 0.7623121738433838, "learning_rate": 7.925925925925926e-06, "loss": 0.1484, "step": 2574 }, { "epoch": 1.249, "grad_norm": 0.8855476975440979, "learning_rate": 7.907407407407409e-06, "loss": 0.1894, "step": 2575 }, { "epoch": 1.2493333333333334, "grad_norm": 0.9787425994873047, "learning_rate": 7.88888888888889e-06, "loss": 0.1727, "step": 2576 }, { "epoch": 1.2496666666666667, "grad_norm": 0.9816415905952454, "learning_rate": 7.87037037037037e-06, "loss": 0.2039, "step": 2577 }, { "epoch": 1.25, "grad_norm": 0.9629823565483093, "learning_rate": 7.851851851851853e-06, "loss": 0.1695, "step": 2578 }, { "epoch": 1.2503333333333333, "grad_norm": 0.9987682104110718, "learning_rate": 7.833333333333333e-06, "loss": 0.1535, "step": 2579 }, { "epoch": 1.2506666666666666, "grad_norm": 0.7293834090232849, "learning_rate": 7.814814814814816e-06, "loss": 0.1267, "step": 2580 }, { "epoch": 1.251, "grad_norm": 0.8704604506492615, "learning_rate": 7.796296296296297e-06, "loss": 0.1352, "step": 2581 }, { "epoch": 1.2513333333333334, "grad_norm": 0.8829613327980042, "learning_rate": 7.777777777777777e-06, "loss": 0.1781, "step": 2582 }, { "epoch": 1.2516666666666667, "grad_norm": 1.3571535348892212, "learning_rate": 7.75925925925926e-06, "loss": 0.1419, "step": 2583 }, { "epoch": 1.252, "grad_norm": 0.9848434925079346, "learning_rate": 7.74074074074074e-06, "loss": 0.2057, "step": 2584 }, { "epoch": 1.2523333333333333, "grad_norm": 0.8479530215263367, "learning_rate": 7.722222222222223e-06, "loss": 0.1601, "step": 2585 }, { "epoch": 1.2526666666666666, "grad_norm": 1.2453632354736328, "learning_rate": 7.703703703703704e-06, "loss": 0.2366, "step": 2586 }, { "epoch": 1.2530000000000001, "grad_norm": 0.9426668286323547, "learning_rate": 7.685185185185185e-06, "loss": 0.1623, "step": 2587 }, { "epoch": 1.2533333333333334, "grad_norm": 0.8466077446937561, "learning_rate": 7.666666666666667e-06, "loss": 0.1464, "step": 2588 }, { "epoch": 1.2536666666666667, "grad_norm": 1.041189193725586, "learning_rate": 7.648148148148148e-06, "loss": 0.2019, "step": 2589 }, { "epoch": 1.254, "grad_norm": 1.534858226776123, "learning_rate": 7.629629629629629e-06, "loss": 0.1659, "step": 2590 }, { "epoch": 1.2543333333333333, "grad_norm": 0.895072877407074, "learning_rate": 7.611111111111112e-06, "loss": 0.1827, "step": 2591 }, { "epoch": 1.2546666666666666, "grad_norm": 0.8805847764015198, "learning_rate": 7.592592592592593e-06, "loss": 0.1492, "step": 2592 }, { "epoch": 1.255, "grad_norm": 0.8232545852661133, "learning_rate": 7.574074074074075e-06, "loss": 0.1599, "step": 2593 }, { "epoch": 1.2553333333333334, "grad_norm": 1.3805229663848877, "learning_rate": 7.555555555555556e-06, "loss": 0.1817, "step": 2594 }, { "epoch": 1.2556666666666667, "grad_norm": 0.7617515325546265, "learning_rate": 7.537037037037037e-06, "loss": 0.1528, "step": 2595 }, { "epoch": 1.256, "grad_norm": 0.8429112434387207, "learning_rate": 7.518518518518519e-06, "loss": 0.1462, "step": 2596 }, { "epoch": 1.2563333333333333, "grad_norm": 0.9757542610168457, "learning_rate": 7.5e-06, "loss": 0.1737, "step": 2597 }, { "epoch": 1.2566666666666666, "grad_norm": 1.0963975191116333, "learning_rate": 7.481481481481483e-06, "loss": 0.2003, "step": 2598 }, { "epoch": 1.2570000000000001, "grad_norm": 0.8968694806098938, "learning_rate": 7.4629629629629634e-06, "loss": 0.1856, "step": 2599 }, { "epoch": 1.2573333333333334, "grad_norm": 1.2236857414245605, "learning_rate": 7.444444444444444e-06, "loss": 0.1831, "step": 2600 }, { "epoch": 1.2576666666666667, "grad_norm": 0.8795009255409241, "learning_rate": 7.425925925925927e-06, "loss": 0.1654, "step": 2601 }, { "epoch": 1.258, "grad_norm": 0.9454161524772644, "learning_rate": 7.4074074074074075e-06, "loss": 0.1911, "step": 2602 }, { "epoch": 1.2583333333333333, "grad_norm": 0.9511183500289917, "learning_rate": 7.38888888888889e-06, "loss": 0.2043, "step": 2603 }, { "epoch": 1.2586666666666666, "grad_norm": 1.017837405204773, "learning_rate": 7.370370370370371e-06, "loss": 0.1389, "step": 2604 }, { "epoch": 1.259, "grad_norm": 0.7719876170158386, "learning_rate": 7.351851851851853e-06, "loss": 0.1331, "step": 2605 }, { "epoch": 1.2593333333333334, "grad_norm": 1.5086443424224854, "learning_rate": 7.333333333333334e-06, "loss": 0.1482, "step": 2606 }, { "epoch": 1.2596666666666667, "grad_norm": 0.9063751101493835, "learning_rate": 7.314814814814815e-06, "loss": 0.1836, "step": 2607 }, { "epoch": 1.26, "grad_norm": 1.135890245437622, "learning_rate": 7.296296296296297e-06, "loss": 0.1839, "step": 2608 }, { "epoch": 1.2603333333333333, "grad_norm": 0.9214556217193604, "learning_rate": 7.277777777777778e-06, "loss": 0.1532, "step": 2609 }, { "epoch": 1.2606666666666666, "grad_norm": 0.9955604672431946, "learning_rate": 7.2592592592592605e-06, "loss": 0.2055, "step": 2610 }, { "epoch": 1.2610000000000001, "grad_norm": 1.0979762077331543, "learning_rate": 7.240740740740741e-06, "loss": 0.2404, "step": 2611 }, { "epoch": 1.2613333333333334, "grad_norm": 0.7979981899261475, "learning_rate": 7.222222222222222e-06, "loss": 0.1615, "step": 2612 }, { "epoch": 1.2616666666666667, "grad_norm": 0.8062872290611267, "learning_rate": 7.2037037037037045e-06, "loss": 0.1648, "step": 2613 }, { "epoch": 1.262, "grad_norm": 0.8582015037536621, "learning_rate": 7.185185185185185e-06, "loss": 0.1552, "step": 2614 }, { "epoch": 1.2623333333333333, "grad_norm": 0.7216850519180298, "learning_rate": 7.166666666666667e-06, "loss": 0.1264, "step": 2615 }, { "epoch": 1.2626666666666666, "grad_norm": 1.0093685388565063, "learning_rate": 7.1481481481481486e-06, "loss": 0.2302, "step": 2616 }, { "epoch": 1.263, "grad_norm": 0.9450061917304993, "learning_rate": 7.12962962962963e-06, "loss": 0.17, "step": 2617 }, { "epoch": 1.2633333333333332, "grad_norm": 0.9106326699256897, "learning_rate": 7.111111111111112e-06, "loss": 0.1728, "step": 2618 }, { "epoch": 1.2636666666666667, "grad_norm": 0.9599077701568604, "learning_rate": 7.092592592592593e-06, "loss": 0.1921, "step": 2619 }, { "epoch": 1.264, "grad_norm": 1.2108603715896606, "learning_rate": 7.074074074074074e-06, "loss": 0.2161, "step": 2620 }, { "epoch": 1.2643333333333333, "grad_norm": 0.7789188027381897, "learning_rate": 7.055555555555556e-06, "loss": 0.1218, "step": 2621 }, { "epoch": 1.2646666666666666, "grad_norm": 1.0207606554031372, "learning_rate": 7.0370370370370375e-06, "loss": 0.1838, "step": 2622 }, { "epoch": 1.2650000000000001, "grad_norm": 1.0002931356430054, "learning_rate": 7.018518518518519e-06, "loss": 0.1716, "step": 2623 }, { "epoch": 1.2653333333333334, "grad_norm": 1.1017202138900757, "learning_rate": 7.000000000000001e-06, "loss": 0.1746, "step": 2624 }, { "epoch": 1.2656666666666667, "grad_norm": 1.053499698638916, "learning_rate": 6.9814814814814815e-06, "loss": 0.1691, "step": 2625 }, { "epoch": 1.266, "grad_norm": 1.1248180866241455, "learning_rate": 6.962962962962963e-06, "loss": 0.1664, "step": 2626 }, { "epoch": 1.2663333333333333, "grad_norm": 0.8471288084983826, "learning_rate": 6.944444444444445e-06, "loss": 0.189, "step": 2627 }, { "epoch": 1.2666666666666666, "grad_norm": 0.9120729565620422, "learning_rate": 6.925925925925926e-06, "loss": 0.1688, "step": 2628 }, { "epoch": 1.267, "grad_norm": 1.322150468826294, "learning_rate": 6.907407407407408e-06, "loss": 0.1995, "step": 2629 }, { "epoch": 1.2673333333333332, "grad_norm": 0.875970721244812, "learning_rate": 6.888888888888889e-06, "loss": 0.1806, "step": 2630 }, { "epoch": 1.2676666666666667, "grad_norm": 1.0172374248504639, "learning_rate": 6.8703703703703704e-06, "loss": 0.2588, "step": 2631 }, { "epoch": 1.268, "grad_norm": 0.8392847776412964, "learning_rate": 6.851851851851852e-06, "loss": 0.1522, "step": 2632 }, { "epoch": 1.2683333333333333, "grad_norm": 1.0139837265014648, "learning_rate": 6.833333333333333e-06, "loss": 0.1957, "step": 2633 }, { "epoch": 1.2686666666666666, "grad_norm": 0.7888579368591309, "learning_rate": 6.814814814814815e-06, "loss": 0.1836, "step": 2634 }, { "epoch": 1.2690000000000001, "grad_norm": 0.9791631102561951, "learning_rate": 6.796296296296296e-06, "loss": 0.1766, "step": 2635 }, { "epoch": 1.2693333333333334, "grad_norm": 1.0189398527145386, "learning_rate": 6.777777777777779e-06, "loss": 0.2265, "step": 2636 }, { "epoch": 1.2696666666666667, "grad_norm": 0.9153403639793396, "learning_rate": 6.759259259259259e-06, "loss": 0.1888, "step": 2637 }, { "epoch": 1.27, "grad_norm": 0.9012446999549866, "learning_rate": 6.74074074074074e-06, "loss": 0.1551, "step": 2638 }, { "epoch": 1.2703333333333333, "grad_norm": 0.8711814880371094, "learning_rate": 6.722222222222223e-06, "loss": 0.1952, "step": 2639 }, { "epoch": 1.2706666666666666, "grad_norm": 0.9400795698165894, "learning_rate": 6.703703703703703e-06, "loss": 0.193, "step": 2640 }, { "epoch": 1.271, "grad_norm": 0.8830575346946716, "learning_rate": 6.685185185185186e-06, "loss": 0.1711, "step": 2641 }, { "epoch": 1.2713333333333332, "grad_norm": 0.9146469235420227, "learning_rate": 6.666666666666667e-06, "loss": 0.1901, "step": 2642 }, { "epoch": 1.2716666666666667, "grad_norm": 0.8952977061271667, "learning_rate": 6.6481481481481474e-06, "loss": 0.1798, "step": 2643 }, { "epoch": 1.272, "grad_norm": 0.8663762807846069, "learning_rate": 6.62962962962963e-06, "loss": 0.17, "step": 2644 }, { "epoch": 1.2723333333333333, "grad_norm": 0.9451197385787964, "learning_rate": 6.611111111111111e-06, "loss": 0.1837, "step": 2645 }, { "epoch": 1.2726666666666666, "grad_norm": 0.7776080369949341, "learning_rate": 6.592592592592593e-06, "loss": 0.1256, "step": 2646 }, { "epoch": 1.2730000000000001, "grad_norm": 0.8219053149223328, "learning_rate": 6.574074074074074e-06, "loss": 0.1393, "step": 2647 }, { "epoch": 1.2733333333333334, "grad_norm": 1.3663370609283447, "learning_rate": 6.555555555555556e-06, "loss": 0.159, "step": 2648 }, { "epoch": 1.2736666666666667, "grad_norm": 0.854533314704895, "learning_rate": 6.537037037037037e-06, "loss": 0.1689, "step": 2649 }, { "epoch": 1.274, "grad_norm": 0.9753462672233582, "learning_rate": 6.518518518518518e-06, "loss": 0.1971, "step": 2650 }, { "epoch": 1.2743333333333333, "grad_norm": 1.0734041929244995, "learning_rate": 6.5000000000000004e-06, "loss": 0.2455, "step": 2651 }, { "epoch": 1.2746666666666666, "grad_norm": 0.8429607152938843, "learning_rate": 6.481481481481481e-06, "loss": 0.1934, "step": 2652 }, { "epoch": 1.275, "grad_norm": 0.8145411610603333, "learning_rate": 6.462962962962964e-06, "loss": 0.1685, "step": 2653 }, { "epoch": 1.2753333333333332, "grad_norm": 0.9319393038749695, "learning_rate": 6.4444444444444445e-06, "loss": 0.149, "step": 2654 }, { "epoch": 1.2756666666666667, "grad_norm": 1.0715968608856201, "learning_rate": 6.425925925925927e-06, "loss": 0.2686, "step": 2655 }, { "epoch": 1.276, "grad_norm": 0.9116128087043762, "learning_rate": 6.407407407407408e-06, "loss": 0.1666, "step": 2656 }, { "epoch": 1.2763333333333333, "grad_norm": 0.9324080944061279, "learning_rate": 6.3888888888888885e-06, "loss": 0.1758, "step": 2657 }, { "epoch": 1.2766666666666666, "grad_norm": 0.819212019443512, "learning_rate": 6.370370370370371e-06, "loss": 0.1423, "step": 2658 }, { "epoch": 1.2770000000000001, "grad_norm": 0.904224693775177, "learning_rate": 6.351851851851852e-06, "loss": 0.1673, "step": 2659 }, { "epoch": 1.2773333333333334, "grad_norm": 0.8916614651679993, "learning_rate": 6.333333333333334e-06, "loss": 0.1707, "step": 2660 }, { "epoch": 1.2776666666666667, "grad_norm": 0.9984759092330933, "learning_rate": 6.314814814814815e-06, "loss": 0.2049, "step": 2661 }, { "epoch": 1.278, "grad_norm": 0.7660276889801025, "learning_rate": 6.296296296296296e-06, "loss": 0.1407, "step": 2662 }, { "epoch": 1.2783333333333333, "grad_norm": 0.8336777091026306, "learning_rate": 6.277777777777778e-06, "loss": 0.12, "step": 2663 }, { "epoch": 1.2786666666666666, "grad_norm": 1.0719819068908691, "learning_rate": 6.259259259259259e-06, "loss": 0.1919, "step": 2664 }, { "epoch": 1.279, "grad_norm": 0.7910143733024597, "learning_rate": 6.240740740740741e-06, "loss": 0.1427, "step": 2665 }, { "epoch": 1.2793333333333332, "grad_norm": 0.9256256818771362, "learning_rate": 6.222222222222222e-06, "loss": 0.1975, "step": 2666 }, { "epoch": 1.2796666666666667, "grad_norm": 1.0043225288391113, "learning_rate": 6.203703703703704e-06, "loss": 0.2036, "step": 2667 }, { "epoch": 1.28, "grad_norm": 0.971839964389801, "learning_rate": 6.1851851851851856e-06, "loss": 0.1406, "step": 2668 }, { "epoch": 1.2803333333333333, "grad_norm": 0.9847421646118164, "learning_rate": 6.166666666666667e-06, "loss": 0.1879, "step": 2669 }, { "epoch": 1.2806666666666666, "grad_norm": 0.8457936644554138, "learning_rate": 6.148148148148149e-06, "loss": 0.1698, "step": 2670 }, { "epoch": 1.2810000000000001, "grad_norm": 0.9126933813095093, "learning_rate": 6.12962962962963e-06, "loss": 0.1597, "step": 2671 }, { "epoch": 1.2813333333333334, "grad_norm": 1.0976624488830566, "learning_rate": 6.111111111111111e-06, "loss": 0.2038, "step": 2672 }, { "epoch": 1.2816666666666667, "grad_norm": 1.2909725904464722, "learning_rate": 6.092592592592593e-06, "loss": 0.1823, "step": 2673 }, { "epoch": 1.282, "grad_norm": 1.0020487308502197, "learning_rate": 6.0740740740740745e-06, "loss": 0.2318, "step": 2674 }, { "epoch": 1.2823333333333333, "grad_norm": 1.062930941581726, "learning_rate": 6.055555555555556e-06, "loss": 0.1861, "step": 2675 }, { "epoch": 1.2826666666666666, "grad_norm": 0.9800643920898438, "learning_rate": 6.037037037037038e-06, "loss": 0.1773, "step": 2676 }, { "epoch": 1.283, "grad_norm": 1.3310117721557617, "learning_rate": 6.0185185185185185e-06, "loss": 0.2468, "step": 2677 }, { "epoch": 1.2833333333333332, "grad_norm": 0.8443944454193115, "learning_rate": 6e-06, "loss": 0.1842, "step": 2678 }, { "epoch": 1.2836666666666667, "grad_norm": 1.3951724767684937, "learning_rate": 5.981481481481482e-06, "loss": 0.2055, "step": 2679 }, { "epoch": 1.284, "grad_norm": 0.9556867480278015, "learning_rate": 5.962962962962963e-06, "loss": 0.2064, "step": 2680 }, { "epoch": 1.2843333333333333, "grad_norm": 0.7705890536308289, "learning_rate": 5.944444444444445e-06, "loss": 0.1506, "step": 2681 }, { "epoch": 1.2846666666666666, "grad_norm": 0.8572204113006592, "learning_rate": 5.925925925925927e-06, "loss": 0.1832, "step": 2682 }, { "epoch": 1.285, "grad_norm": 0.7949333190917969, "learning_rate": 5.907407407407408e-06, "loss": 0.1507, "step": 2683 }, { "epoch": 1.2853333333333334, "grad_norm": 1.1450482606887817, "learning_rate": 5.888888888888889e-06, "loss": 0.1856, "step": 2684 }, { "epoch": 1.2856666666666667, "grad_norm": 0.9054824709892273, "learning_rate": 5.870370370370371e-06, "loss": 0.1781, "step": 2685 }, { "epoch": 1.286, "grad_norm": 0.9728571772575378, "learning_rate": 5.851851851851852e-06, "loss": 0.189, "step": 2686 }, { "epoch": 1.2863333333333333, "grad_norm": 0.9081037640571594, "learning_rate": 5.833333333333334e-06, "loss": 0.1955, "step": 2687 }, { "epoch": 1.2866666666666666, "grad_norm": 0.8149116635322571, "learning_rate": 5.814814814814816e-06, "loss": 0.1439, "step": 2688 }, { "epoch": 1.287, "grad_norm": 0.9976136088371277, "learning_rate": 5.796296296296297e-06, "loss": 0.1854, "step": 2689 }, { "epoch": 1.2873333333333332, "grad_norm": 1.015316367149353, "learning_rate": 5.777777777777778e-06, "loss": 0.1649, "step": 2690 }, { "epoch": 1.2876666666666667, "grad_norm": 0.9244365692138672, "learning_rate": 5.75925925925926e-06, "loss": 0.1763, "step": 2691 }, { "epoch": 1.288, "grad_norm": 1.1524157524108887, "learning_rate": 5.740740740740741e-06, "loss": 0.1777, "step": 2692 }, { "epoch": 1.2883333333333333, "grad_norm": 0.8093982934951782, "learning_rate": 5.722222222222223e-06, "loss": 0.152, "step": 2693 }, { "epoch": 1.2886666666666666, "grad_norm": 1.061787486076355, "learning_rate": 5.7037037037037045e-06, "loss": 0.2422, "step": 2694 }, { "epoch": 1.289, "grad_norm": 0.7806819081306458, "learning_rate": 5.685185185185186e-06, "loss": 0.1328, "step": 2695 }, { "epoch": 1.2893333333333334, "grad_norm": 0.8794816732406616, "learning_rate": 5.666666666666667e-06, "loss": 0.1973, "step": 2696 }, { "epoch": 1.2896666666666667, "grad_norm": 0.8881696462631226, "learning_rate": 5.6481481481481485e-06, "loss": 0.1925, "step": 2697 }, { "epoch": 1.29, "grad_norm": 0.8247417211532593, "learning_rate": 5.62962962962963e-06, "loss": 0.1555, "step": 2698 }, { "epoch": 1.2903333333333333, "grad_norm": 0.9744664430618286, "learning_rate": 5.611111111111112e-06, "loss": 0.1778, "step": 2699 }, { "epoch": 1.2906666666666666, "grad_norm": 1.0174901485443115, "learning_rate": 5.592592592592593e-06, "loss": 0.2029, "step": 2700 }, { "epoch": 1.291, "grad_norm": 0.9235166311264038, "learning_rate": 5.574074074074074e-06, "loss": 0.1635, "step": 2701 }, { "epoch": 1.2913333333333332, "grad_norm": 0.881542980670929, "learning_rate": 5.555555555555556e-06, "loss": 0.1806, "step": 2702 }, { "epoch": 1.2916666666666667, "grad_norm": 0.8813354969024658, "learning_rate": 5.5370370370370374e-06, "loss": 0.1574, "step": 2703 }, { "epoch": 1.292, "grad_norm": 0.8804534077644348, "learning_rate": 5.518518518518519e-06, "loss": 0.138, "step": 2704 }, { "epoch": 1.2923333333333333, "grad_norm": 0.8141350150108337, "learning_rate": 5.500000000000001e-06, "loss": 0.1669, "step": 2705 }, { "epoch": 1.2926666666666666, "grad_norm": 0.8900068998336792, "learning_rate": 5.4814814814814815e-06, "loss": 0.1571, "step": 2706 }, { "epoch": 1.293, "grad_norm": 0.8298308849334717, "learning_rate": 5.462962962962963e-06, "loss": 0.1615, "step": 2707 }, { "epoch": 1.2933333333333334, "grad_norm": 0.8831655979156494, "learning_rate": 5.444444444444445e-06, "loss": 0.1831, "step": 2708 }, { "epoch": 1.2936666666666667, "grad_norm": 0.9291262030601501, "learning_rate": 5.425925925925926e-06, "loss": 0.1959, "step": 2709 }, { "epoch": 1.294, "grad_norm": 0.9697514176368713, "learning_rate": 5.407407407407407e-06, "loss": 0.2344, "step": 2710 }, { "epoch": 1.2943333333333333, "grad_norm": 0.8856346607208252, "learning_rate": 5.388888888888889e-06, "loss": 0.1728, "step": 2711 }, { "epoch": 1.2946666666666666, "grad_norm": 1.5124800205230713, "learning_rate": 5.37037037037037e-06, "loss": 0.2393, "step": 2712 }, { "epoch": 1.295, "grad_norm": 0.9510040879249573, "learning_rate": 5.351851851851852e-06, "loss": 0.2142, "step": 2713 }, { "epoch": 1.2953333333333332, "grad_norm": 1.1001731157302856, "learning_rate": 5.333333333333334e-06, "loss": 0.1578, "step": 2714 }, { "epoch": 1.2956666666666667, "grad_norm": 1.0385847091674805, "learning_rate": 5.3148148148148144e-06, "loss": 0.1684, "step": 2715 }, { "epoch": 1.296, "grad_norm": 1.118329644203186, "learning_rate": 5.296296296296296e-06, "loss": 0.2244, "step": 2716 }, { "epoch": 1.2963333333333333, "grad_norm": 0.938244104385376, "learning_rate": 5.277777777777778e-06, "loss": 0.1841, "step": 2717 }, { "epoch": 1.2966666666666666, "grad_norm": 0.9877471327781677, "learning_rate": 5.259259259259259e-06, "loss": 0.2012, "step": 2718 }, { "epoch": 1.297, "grad_norm": 0.9875848293304443, "learning_rate": 5.240740740740741e-06, "loss": 0.226, "step": 2719 }, { "epoch": 1.2973333333333334, "grad_norm": 0.9077908396720886, "learning_rate": 5.2222222222222226e-06, "loss": 0.1949, "step": 2720 }, { "epoch": 1.2976666666666667, "grad_norm": 0.9662002921104431, "learning_rate": 5.203703703703703e-06, "loss": 0.1713, "step": 2721 }, { "epoch": 1.298, "grad_norm": 1.0900835990905762, "learning_rate": 5.185185185185185e-06, "loss": 0.1768, "step": 2722 }, { "epoch": 1.2983333333333333, "grad_norm": 0.9349952340126038, "learning_rate": 5.166666666666667e-06, "loss": 0.1806, "step": 2723 }, { "epoch": 1.2986666666666666, "grad_norm": 0.8636935949325562, "learning_rate": 5.148148148148148e-06, "loss": 0.1883, "step": 2724 }, { "epoch": 1.299, "grad_norm": 0.9057179689407349, "learning_rate": 5.12962962962963e-06, "loss": 0.1643, "step": 2725 }, { "epoch": 1.2993333333333332, "grad_norm": 0.884619951248169, "learning_rate": 5.1111111111111115e-06, "loss": 0.1924, "step": 2726 }, { "epoch": 1.2996666666666667, "grad_norm": 0.8758751749992371, "learning_rate": 5.092592592592592e-06, "loss": 0.1925, "step": 2727 }, { "epoch": 1.3, "grad_norm": 0.9602380990982056, "learning_rate": 5.074074074074074e-06, "loss": 0.2011, "step": 2728 }, { "epoch": 1.3003333333333333, "grad_norm": 0.7844758629798889, "learning_rate": 5.0555555555555555e-06, "loss": 0.1323, "step": 2729 }, { "epoch": 1.3006666666666666, "grad_norm": 0.8719672560691833, "learning_rate": 5.037037037037037e-06, "loss": 0.1883, "step": 2730 }, { "epoch": 1.301, "grad_norm": 0.8429844975471497, "learning_rate": 5.018518518518519e-06, "loss": 0.1882, "step": 2731 }, { "epoch": 1.3013333333333335, "grad_norm": 0.9643599390983582, "learning_rate": 5e-06, "loss": 0.1779, "step": 2732 }, { "epoch": 1.3016666666666667, "grad_norm": 0.9506523609161377, "learning_rate": 4.981481481481481e-06, "loss": 0.1683, "step": 2733 }, { "epoch": 1.302, "grad_norm": 1.2284787893295288, "learning_rate": 4.962962962962963e-06, "loss": 0.24, "step": 2734 }, { "epoch": 1.3023333333333333, "grad_norm": 1.1092101335525513, "learning_rate": 4.9444444444444444e-06, "loss": 0.2054, "step": 2735 }, { "epoch": 1.3026666666666666, "grad_norm": 0.8870221376419067, "learning_rate": 4.925925925925926e-06, "loss": 0.205, "step": 2736 }, { "epoch": 1.303, "grad_norm": 0.778971254825592, "learning_rate": 4.907407407407408e-06, "loss": 0.151, "step": 2737 }, { "epoch": 1.3033333333333332, "grad_norm": 1.1578946113586426, "learning_rate": 4.888888888888889e-06, "loss": 0.1293, "step": 2738 }, { "epoch": 1.3036666666666665, "grad_norm": 0.9494766592979431, "learning_rate": 4.87037037037037e-06, "loss": 0.1608, "step": 2739 }, { "epoch": 1.304, "grad_norm": 0.8327339887619019, "learning_rate": 4.851851851851852e-06, "loss": 0.1515, "step": 2740 }, { "epoch": 1.3043333333333333, "grad_norm": 0.8145909309387207, "learning_rate": 4.833333333333333e-06, "loss": 0.1548, "step": 2741 }, { "epoch": 1.3046666666666666, "grad_norm": 1.1344544887542725, "learning_rate": 4.814814814814815e-06, "loss": 0.2011, "step": 2742 }, { "epoch": 1.305, "grad_norm": 0.9033522009849548, "learning_rate": 4.796296296296297e-06, "loss": 0.1881, "step": 2743 }, { "epoch": 1.3053333333333335, "grad_norm": 0.8738858699798584, "learning_rate": 4.777777777777778e-06, "loss": 0.1395, "step": 2744 }, { "epoch": 1.3056666666666668, "grad_norm": 0.881686806678772, "learning_rate": 4.75925925925926e-06, "loss": 0.1388, "step": 2745 }, { "epoch": 1.306, "grad_norm": 0.8778711557388306, "learning_rate": 4.740740740740741e-06, "loss": 0.1537, "step": 2746 }, { "epoch": 1.3063333333333333, "grad_norm": 0.9887538552284241, "learning_rate": 4.722222222222222e-06, "loss": 0.1636, "step": 2747 }, { "epoch": 1.3066666666666666, "grad_norm": 1.0712915658950806, "learning_rate": 4.703703703703704e-06, "loss": 0.1858, "step": 2748 }, { "epoch": 1.307, "grad_norm": 0.8967471718788147, "learning_rate": 4.6851851851851855e-06, "loss": 0.1804, "step": 2749 }, { "epoch": 1.3073333333333332, "grad_norm": 1.0453540086746216, "learning_rate": 4.666666666666667e-06, "loss": 0.2055, "step": 2750 }, { "epoch": 1.3076666666666665, "grad_norm": 0.903880774974823, "learning_rate": 4.648148148148149e-06, "loss": 0.171, "step": 2751 }, { "epoch": 1.308, "grad_norm": 1.121415615081787, "learning_rate": 4.6296296296296296e-06, "loss": 0.1972, "step": 2752 }, { "epoch": 1.3083333333333333, "grad_norm": 0.7484372854232788, "learning_rate": 4.611111111111111e-06, "loss": 0.1621, "step": 2753 }, { "epoch": 1.3086666666666666, "grad_norm": 0.7798960208892822, "learning_rate": 4.592592592592593e-06, "loss": 0.1535, "step": 2754 }, { "epoch": 1.309, "grad_norm": 0.9870306849479675, "learning_rate": 4.5740740740740745e-06, "loss": 0.2113, "step": 2755 }, { "epoch": 1.3093333333333335, "grad_norm": 1.0620280504226685, "learning_rate": 4.555555555555556e-06, "loss": 0.1843, "step": 2756 }, { "epoch": 1.3096666666666668, "grad_norm": 0.9525628685951233, "learning_rate": 4.537037037037038e-06, "loss": 0.1388, "step": 2757 }, { "epoch": 1.31, "grad_norm": 0.9249762892723083, "learning_rate": 4.5185185185185185e-06, "loss": 0.1597, "step": 2758 }, { "epoch": 1.3103333333333333, "grad_norm": 0.953304648399353, "learning_rate": 4.5e-06, "loss": 0.2039, "step": 2759 }, { "epoch": 1.3106666666666666, "grad_norm": 1.261161208152771, "learning_rate": 4.481481481481482e-06, "loss": 0.2455, "step": 2760 }, { "epoch": 1.311, "grad_norm": 0.9542563557624817, "learning_rate": 4.462962962962963e-06, "loss": 0.1885, "step": 2761 }, { "epoch": 1.3113333333333332, "grad_norm": 1.2237327098846436, "learning_rate": 4.444444444444445e-06, "loss": 0.1414, "step": 2762 }, { "epoch": 1.3116666666666665, "grad_norm": 1.272397756576538, "learning_rate": 4.425925925925927e-06, "loss": 0.1954, "step": 2763 }, { "epoch": 1.312, "grad_norm": 0.8664572238922119, "learning_rate": 4.407407407407407e-06, "loss": 0.1565, "step": 2764 }, { "epoch": 1.3123333333333334, "grad_norm": 0.9326564073562622, "learning_rate": 4.388888888888889e-06, "loss": 0.1762, "step": 2765 }, { "epoch": 1.3126666666666666, "grad_norm": 1.0485879182815552, "learning_rate": 4.370370370370371e-06, "loss": 0.1948, "step": 2766 }, { "epoch": 1.313, "grad_norm": 0.9419881701469421, "learning_rate": 4.351851851851852e-06, "loss": 0.1693, "step": 2767 }, { "epoch": 1.3133333333333335, "grad_norm": 1.1704965829849243, "learning_rate": 4.333333333333334e-06, "loss": 0.2123, "step": 2768 }, { "epoch": 1.3136666666666668, "grad_norm": 1.1124136447906494, "learning_rate": 4.3148148148148155e-06, "loss": 0.2844, "step": 2769 }, { "epoch": 1.314, "grad_norm": 0.8240522146224976, "learning_rate": 4.296296296296296e-06, "loss": 0.1653, "step": 2770 }, { "epoch": 1.3143333333333334, "grad_norm": 1.117030143737793, "learning_rate": 4.277777777777778e-06, "loss": 0.1694, "step": 2771 }, { "epoch": 1.3146666666666667, "grad_norm": 1.012831211090088, "learning_rate": 4.2592592592592596e-06, "loss": 0.194, "step": 2772 }, { "epoch": 1.315, "grad_norm": 0.914527952671051, "learning_rate": 4.240740740740741e-06, "loss": 0.1796, "step": 2773 }, { "epoch": 1.3153333333333332, "grad_norm": 0.8884097933769226, "learning_rate": 4.222222222222223e-06, "loss": 0.1477, "step": 2774 }, { "epoch": 1.3156666666666665, "grad_norm": 1.6928379535675049, "learning_rate": 4.2037037037037045e-06, "loss": 0.17, "step": 2775 }, { "epoch": 1.316, "grad_norm": 0.8387921452522278, "learning_rate": 4.185185185185185e-06, "loss": 0.1587, "step": 2776 }, { "epoch": 1.3163333333333334, "grad_norm": 1.0350189208984375, "learning_rate": 4.166666666666667e-06, "loss": 0.1805, "step": 2777 }, { "epoch": 1.3166666666666667, "grad_norm": 1.031618595123291, "learning_rate": 4.1481481481481485e-06, "loss": 0.2069, "step": 2778 }, { "epoch": 1.317, "grad_norm": 0.8108109831809998, "learning_rate": 4.12962962962963e-06, "loss": 0.1649, "step": 2779 }, { "epoch": 1.3173333333333335, "grad_norm": 0.7348560094833374, "learning_rate": 4.111111111111112e-06, "loss": 0.1404, "step": 2780 }, { "epoch": 1.3176666666666668, "grad_norm": 0.923958420753479, "learning_rate": 4.092592592592593e-06, "loss": 0.1898, "step": 2781 }, { "epoch": 1.318, "grad_norm": 0.8432183265686035, "learning_rate": 4.074074074074075e-06, "loss": 0.1447, "step": 2782 }, { "epoch": 1.3183333333333334, "grad_norm": 1.1162375211715698, "learning_rate": 4.055555555555556e-06, "loss": 0.1809, "step": 2783 }, { "epoch": 1.3186666666666667, "grad_norm": 1.0232839584350586, "learning_rate": 4.037037037037037e-06, "loss": 0.2398, "step": 2784 }, { "epoch": 1.319, "grad_norm": 0.8523445129394531, "learning_rate": 4.018518518518519e-06, "loss": 0.1525, "step": 2785 }, { "epoch": 1.3193333333333332, "grad_norm": 1.0109690427780151, "learning_rate": 4.000000000000001e-06, "loss": 0.1971, "step": 2786 }, { "epoch": 1.3196666666666665, "grad_norm": 1.1123919486999512, "learning_rate": 3.9814814814814814e-06, "loss": 0.1928, "step": 2787 }, { "epoch": 1.32, "grad_norm": 0.9463147521018982, "learning_rate": 3.962962962962963e-06, "loss": 0.178, "step": 2788 }, { "epoch": 1.3203333333333334, "grad_norm": 0.8584775924682617, "learning_rate": 3.944444444444445e-06, "loss": 0.1738, "step": 2789 }, { "epoch": 1.3206666666666667, "grad_norm": 0.9032249450683594, "learning_rate": 3.925925925925926e-06, "loss": 0.1706, "step": 2790 }, { "epoch": 1.321, "grad_norm": 0.9470652341842651, "learning_rate": 3.907407407407408e-06, "loss": 0.1401, "step": 2791 }, { "epoch": 1.3213333333333335, "grad_norm": 0.9184651970863342, "learning_rate": 3.888888888888889e-06, "loss": 0.2006, "step": 2792 }, { "epoch": 1.3216666666666668, "grad_norm": 0.9871520400047302, "learning_rate": 3.87037037037037e-06, "loss": 0.2102, "step": 2793 }, { "epoch": 1.322, "grad_norm": 0.8833559155464172, "learning_rate": 3.851851851851852e-06, "loss": 0.1796, "step": 2794 }, { "epoch": 1.3223333333333334, "grad_norm": 0.9775391817092896, "learning_rate": 3.833333333333334e-06, "loss": 0.2081, "step": 2795 }, { "epoch": 1.3226666666666667, "grad_norm": 0.8963762521743774, "learning_rate": 3.814814814814814e-06, "loss": 0.1336, "step": 2796 }, { "epoch": 1.323, "grad_norm": 0.923865795135498, "learning_rate": 3.7962962962962964e-06, "loss": 0.1692, "step": 2797 }, { "epoch": 1.3233333333333333, "grad_norm": 0.9468360543251038, "learning_rate": 3.777777777777778e-06, "loss": 0.151, "step": 2798 }, { "epoch": 1.3236666666666665, "grad_norm": 0.8269591331481934, "learning_rate": 3.7592592592592597e-06, "loss": 0.1526, "step": 2799 }, { "epoch": 1.324, "grad_norm": 1.0620708465576172, "learning_rate": 3.7407407407407413e-06, "loss": 0.2125, "step": 2800 }, { "epoch": 1.3243333333333334, "grad_norm": 0.8744061589241028, "learning_rate": 3.722222222222222e-06, "loss": 0.1378, "step": 2801 }, { "epoch": 1.3246666666666667, "grad_norm": 0.9876614212989807, "learning_rate": 3.7037037037037037e-06, "loss": 0.125, "step": 2802 }, { "epoch": 1.325, "grad_norm": 0.90522700548172, "learning_rate": 3.6851851851851854e-06, "loss": 0.1589, "step": 2803 }, { "epoch": 1.3253333333333333, "grad_norm": 1.0124090909957886, "learning_rate": 3.666666666666667e-06, "loss": 0.1305, "step": 2804 }, { "epoch": 1.3256666666666668, "grad_norm": 1.0753778219223022, "learning_rate": 3.6481481481481486e-06, "loss": 0.2046, "step": 2805 }, { "epoch": 1.326, "grad_norm": 0.7804232835769653, "learning_rate": 3.6296296296296302e-06, "loss": 0.1539, "step": 2806 }, { "epoch": 1.3263333333333334, "grad_norm": 0.9047187566757202, "learning_rate": 3.611111111111111e-06, "loss": 0.1861, "step": 2807 }, { "epoch": 1.3266666666666667, "grad_norm": 0.881327211856842, "learning_rate": 3.5925925925925927e-06, "loss": 0.1452, "step": 2808 }, { "epoch": 1.327, "grad_norm": 0.8832393288612366, "learning_rate": 3.5740740740740743e-06, "loss": 0.1545, "step": 2809 }, { "epoch": 1.3273333333333333, "grad_norm": 0.9425623416900635, "learning_rate": 3.555555555555556e-06, "loss": 0.1596, "step": 2810 }, { "epoch": 1.3276666666666666, "grad_norm": 0.8506745100021362, "learning_rate": 3.537037037037037e-06, "loss": 0.1672, "step": 2811 }, { "epoch": 1.328, "grad_norm": 1.2329444885253906, "learning_rate": 3.5185185185185187e-06, "loss": 0.1646, "step": 2812 }, { "epoch": 1.3283333333333334, "grad_norm": 0.841478705406189, "learning_rate": 3.5000000000000004e-06, "loss": 0.1546, "step": 2813 }, { "epoch": 1.3286666666666667, "grad_norm": 0.9700208306312561, "learning_rate": 3.4814814814814816e-06, "loss": 0.1469, "step": 2814 }, { "epoch": 1.329, "grad_norm": 0.8878452777862549, "learning_rate": 3.462962962962963e-06, "loss": 0.1611, "step": 2815 }, { "epoch": 1.3293333333333333, "grad_norm": 0.9761508107185364, "learning_rate": 3.4444444444444444e-06, "loss": 0.1491, "step": 2816 }, { "epoch": 1.3296666666666668, "grad_norm": 2.882183313369751, "learning_rate": 3.425925925925926e-06, "loss": 0.196, "step": 2817 }, { "epoch": 1.33, "grad_norm": 0.8948768377304077, "learning_rate": 3.4074074074074077e-06, "loss": 0.1652, "step": 2818 }, { "epoch": 1.3303333333333334, "grad_norm": 0.8488290309906006, "learning_rate": 3.3888888888888893e-06, "loss": 0.1575, "step": 2819 }, { "epoch": 1.3306666666666667, "grad_norm": 1.1507452726364136, "learning_rate": 3.37037037037037e-06, "loss": 0.1527, "step": 2820 }, { "epoch": 1.331, "grad_norm": 0.987114429473877, "learning_rate": 3.3518518518518517e-06, "loss": 0.1644, "step": 2821 }, { "epoch": 1.3313333333333333, "grad_norm": 0.9564934968948364, "learning_rate": 3.3333333333333333e-06, "loss": 0.1634, "step": 2822 }, { "epoch": 1.3316666666666666, "grad_norm": 0.8693914413452148, "learning_rate": 3.314814814814815e-06, "loss": 0.1831, "step": 2823 }, { "epoch": 1.332, "grad_norm": 0.8489605188369751, "learning_rate": 3.2962962962962966e-06, "loss": 0.1763, "step": 2824 }, { "epoch": 1.3323333333333334, "grad_norm": 0.7693913578987122, "learning_rate": 3.277777777777778e-06, "loss": 0.1233, "step": 2825 }, { "epoch": 1.3326666666666667, "grad_norm": 0.7736652493476868, "learning_rate": 3.259259259259259e-06, "loss": 0.147, "step": 2826 }, { "epoch": 1.333, "grad_norm": 0.9375031590461731, "learning_rate": 3.2407407407407406e-06, "loss": 0.1642, "step": 2827 }, { "epoch": 1.3333333333333333, "grad_norm": 0.9450940489768982, "learning_rate": 3.2222222222222222e-06, "loss": 0.1777, "step": 2828 }, { "epoch": 1.3336666666666668, "grad_norm": 0.8511220812797546, "learning_rate": 3.203703703703704e-06, "loss": 0.133, "step": 2829 }, { "epoch": 1.334, "grad_norm": 0.9352518916130066, "learning_rate": 3.1851851851851855e-06, "loss": 0.1247, "step": 2830 }, { "epoch": 1.3343333333333334, "grad_norm": 0.8822999000549316, "learning_rate": 3.166666666666667e-06, "loss": 0.1632, "step": 2831 }, { "epoch": 1.3346666666666667, "grad_norm": 0.8006561398506165, "learning_rate": 3.148148148148148e-06, "loss": 0.1313, "step": 2832 }, { "epoch": 1.335, "grad_norm": 2.2973215579986572, "learning_rate": 3.1296296296296295e-06, "loss": 0.1333, "step": 2833 }, { "epoch": 1.3353333333333333, "grad_norm": 0.8951489925384521, "learning_rate": 3.111111111111111e-06, "loss": 0.1462, "step": 2834 }, { "epoch": 1.3356666666666666, "grad_norm": 0.9698139429092407, "learning_rate": 3.0925925925925928e-06, "loss": 0.1782, "step": 2835 }, { "epoch": 1.336, "grad_norm": 0.9474843144416809, "learning_rate": 3.0740740740740744e-06, "loss": 0.178, "step": 2836 }, { "epoch": 1.3363333333333334, "grad_norm": 0.9452012181282043, "learning_rate": 3.0555555555555556e-06, "loss": 0.1894, "step": 2837 }, { "epoch": 1.3366666666666667, "grad_norm": 1.172121286392212, "learning_rate": 3.0370370370370372e-06, "loss": 0.1951, "step": 2838 }, { "epoch": 1.337, "grad_norm": 0.9830608367919922, "learning_rate": 3.018518518518519e-06, "loss": 0.1808, "step": 2839 }, { "epoch": 1.3373333333333333, "grad_norm": 0.8241881728172302, "learning_rate": 3e-06, "loss": 0.1259, "step": 2840 }, { "epoch": 1.3376666666666668, "grad_norm": 0.8107712864875793, "learning_rate": 2.9814814814814817e-06, "loss": 0.1382, "step": 2841 }, { "epoch": 1.338, "grad_norm": 0.8410692811012268, "learning_rate": 2.9629629629629633e-06, "loss": 0.1499, "step": 2842 }, { "epoch": 1.3383333333333334, "grad_norm": 1.0224581956863403, "learning_rate": 2.9444444444444445e-06, "loss": 0.203, "step": 2843 }, { "epoch": 1.3386666666666667, "grad_norm": 0.722356379032135, "learning_rate": 2.925925925925926e-06, "loss": 0.1229, "step": 2844 }, { "epoch": 1.339, "grad_norm": 0.7884551882743835, "learning_rate": 2.907407407407408e-06, "loss": 0.1434, "step": 2845 }, { "epoch": 1.3393333333333333, "grad_norm": 0.9544295072555542, "learning_rate": 2.888888888888889e-06, "loss": 0.1914, "step": 2846 }, { "epoch": 1.3396666666666666, "grad_norm": 0.9873759746551514, "learning_rate": 2.8703703703703706e-06, "loss": 0.1521, "step": 2847 }, { "epoch": 1.34, "grad_norm": 0.7809238433837891, "learning_rate": 2.8518518518518522e-06, "loss": 0.1466, "step": 2848 }, { "epoch": 1.3403333333333334, "grad_norm": 0.8895497918128967, "learning_rate": 2.8333333333333335e-06, "loss": 0.1496, "step": 2849 }, { "epoch": 1.3406666666666667, "grad_norm": 0.986186146736145, "learning_rate": 2.814814814814815e-06, "loss": 0.1841, "step": 2850 }, { "epoch": 1.341, "grad_norm": 0.940358579158783, "learning_rate": 2.7962962962962967e-06, "loss": 0.1647, "step": 2851 }, { "epoch": 1.3413333333333333, "grad_norm": 0.965739905834198, "learning_rate": 2.777777777777778e-06, "loss": 0.1538, "step": 2852 }, { "epoch": 1.3416666666666668, "grad_norm": 0.8965278267860413, "learning_rate": 2.7592592592592595e-06, "loss": 0.1612, "step": 2853 }, { "epoch": 1.342, "grad_norm": 1.1713470220565796, "learning_rate": 2.7407407407407407e-06, "loss": 0.1955, "step": 2854 }, { "epoch": 1.3423333333333334, "grad_norm": 1.0026651620864868, "learning_rate": 2.7222222222222224e-06, "loss": 0.1823, "step": 2855 }, { "epoch": 1.3426666666666667, "grad_norm": 1.1902835369110107, "learning_rate": 2.7037037037037036e-06, "loss": 0.1395, "step": 2856 }, { "epoch": 1.343, "grad_norm": 1.0670652389526367, "learning_rate": 2.685185185185185e-06, "loss": 0.1441, "step": 2857 }, { "epoch": 1.3433333333333333, "grad_norm": 1.0618900060653687, "learning_rate": 2.666666666666667e-06, "loss": 0.1807, "step": 2858 }, { "epoch": 1.3436666666666666, "grad_norm": 1.0213125944137573, "learning_rate": 2.648148148148148e-06, "loss": 0.1517, "step": 2859 }, { "epoch": 1.3439999999999999, "grad_norm": 1.2321339845657349, "learning_rate": 2.6296296296296297e-06, "loss": 0.2207, "step": 2860 }, { "epoch": 1.3443333333333334, "grad_norm": 1.1006625890731812, "learning_rate": 2.6111111111111113e-06, "loss": 0.2276, "step": 2861 }, { "epoch": 1.3446666666666667, "grad_norm": 0.9231457114219666, "learning_rate": 2.5925925925925925e-06, "loss": 0.1733, "step": 2862 }, { "epoch": 1.345, "grad_norm": 0.9605509638786316, "learning_rate": 2.574074074074074e-06, "loss": 0.1727, "step": 2863 }, { "epoch": 1.3453333333333333, "grad_norm": 3.3495492935180664, "learning_rate": 2.5555555555555557e-06, "loss": 0.205, "step": 2864 }, { "epoch": 1.3456666666666668, "grad_norm": 0.8175700306892395, "learning_rate": 2.537037037037037e-06, "loss": 0.1568, "step": 2865 }, { "epoch": 1.346, "grad_norm": 0.951604425907135, "learning_rate": 2.5185185185185186e-06, "loss": 0.1757, "step": 2866 }, { "epoch": 1.3463333333333334, "grad_norm": 0.9927387237548828, "learning_rate": 2.5e-06, "loss": 0.1738, "step": 2867 }, { "epoch": 1.3466666666666667, "grad_norm": 0.8591485023498535, "learning_rate": 2.4814814814814814e-06, "loss": 0.1602, "step": 2868 }, { "epoch": 1.347, "grad_norm": 0.7890500426292419, "learning_rate": 2.462962962962963e-06, "loss": 0.1449, "step": 2869 }, { "epoch": 1.3473333333333333, "grad_norm": 0.8574076294898987, "learning_rate": 2.4444444444444447e-06, "loss": 0.1432, "step": 2870 }, { "epoch": 1.3476666666666666, "grad_norm": 0.9397690892219543, "learning_rate": 2.425925925925926e-06, "loss": 0.1785, "step": 2871 }, { "epoch": 1.3479999999999999, "grad_norm": 1.4880268573760986, "learning_rate": 2.4074074074074075e-06, "loss": 0.3432, "step": 2872 }, { "epoch": 1.3483333333333334, "grad_norm": 0.9526687264442444, "learning_rate": 2.388888888888889e-06, "loss": 0.1693, "step": 2873 }, { "epoch": 1.3486666666666667, "grad_norm": 0.9545802474021912, "learning_rate": 2.3703703703703703e-06, "loss": 0.2159, "step": 2874 }, { "epoch": 1.349, "grad_norm": 1.3978023529052734, "learning_rate": 2.351851851851852e-06, "loss": 0.1595, "step": 2875 }, { "epoch": 1.3493333333333333, "grad_norm": 1.2317854166030884, "learning_rate": 2.3333333333333336e-06, "loss": 0.253, "step": 2876 }, { "epoch": 1.3496666666666668, "grad_norm": 0.8026460409164429, "learning_rate": 2.3148148148148148e-06, "loss": 0.1531, "step": 2877 }, { "epoch": 1.35, "grad_norm": 0.937516450881958, "learning_rate": 2.2962962962962964e-06, "loss": 0.1758, "step": 2878 }, { "epoch": 1.3503333333333334, "grad_norm": 0.910399317741394, "learning_rate": 2.277777777777778e-06, "loss": 0.1727, "step": 2879 }, { "epoch": 1.3506666666666667, "grad_norm": 1.097180962562561, "learning_rate": 2.2592592592592592e-06, "loss": 0.2112, "step": 2880 }, { "epoch": 1.351, "grad_norm": 0.8373659253120422, "learning_rate": 2.240740740740741e-06, "loss": 0.2083, "step": 2881 }, { "epoch": 1.3513333333333333, "grad_norm": 0.816261351108551, "learning_rate": 2.2222222222222225e-06, "loss": 0.1453, "step": 2882 }, { "epoch": 1.3516666666666666, "grad_norm": 0.8179627656936646, "learning_rate": 2.2037037037037037e-06, "loss": 0.1459, "step": 2883 }, { "epoch": 1.3519999999999999, "grad_norm": 1.0302462577819824, "learning_rate": 2.1851851851851853e-06, "loss": 0.1972, "step": 2884 }, { "epoch": 1.3523333333333334, "grad_norm": 0.8695645928382874, "learning_rate": 2.166666666666667e-06, "loss": 0.1504, "step": 2885 }, { "epoch": 1.3526666666666667, "grad_norm": 0.8918935656547546, "learning_rate": 2.148148148148148e-06, "loss": 0.1453, "step": 2886 }, { "epoch": 1.353, "grad_norm": 0.7656656503677368, "learning_rate": 2.1296296296296298e-06, "loss": 0.1234, "step": 2887 }, { "epoch": 1.3533333333333333, "grad_norm": 0.8952743411064148, "learning_rate": 2.1111111111111114e-06, "loss": 0.1632, "step": 2888 }, { "epoch": 1.3536666666666668, "grad_norm": 0.817897379398346, "learning_rate": 2.0925925925925926e-06, "loss": 0.1655, "step": 2889 }, { "epoch": 1.354, "grad_norm": 0.797855794429779, "learning_rate": 2.0740740740740742e-06, "loss": 0.1453, "step": 2890 }, { "epoch": 1.3543333333333334, "grad_norm": 1.0525106191635132, "learning_rate": 2.055555555555556e-06, "loss": 0.2031, "step": 2891 }, { "epoch": 1.3546666666666667, "grad_norm": 1.0034757852554321, "learning_rate": 2.0370370370370375e-06, "loss": 0.2552, "step": 2892 }, { "epoch": 1.355, "grad_norm": 0.8883953094482422, "learning_rate": 2.0185185185185187e-06, "loss": 0.1723, "step": 2893 }, { "epoch": 1.3553333333333333, "grad_norm": 1.286672830581665, "learning_rate": 2.0000000000000003e-06, "loss": 0.1501, "step": 2894 }, { "epoch": 1.3556666666666666, "grad_norm": 1.02937650680542, "learning_rate": 1.9814814814814815e-06, "loss": 0.1432, "step": 2895 }, { "epoch": 1.3559999999999999, "grad_norm": 0.7503935098648071, "learning_rate": 1.962962962962963e-06, "loss": 0.1274, "step": 2896 }, { "epoch": 1.3563333333333334, "grad_norm": 0.8885442018508911, "learning_rate": 1.9444444444444444e-06, "loss": 0.1712, "step": 2897 }, { "epoch": 1.3566666666666667, "grad_norm": 0.7850650548934937, "learning_rate": 1.925925925925926e-06, "loss": 0.1475, "step": 2898 }, { "epoch": 1.357, "grad_norm": 1.0976176261901855, "learning_rate": 1.907407407407407e-06, "loss": 0.2169, "step": 2899 }, { "epoch": 1.3573333333333333, "grad_norm": 1.1243864297866821, "learning_rate": 1.888888888888889e-06, "loss": 0.1908, "step": 2900 }, { "epoch": 1.3576666666666668, "grad_norm": 0.9216020107269287, "learning_rate": 1.8703703703703707e-06, "loss": 0.1689, "step": 2901 }, { "epoch": 1.358, "grad_norm": 0.9083315134048462, "learning_rate": 1.8518518518518519e-06, "loss": 0.1721, "step": 2902 }, { "epoch": 1.3583333333333334, "grad_norm": 0.7932645678520203, "learning_rate": 1.8333333333333335e-06, "loss": 0.1585, "step": 2903 }, { "epoch": 1.3586666666666667, "grad_norm": 0.944059431552887, "learning_rate": 1.8148148148148151e-06, "loss": 0.1702, "step": 2904 }, { "epoch": 1.359, "grad_norm": 1.0751231908798218, "learning_rate": 1.7962962962962963e-06, "loss": 0.1918, "step": 2905 }, { "epoch": 1.3593333333333333, "grad_norm": 0.9808719158172607, "learning_rate": 1.777777777777778e-06, "loss": 0.2121, "step": 2906 }, { "epoch": 1.3596666666666666, "grad_norm": 0.8331946730613708, "learning_rate": 1.7592592592592594e-06, "loss": 0.1473, "step": 2907 }, { "epoch": 1.3599999999999999, "grad_norm": 0.6995450854301453, "learning_rate": 1.7407407407407408e-06, "loss": 0.1194, "step": 2908 }, { "epoch": 1.3603333333333334, "grad_norm": 0.8803251385688782, "learning_rate": 1.7222222222222222e-06, "loss": 0.1661, "step": 2909 }, { "epoch": 1.3606666666666667, "grad_norm": 1.043456792831421, "learning_rate": 1.7037037037037038e-06, "loss": 0.2234, "step": 2910 }, { "epoch": 1.361, "grad_norm": 0.8600708842277527, "learning_rate": 1.685185185185185e-06, "loss": 0.1706, "step": 2911 }, { "epoch": 1.3613333333333333, "grad_norm": 1.8275861740112305, "learning_rate": 1.6666666666666667e-06, "loss": 0.1408, "step": 2912 }, { "epoch": 1.3616666666666668, "grad_norm": 0.9040708541870117, "learning_rate": 1.6481481481481483e-06, "loss": 0.1727, "step": 2913 }, { "epoch": 1.362, "grad_norm": 0.8972158432006836, "learning_rate": 1.6296296296296295e-06, "loss": 0.1877, "step": 2914 }, { "epoch": 1.3623333333333334, "grad_norm": 0.9649645686149597, "learning_rate": 1.6111111111111111e-06, "loss": 0.1443, "step": 2915 }, { "epoch": 1.3626666666666667, "grad_norm": 0.9420231580734253, "learning_rate": 1.5925925925925927e-06, "loss": 0.2014, "step": 2916 }, { "epoch": 1.363, "grad_norm": 0.8768310546875, "learning_rate": 1.574074074074074e-06, "loss": 0.1809, "step": 2917 }, { "epoch": 1.3633333333333333, "grad_norm": 0.9307012557983398, "learning_rate": 1.5555555555555556e-06, "loss": 0.1733, "step": 2918 }, { "epoch": 1.3636666666666666, "grad_norm": 1.0011224746704102, "learning_rate": 1.5370370370370372e-06, "loss": 0.1844, "step": 2919 }, { "epoch": 1.3639999999999999, "grad_norm": 1.0872069597244263, "learning_rate": 1.5185185185185186e-06, "loss": 0.1887, "step": 2920 }, { "epoch": 1.3643333333333334, "grad_norm": 0.9272701740264893, "learning_rate": 1.5e-06, "loss": 0.1893, "step": 2921 }, { "epoch": 1.3646666666666667, "grad_norm": 1.069865107536316, "learning_rate": 1.4814814814814817e-06, "loss": 0.2146, "step": 2922 }, { "epoch": 1.365, "grad_norm": 0.8548780083656311, "learning_rate": 1.462962962962963e-06, "loss": 0.1432, "step": 2923 }, { "epoch": 1.3653333333333333, "grad_norm": 1.2780648469924927, "learning_rate": 1.4444444444444445e-06, "loss": 0.1793, "step": 2924 }, { "epoch": 1.3656666666666666, "grad_norm": 0.9245171546936035, "learning_rate": 1.4259259259259261e-06, "loss": 0.1757, "step": 2925 }, { "epoch": 1.366, "grad_norm": 0.8187298774719238, "learning_rate": 1.4074074074074075e-06, "loss": 0.1521, "step": 2926 }, { "epoch": 1.3663333333333334, "grad_norm": 0.908821165561676, "learning_rate": 1.388888888888889e-06, "loss": 0.1632, "step": 2927 }, { "epoch": 1.3666666666666667, "grad_norm": 0.8718186020851135, "learning_rate": 1.3703703703703704e-06, "loss": 0.1683, "step": 2928 }, { "epoch": 1.367, "grad_norm": 0.8194794654846191, "learning_rate": 1.3518518518518518e-06, "loss": 0.1801, "step": 2929 }, { "epoch": 1.3673333333333333, "grad_norm": 0.9662380218505859, "learning_rate": 1.3333333333333334e-06, "loss": 0.1405, "step": 2930 }, { "epoch": 1.3676666666666666, "grad_norm": 0.9420289397239685, "learning_rate": 1.3148148148148148e-06, "loss": 0.1883, "step": 2931 }, { "epoch": 1.3679999999999999, "grad_norm": 0.8477609157562256, "learning_rate": 1.2962962962962962e-06, "loss": 0.1916, "step": 2932 }, { "epoch": 1.3683333333333334, "grad_norm": 0.8963823318481445, "learning_rate": 1.2777777777777779e-06, "loss": 0.1541, "step": 2933 }, { "epoch": 1.3686666666666667, "grad_norm": 0.8099495768547058, "learning_rate": 1.2592592592592593e-06, "loss": 0.1392, "step": 2934 }, { "epoch": 1.369, "grad_norm": 0.929093599319458, "learning_rate": 1.2407407407407407e-06, "loss": 0.1828, "step": 2935 }, { "epoch": 1.3693333333333333, "grad_norm": 0.9371274709701538, "learning_rate": 1.2222222222222223e-06, "loss": 0.16, "step": 2936 }, { "epoch": 1.3696666666666666, "grad_norm": 0.9722309708595276, "learning_rate": 1.2037037037037037e-06, "loss": 0.1549, "step": 2937 }, { "epoch": 1.37, "grad_norm": 0.7388081550598145, "learning_rate": 1.1851851851851852e-06, "loss": 0.1294, "step": 2938 }, { "epoch": 1.3703333333333334, "grad_norm": 0.804486870765686, "learning_rate": 1.1666666666666668e-06, "loss": 0.1486, "step": 2939 }, { "epoch": 1.3706666666666667, "grad_norm": 1.0041377544403076, "learning_rate": 1.1481481481481482e-06, "loss": 0.123, "step": 2940 }, { "epoch": 1.371, "grad_norm": 1.6790333986282349, "learning_rate": 1.1296296296296296e-06, "loss": 0.1915, "step": 2941 }, { "epoch": 1.3713333333333333, "grad_norm": 0.907940149307251, "learning_rate": 1.1111111111111112e-06, "loss": 0.2011, "step": 2942 }, { "epoch": 1.3716666666666666, "grad_norm": 1.0318989753723145, "learning_rate": 1.0925925925925927e-06, "loss": 0.1699, "step": 2943 }, { "epoch": 1.3719999999999999, "grad_norm": 0.8534787893295288, "learning_rate": 1.074074074074074e-06, "loss": 0.187, "step": 2944 }, { "epoch": 1.3723333333333334, "grad_norm": 0.794577419757843, "learning_rate": 1.0555555555555557e-06, "loss": 0.1462, "step": 2945 }, { "epoch": 1.3726666666666667, "grad_norm": 0.9399726986885071, "learning_rate": 1.0370370370370371e-06, "loss": 0.2158, "step": 2946 }, { "epoch": 1.373, "grad_norm": 0.7753356695175171, "learning_rate": 1.0185185185185188e-06, "loss": 0.1386, "step": 2947 }, { "epoch": 1.3733333333333333, "grad_norm": 0.999195396900177, "learning_rate": 1.0000000000000002e-06, "loss": 0.1973, "step": 2948 }, { "epoch": 1.3736666666666666, "grad_norm": 0.9539159536361694, "learning_rate": 9.814814814814816e-07, "loss": 0.1562, "step": 2949 }, { "epoch": 1.374, "grad_norm": 0.7995929718017578, "learning_rate": 9.62962962962963e-07, "loss": 0.141, "step": 2950 }, { "epoch": 1.3743333333333334, "grad_norm": 0.890317976474762, "learning_rate": 9.444444444444445e-07, "loss": 0.1817, "step": 2951 }, { "epoch": 1.3746666666666667, "grad_norm": 0.939770519733429, "learning_rate": 9.259259259259259e-07, "loss": 0.195, "step": 2952 }, { "epoch": 1.375, "grad_norm": 1.0221333503723145, "learning_rate": 9.074074074074076e-07, "loss": 0.2197, "step": 2953 }, { "epoch": 1.3753333333333333, "grad_norm": 0.8503761887550354, "learning_rate": 8.88888888888889e-07, "loss": 0.1653, "step": 2954 }, { "epoch": 1.3756666666666666, "grad_norm": 0.9355079531669617, "learning_rate": 8.703703703703704e-07, "loss": 0.1705, "step": 2955 }, { "epoch": 1.376, "grad_norm": 0.9470882415771484, "learning_rate": 8.518518518518519e-07, "loss": 0.197, "step": 2956 }, { "epoch": 1.3763333333333334, "grad_norm": 1.0242481231689453, "learning_rate": 8.333333333333333e-07, "loss": 0.1891, "step": 2957 }, { "epoch": 1.3766666666666667, "grad_norm": 0.7946565747261047, "learning_rate": 8.148148148148147e-07, "loss": 0.1546, "step": 2958 }, { "epoch": 1.377, "grad_norm": 1.1330071687698364, "learning_rate": 7.962962962962964e-07, "loss": 0.1972, "step": 2959 }, { "epoch": 1.3773333333333333, "grad_norm": 4.240147590637207, "learning_rate": 7.777777777777778e-07, "loss": 0.1513, "step": 2960 }, { "epoch": 1.3776666666666666, "grad_norm": 0.9166120886802673, "learning_rate": 7.592592592592593e-07, "loss": 0.1714, "step": 2961 }, { "epoch": 1.3780000000000001, "grad_norm": 0.8846139907836914, "learning_rate": 7.407407407407408e-07, "loss": 0.1778, "step": 2962 }, { "epoch": 1.3783333333333334, "grad_norm": 1.1009382009506226, "learning_rate": 7.222222222222222e-07, "loss": 0.2124, "step": 2963 }, { "epoch": 1.3786666666666667, "grad_norm": 0.935923159122467, "learning_rate": 7.037037037037038e-07, "loss": 0.1796, "step": 2964 }, { "epoch": 1.379, "grad_norm": 0.8511826395988464, "learning_rate": 6.851851851851852e-07, "loss": 0.1704, "step": 2965 }, { "epoch": 1.3793333333333333, "grad_norm": 0.7762032151222229, "learning_rate": 6.666666666666667e-07, "loss": 0.1503, "step": 2966 }, { "epoch": 1.3796666666666666, "grad_norm": 0.9846951365470886, "learning_rate": 6.481481481481481e-07, "loss": 0.1647, "step": 2967 }, { "epoch": 1.38, "grad_norm": 0.9439854025840759, "learning_rate": 6.296296296296296e-07, "loss": 0.2113, "step": 2968 }, { "epoch": 1.3803333333333334, "grad_norm": 1.101872444152832, "learning_rate": 6.111111111111112e-07, "loss": 0.1755, "step": 2969 }, { "epoch": 1.3806666666666667, "grad_norm": 0.962174654006958, "learning_rate": 5.925925925925926e-07, "loss": 0.1982, "step": 2970 }, { "epoch": 1.381, "grad_norm": 0.8640105724334717, "learning_rate": 5.740740740740741e-07, "loss": 0.1531, "step": 2971 }, { "epoch": 1.3813333333333333, "grad_norm": 1.024761438369751, "learning_rate": 5.555555555555556e-07, "loss": 0.1698, "step": 2972 }, { "epoch": 1.3816666666666666, "grad_norm": 1.6283330917358398, "learning_rate": 5.37037037037037e-07, "loss": 0.1612, "step": 2973 }, { "epoch": 1.3820000000000001, "grad_norm": 1.2309510707855225, "learning_rate": 5.185185185185186e-07, "loss": 0.1415, "step": 2974 }, { "epoch": 1.3823333333333334, "grad_norm": 0.8579166531562805, "learning_rate": 5.000000000000001e-07, "loss": 0.1567, "step": 2975 }, { "epoch": 1.3826666666666667, "grad_norm": 0.9555323123931885, "learning_rate": 4.814814814814815e-07, "loss": 0.1968, "step": 2976 }, { "epoch": 1.383, "grad_norm": 0.7805079817771912, "learning_rate": 4.6296296296296297e-07, "loss": 0.1429, "step": 2977 }, { "epoch": 1.3833333333333333, "grad_norm": 0.9568359851837158, "learning_rate": 4.444444444444445e-07, "loss": 0.1811, "step": 2978 }, { "epoch": 1.3836666666666666, "grad_norm": 1.7657171487808228, "learning_rate": 4.2592592592592596e-07, "loss": 0.2287, "step": 2979 }, { "epoch": 1.384, "grad_norm": 1.1475720405578613, "learning_rate": 4.0740740740740737e-07, "loss": 0.2412, "step": 2980 }, { "epoch": 1.3843333333333334, "grad_norm": 0.880599856376648, "learning_rate": 3.888888888888889e-07, "loss": 0.1493, "step": 2981 }, { "epoch": 1.3846666666666667, "grad_norm": 0.8049803972244263, "learning_rate": 3.703703703703704e-07, "loss": 0.1277, "step": 2982 }, { "epoch": 1.385, "grad_norm": 0.933779239654541, "learning_rate": 3.518518518518519e-07, "loss": 0.2098, "step": 2983 }, { "epoch": 1.3853333333333333, "grad_norm": 0.9523300528526306, "learning_rate": 3.3333333333333335e-07, "loss": 0.1734, "step": 2984 }, { "epoch": 1.3856666666666666, "grad_norm": 1.0762059688568115, "learning_rate": 3.148148148148148e-07, "loss": 0.1978, "step": 2985 }, { "epoch": 1.3860000000000001, "grad_norm": 0.8503689765930176, "learning_rate": 2.962962962962963e-07, "loss": 0.1603, "step": 2986 }, { "epoch": 1.3863333333333334, "grad_norm": 0.8553401827812195, "learning_rate": 2.777777777777778e-07, "loss": 0.1633, "step": 2987 }, { "epoch": 1.3866666666666667, "grad_norm": 0.9533190727233887, "learning_rate": 2.592592592592593e-07, "loss": 0.1797, "step": 2988 }, { "epoch": 1.387, "grad_norm": 1.0429197549819946, "learning_rate": 2.4074074074074075e-07, "loss": 0.1932, "step": 2989 }, { "epoch": 1.3873333333333333, "grad_norm": 0.9500227570533752, "learning_rate": 2.2222222222222224e-07, "loss": 0.1563, "step": 2990 }, { "epoch": 1.3876666666666666, "grad_norm": 0.939568281173706, "learning_rate": 2.0370370370370369e-07, "loss": 0.2118, "step": 2991 }, { "epoch": 1.388, "grad_norm": 0.9477863907814026, "learning_rate": 1.851851851851852e-07, "loss": 0.1996, "step": 2992 }, { "epoch": 1.3883333333333332, "grad_norm": 0.9293122887611389, "learning_rate": 1.6666666666666668e-07, "loss": 0.1806, "step": 2993 }, { "epoch": 1.3886666666666667, "grad_norm": 0.9342503547668457, "learning_rate": 1.4814814814814815e-07, "loss": 0.1695, "step": 2994 }, { "epoch": 1.389, "grad_norm": 1.023085117340088, "learning_rate": 1.2962962962962964e-07, "loss": 0.2037, "step": 2995 }, { "epoch": 1.3893333333333333, "grad_norm": 0.8881291151046753, "learning_rate": 1.1111111111111112e-07, "loss": 0.1786, "step": 2996 }, { "epoch": 1.3896666666666666, "grad_norm": 0.9583563804626465, "learning_rate": 9.25925925925926e-08, "loss": 0.2067, "step": 2997 }, { "epoch": 1.3900000000000001, "grad_norm": 0.7410120964050293, "learning_rate": 7.407407407407407e-08, "loss": 0.1118, "step": 2998 }, { "epoch": 1.3903333333333334, "grad_norm": 0.7962198257446289, "learning_rate": 5.555555555555556e-08, "loss": 0.1499, "step": 2999 }, { "epoch": 1.3906666666666667, "grad_norm": 0.8847924470901489, "learning_rate": 3.7037037037037036e-08, "loss": 0.1833, "step": 3000 } ], "logging_steps": 1.0, "max_steps": 3000, "num_input_tokens_seen": 0, "num_train_epochs": 9223372036854775807, "save_steps": 1000, "stateful_callbacks": { "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": true }, "attributes": {} } }, "total_flos": 3.465210447809741e+20, "train_batch_size": 34, "trial_name": null, "trial_params": null }