{ "best_metric": null, "best_model_checkpoint": null, "epoch": 1.0, "eval_steps": 39, "global_step": 384, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.0026041666666666665, "grad_norm": 0.3952034496250024, "learning_rate": 5e-06, "loss": 2.4903, "step": 1 }, { "epoch": 0.0026041666666666665, "eval_loss": 2.554558753967285, "eval_runtime": 65.1161, "eval_samples_per_second": 1.229, "eval_steps_per_second": 0.154, "step": 1 }, { "epoch": 0.005208333333333333, "grad_norm": 0.3885918424668888, "learning_rate": 1e-05, "loss": 2.4825, "step": 2 }, { "epoch": 0.0078125, "grad_norm": 0.3847099050493279, "learning_rate": 1.5e-05, "loss": 2.5035, "step": 3 }, { "epoch": 0.010416666666666666, "grad_norm": 0.4235545463515579, "learning_rate": 2e-05, "loss": 2.5577, "step": 4 }, { "epoch": 0.013020833333333334, "grad_norm": 0.3801745772810421, "learning_rate": 2.5e-05, "loss": 2.5297, "step": 5 }, { "epoch": 0.015625, "grad_norm": 0.3512277500716236, "learning_rate": 3e-05, "loss": 2.4777, "step": 6 }, { "epoch": 0.018229166666666668, "grad_norm": 0.28888015786994375, "learning_rate": 3.5e-05, "loss": 2.4556, "step": 7 }, { "epoch": 0.020833333333333332, "grad_norm": 0.25350975750236143, "learning_rate": 4e-05, "loss": 2.5022, "step": 8 }, { "epoch": 0.0234375, "grad_norm": 0.22691977505165736, "learning_rate": 4.5e-05, "loss": 2.4143, "step": 9 }, { "epoch": 0.026041666666666668, "grad_norm": 0.20864896327745933, "learning_rate": 5e-05, "loss": 2.4545, "step": 10 }, { "epoch": 0.028645833333333332, "grad_norm": 0.20008113121425344, "learning_rate": 5.500000000000001e-05, "loss": 2.4939, "step": 11 }, { "epoch": 0.03125, "grad_norm": 0.24785418789288546, "learning_rate": 6e-05, "loss": 2.3184, "step": 12 }, { "epoch": 0.033854166666666664, "grad_norm": 0.2153715911656377, "learning_rate": 6.500000000000001e-05, "loss": 2.4738, "step": 13 }, { "epoch": 0.036458333333333336, "grad_norm": 0.22249287774026938, "learning_rate": 7e-05, "loss": 2.4814, "step": 14 }, { "epoch": 0.0390625, "grad_norm": 0.2076426443768558, "learning_rate": 7.500000000000001e-05, "loss": 2.3529, "step": 15 }, { "epoch": 0.041666666666666664, "grad_norm": 0.2246776060857838, "learning_rate": 8e-05, "loss": 2.2371, "step": 16 }, { "epoch": 0.044270833333333336, "grad_norm": 0.18383862266336323, "learning_rate": 8.5e-05, "loss": 2.4787, "step": 17 }, { "epoch": 0.046875, "grad_norm": 0.20631688287583885, "learning_rate": 9e-05, "loss": 2.6178, "step": 18 }, { "epoch": 0.049479166666666664, "grad_norm": 0.18016643348558348, "learning_rate": 9.5e-05, "loss": 2.4891, "step": 19 }, { "epoch": 0.052083333333333336, "grad_norm": 0.14534618682097772, "learning_rate": 0.0001, "loss": 2.4522, "step": 20 }, { "epoch": 0.0546875, "grad_norm": 0.15428537805246717, "learning_rate": 9.999832398924833e-05, "loss": 2.4111, "step": 21 }, { "epoch": 0.057291666666666664, "grad_norm": 0.1631103718894274, "learning_rate": 9.999329608183822e-05, "loss": 2.387, "step": 22 }, { "epoch": 0.059895833333333336, "grad_norm": 0.1552602669275131, "learning_rate": 9.998491665229539e-05, "loss": 2.3648, "step": 23 }, { "epoch": 0.0625, "grad_norm": 0.1704183704935776, "learning_rate": 9.997318632479817e-05, "loss": 2.4997, "step": 24 }, { "epoch": 0.06510416666666667, "grad_norm": 0.1585395745370806, "learning_rate": 9.995810597313128e-05, "loss": 2.5326, "step": 25 }, { "epoch": 0.06770833333333333, "grad_norm": 0.1344528253347993, "learning_rate": 9.993967672062052e-05, "loss": 2.5174, "step": 26 }, { "epoch": 0.0703125, "grad_norm": 0.14705487245235002, "learning_rate": 9.991789994004929e-05, "loss": 2.3446, "step": 27 }, { "epoch": 0.07291666666666667, "grad_norm": 0.1461054029585455, "learning_rate": 9.989277725355615e-05, "loss": 2.4945, "step": 28 }, { "epoch": 0.07552083333333333, "grad_norm": 0.14508526627249885, "learning_rate": 9.986431053251411e-05, "loss": 2.3801, "step": 29 }, { "epoch": 0.078125, "grad_norm": 0.14473824067661442, "learning_rate": 9.983250189739119e-05, "loss": 2.4877, "step": 30 }, { "epoch": 0.08072916666666667, "grad_norm": 0.18945595196350265, "learning_rate": 9.97973537175925e-05, "loss": 2.5833, "step": 31 }, { "epoch": 0.08333333333333333, "grad_norm": 0.1541697712272958, "learning_rate": 9.975886861128368e-05, "loss": 2.4619, "step": 32 }, { "epoch": 0.0859375, "grad_norm": 0.16052736172586615, "learning_rate": 9.971704944519594e-05, "loss": 2.5037, "step": 33 }, { "epoch": 0.08854166666666667, "grad_norm": 0.15543243937875972, "learning_rate": 9.967189933441243e-05, "loss": 2.4374, "step": 34 }, { "epoch": 0.09114583333333333, "grad_norm": 0.16705335802827087, "learning_rate": 9.962342164213639e-05, "loss": 2.5955, "step": 35 }, { "epoch": 0.09375, "grad_norm": 0.14789348505066385, "learning_rate": 9.957161997944034e-05, "loss": 2.4322, "step": 36 }, { "epoch": 0.09635416666666667, "grad_norm": 0.15495422007897772, "learning_rate": 9.95164982049974e-05, "loss": 2.4307, "step": 37 }, { "epoch": 0.09895833333333333, "grad_norm": 0.15049524925558916, "learning_rate": 9.94580604247936e-05, "loss": 2.3423, "step": 38 }, { "epoch": 0.1015625, "grad_norm": 0.1444251980172912, "learning_rate": 9.939631099182219e-05, "loss": 2.2882, "step": 39 }, { "epoch": 0.1015625, "eval_loss": 2.4301750659942627, "eval_runtime": 65.3323, "eval_samples_per_second": 1.225, "eval_steps_per_second": 0.153, "step": 39 }, { "epoch": 0.10416666666666667, "grad_norm": 0.1475367612200888, "learning_rate": 9.933125450575932e-05, "loss": 2.4509, "step": 40 }, { "epoch": 0.10677083333333333, "grad_norm": 0.16356380426266176, "learning_rate": 9.926289581262147e-05, "loss": 2.5307, "step": 41 }, { "epoch": 0.109375, "grad_norm": 0.166302003601292, "learning_rate": 9.919124000440438e-05, "loss": 2.526, "step": 42 }, { "epoch": 0.11197916666666667, "grad_norm": 0.14645402434215465, "learning_rate": 9.91162924187038e-05, "loss": 2.2958, "step": 43 }, { "epoch": 0.11458333333333333, "grad_norm": 0.2119539720051403, "learning_rate": 9.903805863831799e-05, "loss": 2.3299, "step": 44 }, { "epoch": 0.1171875, "grad_norm": 0.151653634781893, "learning_rate": 9.895654449083166e-05, "loss": 2.4133, "step": 45 }, { "epoch": 0.11979166666666667, "grad_norm": 0.1547044553169797, "learning_rate": 9.887175604818206e-05, "loss": 2.5952, "step": 46 }, { "epoch": 0.12239583333333333, "grad_norm": 0.16664262013704687, "learning_rate": 9.87836996262066e-05, "loss": 2.4714, "step": 47 }, { "epoch": 0.125, "grad_norm": 0.15551192268579045, "learning_rate": 9.869238178417235e-05, "loss": 2.3432, "step": 48 }, { "epoch": 0.12760416666666666, "grad_norm": 0.14968525834314664, "learning_rate": 9.859780932428756e-05, "loss": 2.4037, "step": 49 }, { "epoch": 0.13020833333333334, "grad_norm": 0.1685655914159011, "learning_rate": 9.849998929119488e-05, "loss": 2.4032, "step": 50 }, { "epoch": 0.1328125, "grad_norm": 0.13644233785328275, "learning_rate": 9.839892897144663e-05, "loss": 2.4095, "step": 51 }, { "epoch": 0.13541666666666666, "grad_norm": 0.14364815720124613, "learning_rate": 9.829463589296203e-05, "loss": 2.4398, "step": 52 }, { "epoch": 0.13802083333333334, "grad_norm": 0.14915929369602085, "learning_rate": 9.818711782446645e-05, "loss": 2.4816, "step": 53 }, { "epoch": 0.140625, "grad_norm": 0.14935461072359194, "learning_rate": 9.80763827749127e-05, "loss": 2.3426, "step": 54 }, { "epoch": 0.14322916666666666, "grad_norm": 0.15190176296605723, "learning_rate": 9.796243899288456e-05, "loss": 2.4705, "step": 55 }, { "epoch": 0.14583333333333334, "grad_norm": 0.14303795896023264, "learning_rate": 9.784529496598214e-05, "loss": 2.5108, "step": 56 }, { "epoch": 0.1484375, "grad_norm": 0.1556316812368993, "learning_rate": 9.772495942018985e-05, "loss": 2.3112, "step": 57 }, { "epoch": 0.15104166666666666, "grad_norm": 0.1483632196038671, "learning_rate": 9.760144131922628e-05, "loss": 2.2325, "step": 58 }, { "epoch": 0.15364583333333334, "grad_norm": 0.12410345584803052, "learning_rate": 9.747474986387654e-05, "loss": 2.3749, "step": 59 }, { "epoch": 0.15625, "grad_norm": 0.16335694957610425, "learning_rate": 9.734489449130695e-05, "loss": 2.4645, "step": 60 }, { "epoch": 0.15885416666666666, "grad_norm": 0.1479375196060614, "learning_rate": 9.721188487436195e-05, "loss": 2.3834, "step": 61 }, { "epoch": 0.16145833333333334, "grad_norm": 0.13750323689269844, "learning_rate": 9.707573092084368e-05, "loss": 2.3592, "step": 62 }, { "epoch": 0.1640625, "grad_norm": 0.16027916915470333, "learning_rate": 9.693644277277391e-05, "loss": 2.4954, "step": 63 }, { "epoch": 0.16666666666666666, "grad_norm": 0.14229365410212697, "learning_rate": 9.679403080563861e-05, "loss": 2.4404, "step": 64 }, { "epoch": 0.16927083333333334, "grad_norm": 0.153686499622388, "learning_rate": 9.6648505627615e-05, "loss": 2.2282, "step": 65 }, { "epoch": 0.171875, "grad_norm": 0.16590644992700104, "learning_rate": 9.649987807878148e-05, "loss": 2.5126, "step": 66 }, { "epoch": 0.17447916666666666, "grad_norm": 0.15502972088699477, "learning_rate": 9.634815923030997e-05, "loss": 2.3749, "step": 67 }, { "epoch": 0.17708333333333334, "grad_norm": 0.14756465898580834, "learning_rate": 9.61933603836415e-05, "loss": 2.3476, "step": 68 }, { "epoch": 0.1796875, "grad_norm": 0.14919525754908758, "learning_rate": 9.603549306964407e-05, "loss": 2.3509, "step": 69 }, { "epoch": 0.18229166666666666, "grad_norm": 0.13861494211266717, "learning_rate": 9.587456904775393e-05, "loss": 2.2449, "step": 70 }, { "epoch": 0.18489583333333334, "grad_norm": 0.14821518394829722, "learning_rate": 9.57106003050996e-05, "loss": 2.3813, "step": 71 }, { "epoch": 0.1875, "grad_norm": 0.16324527196573113, "learning_rate": 9.554359905560886e-05, "loss": 2.477, "step": 72 }, { "epoch": 0.19010416666666666, "grad_norm": 0.14892748528676938, "learning_rate": 9.537357773909906e-05, "loss": 2.264, "step": 73 }, { "epoch": 0.19270833333333334, "grad_norm": 0.1284546434475265, "learning_rate": 9.520054902035035e-05, "loss": 2.4267, "step": 74 }, { "epoch": 0.1953125, "grad_norm": 0.14293551215488642, "learning_rate": 9.502452578816244e-05, "loss": 2.5131, "step": 75 }, { "epoch": 0.19791666666666666, "grad_norm": 0.14775108859068506, "learning_rate": 9.484552115439445e-05, "loss": 2.4076, "step": 76 }, { "epoch": 0.20052083333333334, "grad_norm": 0.15478800535673032, "learning_rate": 9.466354845298817e-05, "loss": 2.5762, "step": 77 }, { "epoch": 0.203125, "grad_norm": 0.16835921991226063, "learning_rate": 9.44786212389749e-05, "loss": 2.3752, "step": 78 }, { "epoch": 0.203125, "eval_loss": 2.4171054363250732, "eval_runtime": 65.4109, "eval_samples_per_second": 1.223, "eval_steps_per_second": 0.153, "step": 78 }, { "epoch": 0.20572916666666666, "grad_norm": 0.14467889640535875, "learning_rate": 9.42907532874657e-05, "loss": 2.4769, "step": 79 }, { "epoch": 0.20833333333333334, "grad_norm": 0.13503613492125413, "learning_rate": 9.40999585926253e-05, "loss": 2.4346, "step": 80 }, { "epoch": 0.2109375, "grad_norm": 0.1517728973900508, "learning_rate": 9.390625136662972e-05, "loss": 2.261, "step": 81 }, { "epoch": 0.21354166666666666, "grad_norm": 0.1466563383653839, "learning_rate": 9.370964603860753e-05, "loss": 2.5261, "step": 82 }, { "epoch": 0.21614583333333334, "grad_norm": 0.14618631155344838, "learning_rate": 9.351015725356514e-05, "loss": 2.4269, "step": 83 }, { "epoch": 0.21875, "grad_norm": 0.15601390292939937, "learning_rate": 9.33077998712958e-05, "loss": 2.3773, "step": 84 }, { "epoch": 0.22135416666666666, "grad_norm": 0.14415725413526403, "learning_rate": 9.310258896527278e-05, "loss": 2.3473, "step": 85 }, { "epoch": 0.22395833333333334, "grad_norm": 0.13470412653239092, "learning_rate": 9.289453982152653e-05, "loss": 2.3472, "step": 86 }, { "epoch": 0.2265625, "grad_norm": 0.15570776289510233, "learning_rate": 9.2683667937506e-05, "loss": 2.4414, "step": 87 }, { "epoch": 0.22916666666666666, "grad_norm": 0.14612626399487072, "learning_rate": 9.246998902092428e-05, "loss": 2.4655, "step": 88 }, { "epoch": 0.23177083333333334, "grad_norm": 0.18267625807633459, "learning_rate": 9.22535189885886e-05, "loss": 2.2771, "step": 89 }, { "epoch": 0.234375, "grad_norm": 0.16065010725957032, "learning_rate": 9.203427396521454e-05, "loss": 2.4194, "step": 90 }, { "epoch": 0.23697916666666666, "grad_norm": 0.18321820032984756, "learning_rate": 9.181227028222508e-05, "loss": 2.4456, "step": 91 }, { "epoch": 0.23958333333333334, "grad_norm": 0.13929464732035163, "learning_rate": 9.158752447653397e-05, "loss": 2.3989, "step": 92 }, { "epoch": 0.2421875, "grad_norm": 0.15585898969003706, "learning_rate": 9.136005328931395e-05, "loss": 2.4777, "step": 93 }, { "epoch": 0.24479166666666666, "grad_norm": 0.14793073723102618, "learning_rate": 9.112987366474972e-05, "loss": 2.379, "step": 94 }, { "epoch": 0.24739583333333334, "grad_norm": 0.14075868568691305, "learning_rate": 9.089700274877574e-05, "loss": 2.3281, "step": 95 }, { "epoch": 0.25, "grad_norm": 0.15327339815586916, "learning_rate": 9.066145788779908e-05, "loss": 2.4517, "step": 96 }, { "epoch": 0.2526041666666667, "grad_norm": 0.15505433166839452, "learning_rate": 9.042325662740726e-05, "loss": 2.2919, "step": 97 }, { "epoch": 0.2552083333333333, "grad_norm": 0.1468856057426848, "learning_rate": 9.018241671106134e-05, "loss": 2.3889, "step": 98 }, { "epoch": 0.2578125, "grad_norm": 0.1478488710337695, "learning_rate": 8.993895607877418e-05, "loss": 2.3595, "step": 99 }, { "epoch": 0.2604166666666667, "grad_norm": 0.175359520279898, "learning_rate": 8.969289286577408e-05, "loss": 2.553, "step": 100 }, { "epoch": 0.2630208333333333, "grad_norm": 0.14503182442700818, "learning_rate": 8.9444245401154e-05, "loss": 2.3573, "step": 101 }, { "epoch": 0.265625, "grad_norm": 0.14177870868430487, "learning_rate": 8.919303220650606e-05, "loss": 2.3274, "step": 102 }, { "epoch": 0.2682291666666667, "grad_norm": 0.1779007031093982, "learning_rate": 8.893927199454207e-05, "loss": 2.2008, "step": 103 }, { "epoch": 0.2708333333333333, "grad_norm": 0.14578869126284813, "learning_rate": 8.868298366769954e-05, "loss": 2.444, "step": 104 }, { "epoch": 0.2734375, "grad_norm": 0.14046914929392473, "learning_rate": 8.842418631673365e-05, "loss": 2.2844, "step": 105 }, { "epoch": 0.2760416666666667, "grad_norm": 0.13720708755401478, "learning_rate": 8.816289921929516e-05, "loss": 2.5047, "step": 106 }, { "epoch": 0.2786458333333333, "grad_norm": 0.13901967393067377, "learning_rate": 8.789914183849449e-05, "loss": 2.4602, "step": 107 }, { "epoch": 0.28125, "grad_norm": 0.14165507438668587, "learning_rate": 8.763293382145195e-05, "loss": 2.3135, "step": 108 }, { "epoch": 0.2838541666666667, "grad_norm": 0.1588574639328753, "learning_rate": 8.73642949978341e-05, "loss": 2.3731, "step": 109 }, { "epoch": 0.2864583333333333, "grad_norm": 0.1905241886636867, "learning_rate": 8.709324537837684e-05, "loss": 2.4152, "step": 110 }, { "epoch": 0.2890625, "grad_norm": 0.16919809232424363, "learning_rate": 8.681980515339464e-05, "loss": 2.2948, "step": 111 }, { "epoch": 0.2916666666666667, "grad_norm": 0.15114015395920236, "learning_rate": 8.654399469127673e-05, "loss": 2.4309, "step": 112 }, { "epoch": 0.2942708333333333, "grad_norm": 0.13890547261939354, "learning_rate": 8.626583453696976e-05, "loss": 2.4866, "step": 113 }, { "epoch": 0.296875, "grad_norm": 0.1490334985258922, "learning_rate": 8.598534541044747e-05, "loss": 2.4748, "step": 114 }, { "epoch": 0.2994791666666667, "grad_norm": 0.15113023404371403, "learning_rate": 8.570254820516728e-05, "loss": 2.3583, "step": 115 }, { "epoch": 0.3020833333333333, "grad_norm": 0.14358757342098682, "learning_rate": 8.541746398651395e-05, "loss": 2.4005, "step": 116 }, { "epoch": 0.3046875, "grad_norm": 0.1494340804949735, "learning_rate": 8.513011399023036e-05, "loss": 2.3249, "step": 117 }, { "epoch": 0.3046875, "eval_loss": 2.4119415283203125, "eval_runtime": 65.4329, "eval_samples_per_second": 1.223, "eval_steps_per_second": 0.153, "step": 117 }, { "epoch": 0.3072916666666667, "grad_norm": 0.14857253164474957, "learning_rate": 8.484051962083579e-05, "loss": 2.3431, "step": 118 }, { "epoch": 0.3098958333333333, "grad_norm": 0.14191988741229736, "learning_rate": 8.454870245003141e-05, "loss": 2.3861, "step": 119 }, { "epoch": 0.3125, "grad_norm": 0.1516024307266096, "learning_rate": 8.425468421509349e-05, "loss": 2.411, "step": 120 }, { "epoch": 0.3151041666666667, "grad_norm": 0.15002982823803926, "learning_rate": 8.395848681725416e-05, "loss": 2.49, "step": 121 }, { "epoch": 0.3177083333333333, "grad_norm": 0.14904411125984457, "learning_rate": 8.366013232007002e-05, "loss": 2.2998, "step": 122 }, { "epoch": 0.3203125, "grad_norm": 0.15513959182528284, "learning_rate": 8.335964294777862e-05, "loss": 2.4748, "step": 123 }, { "epoch": 0.3229166666666667, "grad_norm": 0.16028597088352084, "learning_rate": 8.305704108364301e-05, "loss": 2.5415, "step": 124 }, { "epoch": 0.3255208333333333, "grad_norm": 0.1382845005964039, "learning_rate": 8.275234926828446e-05, "loss": 2.3863, "step": 125 }, { "epoch": 0.328125, "grad_norm": 0.13146327268638525, "learning_rate": 8.244559019800328e-05, "loss": 2.2718, "step": 126 }, { "epoch": 0.3307291666666667, "grad_norm": 0.14918540441469405, "learning_rate": 8.213678672308841e-05, "loss": 2.29, "step": 127 }, { "epoch": 0.3333333333333333, "grad_norm": 0.14572964949235084, "learning_rate": 8.182596184611514e-05, "loss": 2.3865, "step": 128 }, { "epoch": 0.3359375, "grad_norm": 0.1467709610422986, "learning_rate": 8.151313872023172e-05, "loss": 2.3566, "step": 129 }, { "epoch": 0.3385416666666667, "grad_norm": 0.1696428030171741, "learning_rate": 8.119834064743469e-05, "loss": 2.4145, "step": 130 }, { "epoch": 0.3411458333333333, "grad_norm": 0.1567212274267596, "learning_rate": 8.088159107683314e-05, "loss": 2.3996, "step": 131 }, { "epoch": 0.34375, "grad_norm": 0.16059171688564705, "learning_rate": 8.056291360290201e-05, "loss": 2.4796, "step": 132 }, { "epoch": 0.3463541666666667, "grad_norm": 0.17528470844982455, "learning_rate": 8.024233196372453e-05, "loss": 2.3711, "step": 133 }, { "epoch": 0.3489583333333333, "grad_norm": 0.15733889602776618, "learning_rate": 7.9919870039224e-05, "loss": 2.2677, "step": 134 }, { "epoch": 0.3515625, "grad_norm": 0.14873870088112393, "learning_rate": 7.959555184938495e-05, "loss": 2.4515, "step": 135 }, { "epoch": 0.3541666666666667, "grad_norm": 0.15417965735327782, "learning_rate": 7.926940155246397e-05, "loss": 2.4285, "step": 136 }, { "epoch": 0.3567708333333333, "grad_norm": 0.1431617281765595, "learning_rate": 7.894144344319014e-05, "loss": 2.2096, "step": 137 }, { "epoch": 0.359375, "grad_norm": 0.1582812354896834, "learning_rate": 7.861170195095537e-05, "loss": 2.5397, "step": 138 }, { "epoch": 0.3619791666666667, "grad_norm": 0.17372786439002758, "learning_rate": 7.828020163799455e-05, "loss": 2.4293, "step": 139 }, { "epoch": 0.3645833333333333, "grad_norm": 0.12985922414383083, "learning_rate": 7.794696719755612e-05, "loss": 2.3064, "step": 140 }, { "epoch": 0.3671875, "grad_norm": 0.14444453543114258, "learning_rate": 7.761202345206249e-05, "loss": 2.4924, "step": 141 }, { "epoch": 0.3697916666666667, "grad_norm": 0.14361378320872797, "learning_rate": 7.727539535126118e-05, "loss": 2.485, "step": 142 }, { "epoch": 0.3723958333333333, "grad_norm": 0.14506765397834698, "learning_rate": 7.69371079703662e-05, "loss": 2.4081, "step": 143 }, { "epoch": 0.375, "grad_norm": 0.15082242594669004, "learning_rate": 7.65971865081904e-05, "loss": 2.4042, "step": 144 }, { "epoch": 0.3776041666666667, "grad_norm": 0.14811116555183387, "learning_rate": 7.625565628526818e-05, "loss": 2.5335, "step": 145 }, { "epoch": 0.3802083333333333, "grad_norm": 0.14726265807121236, "learning_rate": 7.591254274196959e-05, "loss": 2.2424, "step": 146 }, { "epoch": 0.3828125, "grad_norm": 0.1582839530592079, "learning_rate": 7.556787143660521e-05, "loss": 2.3499, "step": 147 }, { "epoch": 0.3854166666666667, "grad_norm": 0.15670436913091046, "learning_rate": 7.522166804352226e-05, "loss": 2.4295, "step": 148 }, { "epoch": 0.3880208333333333, "grad_norm": 0.14730612216140554, "learning_rate": 7.487395835119231e-05, "loss": 2.3101, "step": 149 }, { "epoch": 0.390625, "grad_norm": 0.15120580103738476, "learning_rate": 7.452476826029011e-05, "loss": 2.4888, "step": 150 }, { "epoch": 0.3932291666666667, "grad_norm": 0.15081791485599214, "learning_rate": 7.417412378176446e-05, "loss": 2.3946, "step": 151 }, { "epoch": 0.3958333333333333, "grad_norm": 0.13244742107918075, "learning_rate": 7.382205103490043e-05, "loss": 2.2704, "step": 152 }, { "epoch": 0.3984375, "grad_norm": 0.14571632653572605, "learning_rate": 7.346857624537407e-05, "loss": 2.4644, "step": 153 }, { "epoch": 0.4010416666666667, "grad_norm": 0.15252862923031207, "learning_rate": 7.311372574329854e-05, "loss": 2.554, "step": 154 }, { "epoch": 0.4036458333333333, "grad_norm": 0.14927980854491554, "learning_rate": 7.275752596126308e-05, "loss": 2.3804, "step": 155 }, { "epoch": 0.40625, "grad_norm": 0.1406590744757482, "learning_rate": 7.240000343236385e-05, "loss": 2.2504, "step": 156 }, { "epoch": 0.40625, "eval_loss": 2.408146619796753, "eval_runtime": 65.4856, "eval_samples_per_second": 1.222, "eval_steps_per_second": 0.153, "step": 156 }, { "epoch": 0.4088541666666667, "grad_norm": 0.13753178031418029, "learning_rate": 7.204118478822766e-05, "loss": 2.3063, "step": 157 }, { "epoch": 0.4114583333333333, "grad_norm": 0.13719355865812055, "learning_rate": 7.168109675702806e-05, "loss": 2.1826, "step": 158 }, { "epoch": 0.4140625, "grad_norm": 0.14916916897375052, "learning_rate": 7.131976616149445e-05, "loss": 2.3635, "step": 159 }, { "epoch": 0.4166666666666667, "grad_norm": 0.1544520288957668, "learning_rate": 7.095721991691411e-05, "loss": 2.6067, "step": 160 }, { "epoch": 0.4192708333333333, "grad_norm": 0.1466811081471814, "learning_rate": 7.05934850291272e-05, "loss": 2.2636, "step": 161 }, { "epoch": 0.421875, "grad_norm": 0.14245354657490636, "learning_rate": 7.022858859251517e-05, "loss": 2.3278, "step": 162 }, { "epoch": 0.4244791666666667, "grad_norm": 0.14310350882179557, "learning_rate": 6.986255778798253e-05, "loss": 2.2951, "step": 163 }, { "epoch": 0.4270833333333333, "grad_norm": 0.15028525220062852, "learning_rate": 6.949541988093208e-05, "loss": 2.3647, "step": 164 }, { "epoch": 0.4296875, "grad_norm": 0.13536590220383313, "learning_rate": 6.912720221923405e-05, "loss": 2.3635, "step": 165 }, { "epoch": 0.4322916666666667, "grad_norm": 0.14965390120450028, "learning_rate": 6.875793223118888e-05, "loss": 2.3191, "step": 166 }, { "epoch": 0.4348958333333333, "grad_norm": 0.15696846625410496, "learning_rate": 6.838763742348415e-05, "loss": 2.4342, "step": 167 }, { "epoch": 0.4375, "grad_norm": 0.16266249005182767, "learning_rate": 6.801634537914555e-05, "loss": 2.4487, "step": 168 }, { "epoch": 0.4401041666666667, "grad_norm": 0.15099304315918932, "learning_rate": 6.764408375548237e-05, "loss": 2.4774, "step": 169 }, { "epoch": 0.4427083333333333, "grad_norm": 0.1437502300792439, "learning_rate": 6.727088028202723e-05, "loss": 2.4369, "step": 170 }, { "epoch": 0.4453125, "grad_norm": 0.13339677555582233, "learning_rate": 6.68967627584705e-05, "loss": 2.3039, "step": 171 }, { "epoch": 0.4479166666666667, "grad_norm": 0.1416720700803862, "learning_rate": 6.652175905258963e-05, "loss": 2.2844, "step": 172 }, { "epoch": 0.4505208333333333, "grad_norm": 0.14502909820943563, "learning_rate": 6.614589709817317e-05, "loss": 2.4192, "step": 173 }, { "epoch": 0.453125, "grad_norm": 0.14499193575249233, "learning_rate": 6.576920489294011e-05, "loss": 2.3057, "step": 174 }, { "epoch": 0.4557291666666667, "grad_norm": 0.15038851044223103, "learning_rate": 6.539171049645426e-05, "loss": 2.4237, "step": 175 }, { "epoch": 0.4583333333333333, "grad_norm": 0.14553942382157312, "learning_rate": 6.501344202803414e-05, "loss": 2.4642, "step": 176 }, { "epoch": 0.4609375, "grad_norm": 0.13896484063095102, "learning_rate": 6.463442766465847e-05, "loss": 2.4132, "step": 177 }, { "epoch": 0.4635416666666667, "grad_norm": 0.14978646915320232, "learning_rate": 6.425469563886715e-05, "loss": 2.3692, "step": 178 }, { "epoch": 0.4661458333333333, "grad_norm": 0.13794418734075914, "learning_rate": 6.387427423665829e-05, "loss": 2.3524, "step": 179 }, { "epoch": 0.46875, "grad_norm": 0.1467143240226456, "learning_rate": 6.349319179538126e-05, "loss": 2.359, "step": 180 }, { "epoch": 0.4713541666666667, "grad_norm": 0.14326937356779176, "learning_rate": 6.311147670162576e-05, "loss": 2.5547, "step": 181 }, { "epoch": 0.4739583333333333, "grad_norm": 0.141220074236358, "learning_rate": 6.272915738910743e-05, "loss": 2.4299, "step": 182 }, { "epoch": 0.4765625, "grad_norm": 0.148901889828269, "learning_rate": 6.234626233654973e-05, "loss": 2.5296, "step": 183 }, { "epoch": 0.4791666666666667, "grad_norm": 0.15238094995154358, "learning_rate": 6.196282006556266e-05, "loss": 2.2642, "step": 184 }, { "epoch": 0.4817708333333333, "grad_norm": 0.14562487124583376, "learning_rate": 6.157885913851818e-05, "loss": 2.2485, "step": 185 }, { "epoch": 0.484375, "grad_norm": 0.1557482340822006, "learning_rate": 6.119440815642258e-05, "loss": 2.5018, "step": 186 }, { "epoch": 0.4869791666666667, "grad_norm": 0.15557904288598579, "learning_rate": 6.080949575678606e-05, "loss": 2.3121, "step": 187 }, { "epoch": 0.4895833333333333, "grad_norm": 0.132624820989215, "learning_rate": 6.042415061148954e-05, "loss": 2.4456, "step": 188 }, { "epoch": 0.4921875, "grad_norm": 0.14540093060758663, "learning_rate": 6.003840142464886e-05, "loss": 2.4166, "step": 189 }, { "epoch": 0.4947916666666667, "grad_norm": 0.13698817848218522, "learning_rate": 5.9652276930476656e-05, "loss": 2.4569, "step": 190 }, { "epoch": 0.4973958333333333, "grad_norm": 0.13530133541335626, "learning_rate": 5.926580589114201e-05, "loss": 2.521, "step": 191 }, { "epoch": 0.5, "grad_norm": 0.13985911131684764, "learning_rate": 5.8879017094627874e-05, "loss": 2.4112, "step": 192 }, { "epoch": 0.5026041666666666, "grad_norm": 0.13203633038116566, "learning_rate": 5.849193935258679e-05, "loss": 2.1839, "step": 193 }, { "epoch": 0.5052083333333334, "grad_norm": 0.16221179568567085, "learning_rate": 5.810460149819462e-05, "loss": 2.2793, "step": 194 }, { "epoch": 0.5078125, "grad_norm": 0.15402021583934355, "learning_rate": 5.771703238400288e-05, "loss": 2.3905, "step": 195 }, { "epoch": 0.5078125, "eval_loss": 2.4029593467712402, "eval_runtime": 65.2935, "eval_samples_per_second": 1.225, "eval_steps_per_second": 0.153, "step": 195 }, { "epoch": 0.5104166666666666, "grad_norm": 0.15606553454493674, "learning_rate": 5.7329260879789437e-05, "loss": 2.3709, "step": 196 }, { "epoch": 0.5130208333333334, "grad_norm": 0.1448236972696976, "learning_rate": 5.6941315870408066e-05, "loss": 2.4256, "step": 197 }, { "epoch": 0.515625, "grad_norm": 0.15924118657730604, "learning_rate": 5.655322625363687e-05, "loss": 2.5228, "step": 198 }, { "epoch": 0.5182291666666666, "grad_norm": 0.17454487852950232, "learning_rate": 5.616502093802565e-05, "loss": 2.2945, "step": 199 }, { "epoch": 0.5208333333333334, "grad_norm": 0.14248471717781994, "learning_rate": 5.577672884074249e-05, "loss": 2.3514, "step": 200 }, { "epoch": 0.5234375, "grad_norm": 0.14873123082787126, "learning_rate": 5.538837888541986e-05, "loss": 2.4918, "step": 201 }, { "epoch": 0.5260416666666666, "grad_norm": 0.1600074911775423, "learning_rate": 5.500000000000001e-05, "loss": 2.3231, "step": 202 }, { "epoch": 0.5286458333333334, "grad_norm": 0.15123679319262007, "learning_rate": 5.461162111458016e-05, "loss": 2.3613, "step": 203 }, { "epoch": 0.53125, "grad_norm": 0.13067031369476279, "learning_rate": 5.422327115925753e-05, "loss": 2.3407, "step": 204 }, { "epoch": 0.5338541666666666, "grad_norm": 0.1419685152456832, "learning_rate": 5.3834979061974376e-05, "loss": 2.4375, "step": 205 }, { "epoch": 0.5364583333333334, "grad_norm": 0.13456464948427768, "learning_rate": 5.3446773746363153e-05, "loss": 2.3542, "step": 206 }, { "epoch": 0.5390625, "grad_norm": 0.1394757337185396, "learning_rate": 5.305868412959195e-05, "loss": 2.6189, "step": 207 }, { "epoch": 0.5416666666666666, "grad_norm": 0.14661264347416875, "learning_rate": 5.2670739120210574e-05, "loss": 2.4666, "step": 208 }, { "epoch": 0.5442708333333334, "grad_norm": 0.15772002651226175, "learning_rate": 5.2282967615997125e-05, "loss": 2.2665, "step": 209 }, { "epoch": 0.546875, "grad_norm": 0.1436207432226202, "learning_rate": 5.1895398501805383e-05, "loss": 2.4412, "step": 210 }, { "epoch": 0.5494791666666666, "grad_norm": 0.1627045485383769, "learning_rate": 5.150806064741323e-05, "loss": 2.4241, "step": 211 }, { "epoch": 0.5520833333333334, "grad_norm": 0.1608053633868765, "learning_rate": 5.112098290537213e-05, "loss": 2.2647, "step": 212 }, { "epoch": 0.5546875, "grad_norm": 0.15608204954248603, "learning_rate": 5.0734194108858e-05, "loss": 2.4768, "step": 213 }, { "epoch": 0.5572916666666666, "grad_norm": 0.1576523104437354, "learning_rate": 5.0347723069523355e-05, "loss": 2.2488, "step": 214 }, { "epoch": 0.5598958333333334, "grad_norm": 0.16267311756196431, "learning_rate": 4.9961598575351155e-05, "loss": 2.2745, "step": 215 }, { "epoch": 0.5625, "grad_norm": 0.14597656332784, "learning_rate": 4.9575849388510473e-05, "loss": 2.2226, "step": 216 }, { "epoch": 0.5651041666666666, "grad_norm": 0.12952717920836662, "learning_rate": 4.919050424321395e-05, "loss": 2.2863, "step": 217 }, { "epoch": 0.5677083333333334, "grad_norm": 0.14126095486957518, "learning_rate": 4.880559184357745e-05, "loss": 2.2773, "step": 218 }, { "epoch": 0.5703125, "grad_norm": 0.15894975244045567, "learning_rate": 4.842114086148185e-05, "loss": 2.4144, "step": 219 }, { "epoch": 0.5729166666666666, "grad_norm": 0.15187930552412898, "learning_rate": 4.803717993443734e-05, "loss": 2.2729, "step": 220 }, { "epoch": 0.5755208333333334, "grad_norm": 0.15567668429445186, "learning_rate": 4.765373766345028e-05, "loss": 2.4327, "step": 221 }, { "epoch": 0.578125, "grad_norm": 0.1577838508745425, "learning_rate": 4.727084261089257e-05, "loss": 2.5534, "step": 222 }, { "epoch": 0.5807291666666666, "grad_norm": 0.1447851641278385, "learning_rate": 4.688852329837424e-05, "loss": 2.2928, "step": 223 }, { "epoch": 0.5833333333333334, "grad_norm": 0.13963925711509403, "learning_rate": 4.6506808204618754e-05, "loss": 2.3612, "step": 224 }, { "epoch": 0.5859375, "grad_norm": 0.17944687510007068, "learning_rate": 4.612572576334171e-05, "loss": 2.4195, "step": 225 }, { "epoch": 0.5885416666666666, "grad_norm": 0.15388075071309162, "learning_rate": 4.574530436113286e-05, "loss": 2.5277, "step": 226 }, { "epoch": 0.5911458333333334, "grad_norm": 0.12718481374460847, "learning_rate": 4.536557233534153e-05, "loss": 2.2991, "step": 227 }, { "epoch": 0.59375, "grad_norm": 0.14948263293785125, "learning_rate": 4.498655797196586e-05, "loss": 2.4404, "step": 228 }, { "epoch": 0.5963541666666666, "grad_norm": 0.13608773847019048, "learning_rate": 4.460828950354577e-05, "loss": 2.2945, "step": 229 }, { "epoch": 0.5989583333333334, "grad_norm": 0.14126010771163286, "learning_rate": 4.423079510705992e-05, "loss": 2.2835, "step": 230 }, { "epoch": 0.6015625, "grad_norm": 0.15458611014177978, "learning_rate": 4.3854102901826834e-05, "loss": 2.4491, "step": 231 }, { "epoch": 0.6041666666666666, "grad_norm": 0.17078246755698387, "learning_rate": 4.3478240947410386e-05, "loss": 2.5331, "step": 232 }, { "epoch": 0.6067708333333334, "grad_norm": 0.14807435693469648, "learning_rate": 4.3103237241529506e-05, "loss": 2.4154, "step": 233 }, { "epoch": 0.609375, "grad_norm": 0.15605308853260608, "learning_rate": 4.272911971797279e-05, "loss": 2.3354, "step": 234 }, { "epoch": 0.609375, "eval_loss": 2.401761531829834, "eval_runtime": 65.3141, "eval_samples_per_second": 1.225, "eval_steps_per_second": 0.153, "step": 234 }, { "epoch": 0.6119791666666666, "grad_norm": 0.15343655698839206, "learning_rate": 4.235591624451763e-05, "loss": 2.5605, "step": 235 }, { "epoch": 0.6145833333333334, "grad_norm": 0.14304569592672528, "learning_rate": 4.198365462085446e-05, "loss": 2.5812, "step": 236 }, { "epoch": 0.6171875, "grad_norm": 0.15320835548074707, "learning_rate": 4.161236257651587e-05, "loss": 2.5275, "step": 237 }, { "epoch": 0.6197916666666666, "grad_norm": 0.15452569712518102, "learning_rate": 4.1242067768811134e-05, "loss": 2.4707, "step": 238 }, { "epoch": 0.6223958333333334, "grad_norm": 0.16320750887974791, "learning_rate": 4.0872797780765946e-05, "loss": 2.3996, "step": 239 }, { "epoch": 0.625, "grad_norm": 0.14194397858802227, "learning_rate": 4.0504580119067933e-05, "loss": 2.2431, "step": 240 }, { "epoch": 0.6276041666666666, "grad_norm": 0.1437781011206105, "learning_rate": 4.01374422120175e-05, "loss": 2.3929, "step": 241 }, { "epoch": 0.6302083333333334, "grad_norm": 0.14383943780586664, "learning_rate": 3.977141140748484e-05, "loss": 2.3989, "step": 242 }, { "epoch": 0.6328125, "grad_norm": 0.16948819133813695, "learning_rate": 3.94065149708728e-05, "loss": 2.4256, "step": 243 }, { "epoch": 0.6354166666666666, "grad_norm": 0.14755837584042042, "learning_rate": 3.904278008308589e-05, "loss": 2.2711, "step": 244 }, { "epoch": 0.6380208333333334, "grad_norm": 0.15519908616035058, "learning_rate": 3.868023383850556e-05, "loss": 2.4623, "step": 245 }, { "epoch": 0.640625, "grad_norm": 0.16021538951276384, "learning_rate": 3.831890324297197e-05, "loss": 2.3857, "step": 246 }, { "epoch": 0.6432291666666666, "grad_norm": 0.15886505001684953, "learning_rate": 3.795881521177236e-05, "loss": 2.5196, "step": 247 }, { "epoch": 0.6458333333333334, "grad_norm": 0.16005244689800305, "learning_rate": 3.7599996567636156e-05, "loss": 2.406, "step": 248 }, { "epoch": 0.6484375, "grad_norm": 0.1470078515999776, "learning_rate": 3.724247403873694e-05, "loss": 2.4975, "step": 249 }, { "epoch": 0.6510416666666666, "grad_norm": 0.1560311928142992, "learning_rate": 3.688627425670147e-05, "loss": 2.374, "step": 250 }, { "epoch": 0.6536458333333334, "grad_norm": 0.15349615074542047, "learning_rate": 3.653142375462596e-05, "loss": 2.4155, "step": 251 }, { "epoch": 0.65625, "grad_norm": 0.20641136824203335, "learning_rate": 3.6177948965099585e-05, "loss": 2.4358, "step": 252 }, { "epoch": 0.6588541666666666, "grad_norm": 0.14326347914064022, "learning_rate": 3.582587621823558e-05, "loss": 2.4528, "step": 253 }, { "epoch": 0.6614583333333334, "grad_norm": 0.13097442902507145, "learning_rate": 3.547523173970989e-05, "loss": 2.3682, "step": 254 }, { "epoch": 0.6640625, "grad_norm": 0.14938841182330287, "learning_rate": 3.51260416488077e-05, "loss": 2.5273, "step": 255 }, { "epoch": 0.6666666666666666, "grad_norm": 0.1532472206020292, "learning_rate": 3.477833195647773e-05, "loss": 2.5301, "step": 256 }, { "epoch": 0.6692708333333334, "grad_norm": 0.12783586158700921, "learning_rate": 3.443212856339481e-05, "loss": 2.3279, "step": 257 }, { "epoch": 0.671875, "grad_norm": 0.15547617846106007, "learning_rate": 3.408745725803042e-05, "loss": 2.4209, "step": 258 }, { "epoch": 0.6744791666666666, "grad_norm": 0.13531260542176757, "learning_rate": 3.3744343714731835e-05, "loss": 2.3595, "step": 259 }, { "epoch": 0.6770833333333334, "grad_norm": 0.1488109854224464, "learning_rate": 3.3402813491809623e-05, "loss": 2.2631, "step": 260 }, { "epoch": 0.6796875, "grad_norm": 0.1753652780376821, "learning_rate": 3.3062892029633817e-05, "loss": 2.4748, "step": 261 }, { "epoch": 0.6822916666666666, "grad_norm": 0.1593205802273226, "learning_rate": 3.272460464873884e-05, "loss": 2.4484, "step": 262 }, { "epoch": 0.6848958333333334, "grad_norm": 0.1401885264986934, "learning_rate": 3.238797654793752e-05, "loss": 2.4234, "step": 263 }, { "epoch": 0.6875, "grad_norm": 0.15910838717602993, "learning_rate": 3.205303280244389e-05, "loss": 2.4679, "step": 264 }, { "epoch": 0.6901041666666666, "grad_norm": 0.16179488061734165, "learning_rate": 3.1719798362005444e-05, "loss": 2.4883, "step": 265 }, { "epoch": 0.6927083333333334, "grad_norm": 0.15848452909780508, "learning_rate": 3.138829804904464e-05, "loss": 2.4583, "step": 266 }, { "epoch": 0.6953125, "grad_norm": 0.16307212504652477, "learning_rate": 3.105855655680986e-05, "loss": 2.3327, "step": 267 }, { "epoch": 0.6979166666666666, "grad_norm": 0.1467535420565889, "learning_rate": 3.073059844753604e-05, "loss": 2.4382, "step": 268 }, { "epoch": 0.7005208333333334, "grad_norm": 0.14201414432531673, "learning_rate": 3.0404448150615063e-05, "loss": 2.3501, "step": 269 }, { "epoch": 0.703125, "grad_norm": 0.1549923554458448, "learning_rate": 3.0080129960776017e-05, "loss": 2.396, "step": 270 }, { "epoch": 0.7057291666666666, "grad_norm": 0.1524034184779795, "learning_rate": 2.9757668036275477e-05, "loss": 2.2784, "step": 271 }, { "epoch": 0.7083333333333334, "grad_norm": 0.16256677012412982, "learning_rate": 2.9437086397097995e-05, "loss": 2.3027, "step": 272 }, { "epoch": 0.7109375, "grad_norm": 0.15633557288864075, "learning_rate": 2.9118408923166875e-05, "loss": 2.5473, "step": 273 }, { "epoch": 0.7109375, "eval_loss": 2.3996334075927734, "eval_runtime": 65.6177, "eval_samples_per_second": 1.219, "eval_steps_per_second": 0.152, "step": 273 }, { "epoch": 0.7135416666666666, "grad_norm": 0.14577207953482688, "learning_rate": 2.8801659352565335e-05, "loss": 2.3106, "step": 274 }, { "epoch": 0.7161458333333334, "grad_norm": 0.12720217228966463, "learning_rate": 2.848686127976829e-05, "loss": 2.4048, "step": 275 }, { "epoch": 0.71875, "grad_norm": 0.1727762156703378, "learning_rate": 2.8174038153884862e-05, "loss": 2.3996, "step": 276 }, { "epoch": 0.7213541666666666, "grad_norm": 0.20872850658454511, "learning_rate": 2.786321327691158e-05, "loss": 2.5836, "step": 277 }, { "epoch": 0.7239583333333334, "grad_norm": 0.1591486153830447, "learning_rate": 2.7554409801996723e-05, "loss": 2.4478, "step": 278 }, { "epoch": 0.7265625, "grad_norm": 0.14032674083135735, "learning_rate": 2.7247650731715564e-05, "loss": 2.2852, "step": 279 }, { "epoch": 0.7291666666666666, "grad_norm": 0.15626590715798697, "learning_rate": 2.6942958916356998e-05, "loss": 2.525, "step": 280 }, { "epoch": 0.7317708333333334, "grad_norm": 0.16623699130944486, "learning_rate": 2.66403570522214e-05, "loss": 2.3565, "step": 281 }, { "epoch": 0.734375, "grad_norm": 0.1449533445649136, "learning_rate": 2.6339867679929997e-05, "loss": 2.2674, "step": 282 }, { "epoch": 0.7369791666666666, "grad_norm": 0.14290681116465945, "learning_rate": 2.6041513182745837e-05, "loss": 2.1482, "step": 283 }, { "epoch": 0.7395833333333334, "grad_norm": 0.13123439654719476, "learning_rate": 2.574531578490651e-05, "loss": 2.2889, "step": 284 }, { "epoch": 0.7421875, "grad_norm": 0.1510144014374668, "learning_rate": 2.54512975499686e-05, "loss": 2.3577, "step": 285 }, { "epoch": 0.7447916666666666, "grad_norm": 0.17738379736772392, "learning_rate": 2.515948037916423e-05, "loss": 2.3591, "step": 286 }, { "epoch": 0.7473958333333334, "grad_norm": 0.14040918825453863, "learning_rate": 2.4869886009769657e-05, "loss": 2.3019, "step": 287 }, { "epoch": 0.75, "grad_norm": 0.15309282350105588, "learning_rate": 2.4582536013486054e-05, "loss": 2.3621, "step": 288 }, { "epoch": 0.7526041666666666, "grad_norm": 0.15908796843842757, "learning_rate": 2.429745179483272e-05, "loss": 2.451, "step": 289 }, { "epoch": 0.7552083333333334, "grad_norm": 0.15934279432082493, "learning_rate": 2.4014654589552526e-05, "loss": 2.4775, "step": 290 }, { "epoch": 0.7578125, "grad_norm": 0.15682626436856428, "learning_rate": 2.3734165463030244e-05, "loss": 2.4, "step": 291 }, { "epoch": 0.7604166666666666, "grad_norm": 0.1688230501684105, "learning_rate": 2.345600530872328e-05, "loss": 2.4442, "step": 292 }, { "epoch": 0.7630208333333334, "grad_norm": 0.16115250940484133, "learning_rate": 2.3180194846605367e-05, "loss": 2.4088, "step": 293 }, { "epoch": 0.765625, "grad_norm": 0.14208493985226064, "learning_rate": 2.290675462162318e-05, "loss": 2.2623, "step": 294 }, { "epoch": 0.7682291666666666, "grad_norm": 0.13703687813086513, "learning_rate": 2.263570500216591e-05, "loss": 2.486, "step": 295 }, { "epoch": 0.7708333333333334, "grad_norm": 0.16480865487948104, "learning_rate": 2.2367066178548072e-05, "loss": 2.321, "step": 296 }, { "epoch": 0.7734375, "grad_norm": 0.15426178206689278, "learning_rate": 2.2100858161505506e-05, "loss": 2.2805, "step": 297 }, { "epoch": 0.7760416666666666, "grad_norm": 0.14570862119709826, "learning_rate": 2.183710078070485e-05, "loss": 2.551, "step": 298 }, { "epoch": 0.7786458333333334, "grad_norm": 0.14473284935283884, "learning_rate": 2.157581368326635e-05, "loss": 2.1132, "step": 299 }, { "epoch": 0.78125, "grad_norm": 0.15820239745667702, "learning_rate": 2.1317016332300447e-05, "loss": 2.4685, "step": 300 }, { "epoch": 0.7838541666666666, "grad_norm": 0.14299466522368254, "learning_rate": 2.106072800545793e-05, "loss": 2.4417, "step": 301 }, { "epoch": 0.7864583333333334, "grad_norm": 0.13794584283858527, "learning_rate": 2.080696779349396e-05, "loss": 2.3209, "step": 302 }, { "epoch": 0.7890625, "grad_norm": 0.14676514709546462, "learning_rate": 2.0555754598846027e-05, "loss": 2.3155, "step": 303 }, { "epoch": 0.7916666666666666, "grad_norm": 0.1551110645608698, "learning_rate": 2.030710713422592e-05, "loss": 2.5221, "step": 304 }, { "epoch": 0.7942708333333334, "grad_norm": 0.15076270062351085, "learning_rate": 2.0061043921225828e-05, "loss": 2.3056, "step": 305 }, { "epoch": 0.796875, "grad_norm": 0.14884431911568607, "learning_rate": 1.981758328893866e-05, "loss": 2.4404, "step": 306 }, { "epoch": 0.7994791666666666, "grad_norm": 0.14993854232241055, "learning_rate": 1.9576743372592747e-05, "loss": 2.2778, "step": 307 }, { "epoch": 0.8020833333333334, "grad_norm": 0.13916032144027837, "learning_rate": 1.933854211220094e-05, "loss": 2.3168, "step": 308 }, { "epoch": 0.8046875, "grad_norm": 0.1567961212337068, "learning_rate": 1.9102997251224282e-05, "loss": 2.3217, "step": 309 }, { "epoch": 0.8072916666666666, "grad_norm": 0.14185229006162023, "learning_rate": 1.8870126335250293e-05, "loss": 2.3056, "step": 310 }, { "epoch": 0.8098958333333334, "grad_norm": 0.14083323135716713, "learning_rate": 1.8639946710686064e-05, "loss": 2.5101, "step": 311 }, { "epoch": 0.8125, "grad_norm": 0.1428611888153054, "learning_rate": 1.841247552346603e-05, "loss": 2.4123, "step": 312 }, { "epoch": 0.8125, "eval_loss": 2.398231029510498, "eval_runtime": 65.4627, "eval_samples_per_second": 1.222, "eval_steps_per_second": 0.153, "step": 312 }, { "epoch": 0.8151041666666666, "grad_norm": 0.13210051743324183, "learning_rate": 1.8187729717774925e-05, "loss": 2.2753, "step": 313 }, { "epoch": 0.8177083333333334, "grad_norm": 0.1474646492548143, "learning_rate": 1.7965726034785466e-05, "loss": 2.3933, "step": 314 }, { "epoch": 0.8203125, "grad_norm": 0.16871013478557104, "learning_rate": 1.7746481011411416e-05, "loss": 2.3614, "step": 315 }, { "epoch": 0.8229166666666666, "grad_norm": 0.15193041380102754, "learning_rate": 1.753001097907572e-05, "loss": 2.3525, "step": 316 }, { "epoch": 0.8255208333333334, "grad_norm": 0.14955167945389547, "learning_rate": 1.7316332062494016e-05, "loss": 2.4257, "step": 317 }, { "epoch": 0.828125, "grad_norm": 0.1572944020219996, "learning_rate": 1.710546017847347e-05, "loss": 2.5182, "step": 318 }, { "epoch": 0.8307291666666666, "grad_norm": 0.1493341360803509, "learning_rate": 1.6897411034727218e-05, "loss": 2.3794, "step": 319 }, { "epoch": 0.8333333333333334, "grad_norm": 0.13561727835199758, "learning_rate": 1.66922001287042e-05, "loss": 2.2277, "step": 320 }, { "epoch": 0.8359375, "grad_norm": 0.13052163343368234, "learning_rate": 1.648984274643487e-05, "loss": 2.309, "step": 321 }, { "epoch": 0.8385416666666666, "grad_norm": 0.1578566178286769, "learning_rate": 1.629035396139247e-05, "loss": 2.4832, "step": 322 }, { "epoch": 0.8411458333333334, "grad_norm": 0.16163117665249763, "learning_rate": 1.6093748633370295e-05, "loss": 2.3515, "step": 323 }, { "epoch": 0.84375, "grad_norm": 0.16589478114748782, "learning_rate": 1.5900041407374708e-05, "loss": 2.5438, "step": 324 }, { "epoch": 0.8463541666666666, "grad_norm": 0.13933316472296842, "learning_rate": 1.5709246712534315e-05, "loss": 2.4306, "step": 325 }, { "epoch": 0.8489583333333334, "grad_norm": 0.1606181863885322, "learning_rate": 1.5521378761025113e-05, "loss": 2.5248, "step": 326 }, { "epoch": 0.8515625, "grad_norm": 0.15583835916491617, "learning_rate": 1.5336451547011838e-05, "loss": 2.57, "step": 327 }, { "epoch": 0.8541666666666666, "grad_norm": 0.13760770777048018, "learning_rate": 1.515447884560556e-05, "loss": 2.4217, "step": 328 }, { "epoch": 0.8567708333333334, "grad_norm": 0.14254277680719865, "learning_rate": 1.4975474211837561e-05, "loss": 2.5538, "step": 329 }, { "epoch": 0.859375, "grad_norm": 0.15022329502854323, "learning_rate": 1.479945097964967e-05, "loss": 2.4875, "step": 330 }, { "epoch": 0.8619791666666666, "grad_norm": 0.14442101795365278, "learning_rate": 1.4626422260900962e-05, "loss": 2.4053, "step": 331 }, { "epoch": 0.8645833333333334, "grad_norm": 0.1339112894355035, "learning_rate": 1.4456400944391146e-05, "loss": 2.3938, "step": 332 }, { "epoch": 0.8671875, "grad_norm": 0.15065063782655086, "learning_rate": 1.4289399694900398e-05, "loss": 2.4288, "step": 333 }, { "epoch": 0.8697916666666666, "grad_norm": 0.15054714911892625, "learning_rate": 1.4125430952246071e-05, "loss": 2.4214, "step": 334 }, { "epoch": 0.8723958333333334, "grad_norm": 0.1560638225083581, "learning_rate": 1.3964506930355947e-05, "loss": 2.3693, "step": 335 }, { "epoch": 0.875, "grad_norm": 0.17170476718899333, "learning_rate": 1.380663961635852e-05, "loss": 2.3902, "step": 336 }, { "epoch": 0.8776041666666666, "grad_norm": 0.14853468036224993, "learning_rate": 1.3651840769690028e-05, "loss": 2.5229, "step": 337 }, { "epoch": 0.8802083333333334, "grad_norm": 0.13862935132651075, "learning_rate": 1.350012192121854e-05, "loss": 2.272, "step": 338 }, { "epoch": 0.8828125, "grad_norm": 0.16359619179880716, "learning_rate": 1.3351494372384995e-05, "loss": 2.5031, "step": 339 }, { "epoch": 0.8854166666666666, "grad_norm": 0.15198032362712752, "learning_rate": 1.3205969194361395e-05, "loss": 2.355, "step": 340 }, { "epoch": 0.8880208333333334, "grad_norm": 0.12892013869101834, "learning_rate": 1.3063557227226094e-05, "loss": 2.3602, "step": 341 }, { "epoch": 0.890625, "grad_norm": 0.1498170376596413, "learning_rate": 1.292426907915634e-05, "loss": 2.3912, "step": 342 }, { "epoch": 0.8932291666666666, "grad_norm": 0.15638364831022664, "learning_rate": 1.2788115125638068e-05, "loss": 2.4359, "step": 343 }, { "epoch": 0.8958333333333334, "grad_norm": 0.151291537071441, "learning_rate": 1.2655105508693065e-05, "loss": 2.3082, "step": 344 }, { "epoch": 0.8984375, "grad_norm": 0.14865959228520678, "learning_rate": 1.252525013612346e-05, "loss": 2.3877, "step": 345 }, { "epoch": 0.9010416666666666, "grad_norm": 0.1459248998632338, "learning_rate": 1.2398558680773736e-05, "loss": 2.3293, "step": 346 }, { "epoch": 0.9036458333333334, "grad_norm": 0.14220792400443616, "learning_rate": 1.227504057981016e-05, "loss": 2.4427, "step": 347 }, { "epoch": 0.90625, "grad_norm": 0.15415554255450412, "learning_rate": 1.2154705034017866e-05, "loss": 2.383, "step": 348 }, { "epoch": 0.9088541666666666, "grad_norm": 0.1457198339110242, "learning_rate": 1.203756100711545e-05, "loss": 2.3751, "step": 349 }, { "epoch": 0.9114583333333334, "grad_norm": 0.15986391066488098, "learning_rate": 1.1923617225087293e-05, "loss": 2.3891, "step": 350 }, { "epoch": 0.9140625, "grad_norm": 0.13681607679501942, "learning_rate": 1.1812882175533564e-05, "loss": 2.2878, "step": 351 }, { "epoch": 0.9140625, "eval_loss": 2.397103786468506, "eval_runtime": 65.1202, "eval_samples_per_second": 1.228, "eval_steps_per_second": 0.154, "step": 351 }, { "epoch": 0.9166666666666666, "grad_norm": 0.17312639183632889, "learning_rate": 1.1705364107037981e-05, "loss": 2.4481, "step": 352 }, { "epoch": 0.9192708333333334, "grad_norm": 0.17233940633090827, "learning_rate": 1.1601071028553371e-05, "loss": 2.4747, "step": 353 }, { "epoch": 0.921875, "grad_norm": 0.13057391845213812, "learning_rate": 1.1500010708805123e-05, "loss": 2.3276, "step": 354 }, { "epoch": 0.9244791666666666, "grad_norm": 0.15218005054913405, "learning_rate": 1.1402190675712448e-05, "loss": 2.4584, "step": 355 }, { "epoch": 0.9270833333333334, "grad_norm": 0.1405908251620449, "learning_rate": 1.130761821582766e-05, "loss": 2.3576, "step": 356 }, { "epoch": 0.9296875, "grad_norm": 0.15487043477366738, "learning_rate": 1.1216300373793417e-05, "loss": 2.3773, "step": 357 }, { "epoch": 0.9322916666666666, "grad_norm": 0.15092606814376955, "learning_rate": 1.1128243951817937e-05, "loss": 2.2986, "step": 358 }, { "epoch": 0.9348958333333334, "grad_norm": 0.1484173556255145, "learning_rate": 1.1043455509168339e-05, "loss": 2.2237, "step": 359 }, { "epoch": 0.9375, "grad_norm": 0.14235753907847776, "learning_rate": 1.0961941361682013e-05, "loss": 2.4375, "step": 360 }, { "epoch": 0.9401041666666666, "grad_norm": 0.14142558045399545, "learning_rate": 1.0883707581296196e-05, "loss": 2.5165, "step": 361 }, { "epoch": 0.9427083333333334, "grad_norm": 0.13890140092039985, "learning_rate": 1.080875999559564e-05, "loss": 2.477, "step": 362 }, { "epoch": 0.9453125, "grad_norm": 0.149033997441562, "learning_rate": 1.0737104187378542e-05, "loss": 2.386, "step": 363 }, { "epoch": 0.9479166666666666, "grad_norm": 0.15829792856388608, "learning_rate": 1.066874549424068e-05, "loss": 2.2997, "step": 364 }, { "epoch": 0.9505208333333334, "grad_norm": 0.14793151985278888, "learning_rate": 1.0603689008177822e-05, "loss": 2.4599, "step": 365 }, { "epoch": 0.953125, "grad_norm": 0.1556260763161562, "learning_rate": 1.0541939575206412e-05, "loss": 2.2611, "step": 366 }, { "epoch": 0.9557291666666666, "grad_norm": 0.16684067808748887, "learning_rate": 1.0483501795002612e-05, "loss": 2.4216, "step": 367 }, { "epoch": 0.9583333333333334, "grad_norm": 0.14213262998853762, "learning_rate": 1.0428380020559658e-05, "loss": 2.4624, "step": 368 }, { "epoch": 0.9609375, "grad_norm": 0.16542015576320396, "learning_rate": 1.0376578357863627e-05, "loss": 2.087, "step": 369 }, { "epoch": 0.9635416666666666, "grad_norm": 0.16312011726686781, "learning_rate": 1.0328100665587574e-05, "loss": 2.3865, "step": 370 }, { "epoch": 0.9661458333333334, "grad_norm": 0.14758591702174165, "learning_rate": 1.0282950554804085e-05, "loss": 2.3726, "step": 371 }, { "epoch": 0.96875, "grad_norm": 0.1316294327416778, "learning_rate": 1.0241131388716332e-05, "loss": 2.4155, "step": 372 }, { "epoch": 0.9713541666666666, "grad_norm": 0.14988844894688882, "learning_rate": 1.0202646282407505e-05, "loss": 2.3134, "step": 373 }, { "epoch": 0.9739583333333334, "grad_norm": 0.16468705638317635, "learning_rate": 1.016749810260881e-05, "loss": 2.3345, "step": 374 }, { "epoch": 0.9765625, "grad_norm": 0.16639080943133064, "learning_rate": 1.01356894674859e-05, "loss": 2.1808, "step": 375 }, { "epoch": 0.9791666666666666, "grad_norm": 0.1537739755991523, "learning_rate": 1.0107222746443862e-05, "loss": 2.3806, "step": 376 }, { "epoch": 0.9817708333333334, "grad_norm": 0.1582641580303379, "learning_rate": 1.0082100059950713e-05, "loss": 2.4064, "step": 377 }, { "epoch": 0.984375, "grad_norm": 0.16490051463401306, "learning_rate": 1.0060323279379476e-05, "loss": 2.3932, "step": 378 }, { "epoch": 0.9869791666666666, "grad_norm": 0.14677990127698765, "learning_rate": 1.0041894026868732e-05, "loss": 2.3932, "step": 379 }, { "epoch": 0.9895833333333334, "grad_norm": 0.17686734833911588, "learning_rate": 1.0026813675201832e-05, "loss": 2.2527, "step": 380 }, { "epoch": 0.9921875, "grad_norm": 0.15542797613175577, "learning_rate": 1.0015083347704623e-05, "loss": 2.4111, "step": 381 }, { "epoch": 0.9947916666666666, "grad_norm": 0.1559166935312072, "learning_rate": 1.0006703918161775e-05, "loss": 2.4522, "step": 382 }, { "epoch": 0.9973958333333334, "grad_norm": 0.14284208961058514, "learning_rate": 1.000167601075169e-05, "loss": 2.3575, "step": 383 }, { "epoch": 1.0, "grad_norm": 0.14031951339304571, "learning_rate": 1e-05, "loss": 2.3152, "step": 384 } ], "logging_steps": 1, "max_steps": 384, "num_input_tokens_seen": 0, "num_train_epochs": 1, "save_steps": 39, "stateful_callbacks": { "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": true }, "attributes": {} } }, "total_flos": 126942053400576.0, "train_batch_size": 1, "trial_name": null, "trial_params": null }