| { |
| "best_global_step": null, |
| "best_metric": null, |
| "best_model_checkpoint": null, |
| "epoch": 1.0, |
| "eval_steps": 500, |
| "global_step": 7500, |
| "is_hyper_param_search": false, |
| "is_local_process_zero": true, |
| "is_world_process_zero": true, |
| "log_history": [ |
| { |
| "epoch": 0.0013333333333333333, |
| "grad_norm": 8.54599380493164, |
| "learning_rate": 1.8e-05, |
| "loss": 5.4609, |
| "step": 10 |
| }, |
| { |
| "epoch": 0.0026666666666666666, |
| "grad_norm": 4.442131519317627, |
| "learning_rate": 3.8e-05, |
| "loss": 4.4953, |
| "step": 20 |
| }, |
| { |
| "epoch": 0.004, |
| "grad_norm": 2.5090410709381104, |
| "learning_rate": 5.8e-05, |
| "loss": 3.6086, |
| "step": 30 |
| }, |
| { |
| "epoch": 0.005333333333333333, |
| "grad_norm": 2.2689425945281982, |
| "learning_rate": 7.800000000000001e-05, |
| "loss": 3.2301, |
| "step": 40 |
| }, |
| { |
| "epoch": 0.006666666666666667, |
| "grad_norm": 2.368473768234253, |
| "learning_rate": 9.8e-05, |
| "loss": 3.1415, |
| "step": 50 |
| }, |
| { |
| "epoch": 0.008, |
| "grad_norm": 2.5440406799316406, |
| "learning_rate": 0.000118, |
| "loss": 2.812, |
| "step": 60 |
| }, |
| { |
| "epoch": 0.009333333333333334, |
| "grad_norm": 3.2771072387695312, |
| "learning_rate": 0.000138, |
| "loss": 2.7536, |
| "step": 70 |
| }, |
| { |
| "epoch": 0.010666666666666666, |
| "grad_norm": 3.1553053855895996, |
| "learning_rate": 0.00015800000000000002, |
| "loss": 3.0832, |
| "step": 80 |
| }, |
| { |
| "epoch": 0.012, |
| "grad_norm": 2.804758310317993, |
| "learning_rate": 0.00017800000000000002, |
| "loss": 2.5819, |
| "step": 90 |
| }, |
| { |
| "epoch": 0.013333333333333334, |
| "grad_norm": 3.1417534351348877, |
| "learning_rate": 0.00019800000000000002, |
| "loss": 2.5907, |
| "step": 100 |
| }, |
| { |
| "epoch": 0.014666666666666666, |
| "grad_norm": 4.256618022918701, |
| "learning_rate": 0.00019975675675675675, |
| "loss": 2.6703, |
| "step": 110 |
| }, |
| { |
| "epoch": 0.016, |
| "grad_norm": 3.272716760635376, |
| "learning_rate": 0.00019948648648648648, |
| "loss": 2.6242, |
| "step": 120 |
| }, |
| { |
| "epoch": 0.017333333333333333, |
| "grad_norm": 2.649427652359009, |
| "learning_rate": 0.00019921621621621623, |
| "loss": 2.522, |
| "step": 130 |
| }, |
| { |
| "epoch": 0.018666666666666668, |
| "grad_norm": 3.259302854537964, |
| "learning_rate": 0.00019894594594594596, |
| "loss": 2.5605, |
| "step": 140 |
| }, |
| { |
| "epoch": 0.02, |
| "grad_norm": 3.081885814666748, |
| "learning_rate": 0.0001986756756756757, |
| "loss": 2.4966, |
| "step": 150 |
| }, |
| { |
| "epoch": 0.021333333333333333, |
| "grad_norm": 3.1175105571746826, |
| "learning_rate": 0.00019840540540540542, |
| "loss": 2.5449, |
| "step": 160 |
| }, |
| { |
| "epoch": 0.02266666666666667, |
| "grad_norm": 2.9999260902404785, |
| "learning_rate": 0.00019813513513513515, |
| "loss": 2.444, |
| "step": 170 |
| }, |
| { |
| "epoch": 0.024, |
| "grad_norm": 2.9630610942840576, |
| "learning_rate": 0.00019786486486486488, |
| "loss": 2.3259, |
| "step": 180 |
| }, |
| { |
| "epoch": 0.025333333333333333, |
| "grad_norm": 2.424903392791748, |
| "learning_rate": 0.0001975945945945946, |
| "loss": 2.4376, |
| "step": 190 |
| }, |
| { |
| "epoch": 0.02666666666666667, |
| "grad_norm": 2.5037362575531006, |
| "learning_rate": 0.00019732432432432434, |
| "loss": 2.4054, |
| "step": 200 |
| }, |
| { |
| "epoch": 0.028, |
| "grad_norm": 2.698734998703003, |
| "learning_rate": 0.00019705405405405407, |
| "loss": 2.4893, |
| "step": 210 |
| }, |
| { |
| "epoch": 0.029333333333333333, |
| "grad_norm": 2.93727445602417, |
| "learning_rate": 0.0001967837837837838, |
| "loss": 2.4322, |
| "step": 220 |
| }, |
| { |
| "epoch": 0.030666666666666665, |
| "grad_norm": 2.732948064804077, |
| "learning_rate": 0.00019651351351351352, |
| "loss": 2.4059, |
| "step": 230 |
| }, |
| { |
| "epoch": 0.032, |
| "grad_norm": 2.547001838684082, |
| "learning_rate": 0.00019624324324324325, |
| "loss": 2.3939, |
| "step": 240 |
| }, |
| { |
| "epoch": 0.03333333333333333, |
| "grad_norm": 3.1220786571502686, |
| "learning_rate": 0.00019597297297297298, |
| "loss": 2.4073, |
| "step": 250 |
| }, |
| { |
| "epoch": 0.034666666666666665, |
| "grad_norm": 2.666619300842285, |
| "learning_rate": 0.0001957027027027027, |
| "loss": 2.4248, |
| "step": 260 |
| }, |
| { |
| "epoch": 0.036, |
| "grad_norm": 2.6100213527679443, |
| "learning_rate": 0.00019543243243243244, |
| "loss": 2.4226, |
| "step": 270 |
| }, |
| { |
| "epoch": 0.037333333333333336, |
| "grad_norm": 2.719904661178589, |
| "learning_rate": 0.00019516216216216217, |
| "loss": 2.3225, |
| "step": 280 |
| }, |
| { |
| "epoch": 0.03866666666666667, |
| "grad_norm": 2.7894270420074463, |
| "learning_rate": 0.0001948918918918919, |
| "loss": 2.4674, |
| "step": 290 |
| }, |
| { |
| "epoch": 0.04, |
| "grad_norm": 2.681861400604248, |
| "learning_rate": 0.00019462162162162163, |
| "loss": 2.3162, |
| "step": 300 |
| }, |
| { |
| "epoch": 0.04133333333333333, |
| "grad_norm": 2.6987245082855225, |
| "learning_rate": 0.00019435135135135136, |
| "loss": 2.3305, |
| "step": 310 |
| }, |
| { |
| "epoch": 0.042666666666666665, |
| "grad_norm": 3.070972442626953, |
| "learning_rate": 0.00019408108108108109, |
| "loss": 2.4287, |
| "step": 320 |
| }, |
| { |
| "epoch": 0.044, |
| "grad_norm": 3.182809591293335, |
| "learning_rate": 0.00019381081081081082, |
| "loss": 2.3388, |
| "step": 330 |
| }, |
| { |
| "epoch": 0.04533333333333334, |
| "grad_norm": 2.537672281265259, |
| "learning_rate": 0.00019354054054054057, |
| "loss": 2.4681, |
| "step": 340 |
| }, |
| { |
| "epoch": 0.04666666666666667, |
| "grad_norm": 3.020998239517212, |
| "learning_rate": 0.00019327027027027027, |
| "loss": 2.2711, |
| "step": 350 |
| }, |
| { |
| "epoch": 0.048, |
| "grad_norm": 2.513453245162964, |
| "learning_rate": 0.000193, |
| "loss": 2.2022, |
| "step": 360 |
| }, |
| { |
| "epoch": 0.04933333333333333, |
| "grad_norm": 2.6128101348876953, |
| "learning_rate": 0.00019272972972972973, |
| "loss": 2.1995, |
| "step": 370 |
| }, |
| { |
| "epoch": 0.050666666666666665, |
| "grad_norm": 2.2417399883270264, |
| "learning_rate": 0.00019245945945945946, |
| "loss": 2.4493, |
| "step": 380 |
| }, |
| { |
| "epoch": 0.052, |
| "grad_norm": 2.059178590774536, |
| "learning_rate": 0.0001921891891891892, |
| "loss": 2.2551, |
| "step": 390 |
| }, |
| { |
| "epoch": 0.05333333333333334, |
| "grad_norm": 2.5995736122131348, |
| "learning_rate": 0.00019191891891891895, |
| "loss": 2.2236, |
| "step": 400 |
| }, |
| { |
| "epoch": 0.05466666666666667, |
| "grad_norm": 2.6002516746520996, |
| "learning_rate": 0.00019164864864864867, |
| "loss": 2.3687, |
| "step": 410 |
| }, |
| { |
| "epoch": 0.056, |
| "grad_norm": 2.8979287147521973, |
| "learning_rate": 0.0001913783783783784, |
| "loss": 2.2049, |
| "step": 420 |
| }, |
| { |
| "epoch": 0.05733333333333333, |
| "grad_norm": 2.6748251914978027, |
| "learning_rate": 0.0001911081081081081, |
| "loss": 2.1391, |
| "step": 430 |
| }, |
| { |
| "epoch": 0.058666666666666666, |
| "grad_norm": 2.5248448848724365, |
| "learning_rate": 0.00019083783783783783, |
| "loss": 2.2802, |
| "step": 440 |
| }, |
| { |
| "epoch": 0.06, |
| "grad_norm": 3.0248875617980957, |
| "learning_rate": 0.00019056756756756756, |
| "loss": 2.3581, |
| "step": 450 |
| }, |
| { |
| "epoch": 0.06133333333333333, |
| "grad_norm": 2.5311789512634277, |
| "learning_rate": 0.0001902972972972973, |
| "loss": 2.2591, |
| "step": 460 |
| }, |
| { |
| "epoch": 0.06266666666666666, |
| "grad_norm": 2.5081493854522705, |
| "learning_rate": 0.00019002702702702705, |
| "loss": 2.1174, |
| "step": 470 |
| }, |
| { |
| "epoch": 0.064, |
| "grad_norm": 2.6198976039886475, |
| "learning_rate": 0.00018975675675675678, |
| "loss": 2.0521, |
| "step": 480 |
| }, |
| { |
| "epoch": 0.06533333333333333, |
| "grad_norm": 2.45538330078125, |
| "learning_rate": 0.0001894864864864865, |
| "loss": 2.2505, |
| "step": 490 |
| }, |
| { |
| "epoch": 0.06666666666666667, |
| "grad_norm": 2.385469675064087, |
| "learning_rate": 0.00018921621621621624, |
| "loss": 2.2058, |
| "step": 500 |
| }, |
| { |
| "epoch": 0.068, |
| "grad_norm": 2.725461483001709, |
| "learning_rate": 0.00018894594594594594, |
| "loss": 2.204, |
| "step": 510 |
| }, |
| { |
| "epoch": 0.06933333333333333, |
| "grad_norm": 2.841071128845215, |
| "learning_rate": 0.00018867567567567567, |
| "loss": 2.2056, |
| "step": 520 |
| }, |
| { |
| "epoch": 0.07066666666666667, |
| "grad_norm": 2.7167351245880127, |
| "learning_rate": 0.00018840540540540542, |
| "loss": 2.3119, |
| "step": 530 |
| }, |
| { |
| "epoch": 0.072, |
| "grad_norm": 2.4602131843566895, |
| "learning_rate": 0.00018813513513513515, |
| "loss": 2.1392, |
| "step": 540 |
| }, |
| { |
| "epoch": 0.07333333333333333, |
| "grad_norm": 2.702946186065674, |
| "learning_rate": 0.00018786486486486488, |
| "loss": 2.134, |
| "step": 550 |
| }, |
| { |
| "epoch": 0.07466666666666667, |
| "grad_norm": 2.299375057220459, |
| "learning_rate": 0.0001875945945945946, |
| "loss": 2.1797, |
| "step": 560 |
| }, |
| { |
| "epoch": 0.076, |
| "grad_norm": 2.5447652339935303, |
| "learning_rate": 0.00018732432432432434, |
| "loss": 2.3235, |
| "step": 570 |
| }, |
| { |
| "epoch": 0.07733333333333334, |
| "grad_norm": 2.616107702255249, |
| "learning_rate": 0.00018705405405405407, |
| "loss": 2.2475, |
| "step": 580 |
| }, |
| { |
| "epoch": 0.07866666666666666, |
| "grad_norm": 3.0087509155273438, |
| "learning_rate": 0.0001867837837837838, |
| "loss": 2.2688, |
| "step": 590 |
| }, |
| { |
| "epoch": 0.08, |
| "grad_norm": 2.919137716293335, |
| "learning_rate": 0.00018651351351351353, |
| "loss": 2.2384, |
| "step": 600 |
| }, |
| { |
| "epoch": 0.08133333333333333, |
| "grad_norm": 2.334582805633545, |
| "learning_rate": 0.00018624324324324325, |
| "loss": 2.1417, |
| "step": 610 |
| }, |
| { |
| "epoch": 0.08266666666666667, |
| "grad_norm": 2.6818926334381104, |
| "learning_rate": 0.00018597297297297298, |
| "loss": 2.2346, |
| "step": 620 |
| }, |
| { |
| "epoch": 0.084, |
| "grad_norm": 3.2101333141326904, |
| "learning_rate": 0.0001857027027027027, |
| "loss": 2.1733, |
| "step": 630 |
| }, |
| { |
| "epoch": 0.08533333333333333, |
| "grad_norm": 2.108243703842163, |
| "learning_rate": 0.00018543243243243244, |
| "loss": 2.2037, |
| "step": 640 |
| }, |
| { |
| "epoch": 0.08666666666666667, |
| "grad_norm": 2.615994691848755, |
| "learning_rate": 0.00018516216216216217, |
| "loss": 2.1014, |
| "step": 650 |
| }, |
| { |
| "epoch": 0.088, |
| "grad_norm": 2.4982452392578125, |
| "learning_rate": 0.0001848918918918919, |
| "loss": 2.1369, |
| "step": 660 |
| }, |
| { |
| "epoch": 0.08933333333333333, |
| "grad_norm": 2.39957332611084, |
| "learning_rate": 0.00018462162162162163, |
| "loss": 2.1687, |
| "step": 670 |
| }, |
| { |
| "epoch": 0.09066666666666667, |
| "grad_norm": 2.402393102645874, |
| "learning_rate": 0.00018435135135135136, |
| "loss": 2.0967, |
| "step": 680 |
| }, |
| { |
| "epoch": 0.092, |
| "grad_norm": 2.9548466205596924, |
| "learning_rate": 0.0001840810810810811, |
| "loss": 2.0859, |
| "step": 690 |
| }, |
| { |
| "epoch": 0.09333333333333334, |
| "grad_norm": 2.752746105194092, |
| "learning_rate": 0.00018381081081081082, |
| "loss": 2.2127, |
| "step": 700 |
| }, |
| { |
| "epoch": 0.09466666666666666, |
| "grad_norm": 2.451632022857666, |
| "learning_rate": 0.00018354054054054054, |
| "loss": 2.1961, |
| "step": 710 |
| }, |
| { |
| "epoch": 0.096, |
| "grad_norm": 2.4328248500823975, |
| "learning_rate": 0.00018327027027027027, |
| "loss": 2.1844, |
| "step": 720 |
| }, |
| { |
| "epoch": 0.09733333333333333, |
| "grad_norm": 2.9737393856048584, |
| "learning_rate": 0.000183, |
| "loss": 2.152, |
| "step": 730 |
| }, |
| { |
| "epoch": 0.09866666666666667, |
| "grad_norm": 2.3271377086639404, |
| "learning_rate": 0.00018272972972972976, |
| "loss": 2.0511, |
| "step": 740 |
| }, |
| { |
| "epoch": 0.1, |
| "grad_norm": 2.575824022293091, |
| "learning_rate": 0.00018245945945945946, |
| "loss": 2.2377, |
| "step": 750 |
| }, |
| { |
| "epoch": 0.10133333333333333, |
| "grad_norm": 2.394209146499634, |
| "learning_rate": 0.0001821891891891892, |
| "loss": 2.1904, |
| "step": 760 |
| }, |
| { |
| "epoch": 0.10266666666666667, |
| "grad_norm": 2.2639620304107666, |
| "learning_rate": 0.00018191891891891892, |
| "loss": 2.2071, |
| "step": 770 |
| }, |
| { |
| "epoch": 0.104, |
| "grad_norm": 2.454848051071167, |
| "learning_rate": 0.00018164864864864865, |
| "loss": 2.1308, |
| "step": 780 |
| }, |
| { |
| "epoch": 0.10533333333333333, |
| "grad_norm": 2.4239871501922607, |
| "learning_rate": 0.00018137837837837838, |
| "loss": 2.3019, |
| "step": 790 |
| }, |
| { |
| "epoch": 0.10666666666666667, |
| "grad_norm": 2.4817445278167725, |
| "learning_rate": 0.00018110810810810813, |
| "loss": 2.128, |
| "step": 800 |
| }, |
| { |
| "epoch": 0.108, |
| "grad_norm": 2.6659679412841797, |
| "learning_rate": 0.00018083783783783786, |
| "loss": 1.9202, |
| "step": 810 |
| }, |
| { |
| "epoch": 0.10933333333333334, |
| "grad_norm": 2.231278419494629, |
| "learning_rate": 0.0001805675675675676, |
| "loss": 2.1227, |
| "step": 820 |
| }, |
| { |
| "epoch": 0.11066666666666666, |
| "grad_norm": 2.6334681510925293, |
| "learning_rate": 0.0001802972972972973, |
| "loss": 2.0482, |
| "step": 830 |
| }, |
| { |
| "epoch": 0.112, |
| "grad_norm": 2.4232165813446045, |
| "learning_rate": 0.00018002702702702702, |
| "loss": 2.0708, |
| "step": 840 |
| }, |
| { |
| "epoch": 0.11333333333333333, |
| "grad_norm": 2.354008674621582, |
| "learning_rate": 0.00017975675675675675, |
| "loss": 2.0493, |
| "step": 850 |
| }, |
| { |
| "epoch": 0.11466666666666667, |
| "grad_norm": 2.582345724105835, |
| "learning_rate": 0.00017948648648648648, |
| "loss": 2.221, |
| "step": 860 |
| }, |
| { |
| "epoch": 0.116, |
| "grad_norm": 2.4354162216186523, |
| "learning_rate": 0.00017921621621621624, |
| "loss": 2.0123, |
| "step": 870 |
| }, |
| { |
| "epoch": 0.11733333333333333, |
| "grad_norm": 3.0853333473205566, |
| "learning_rate": 0.00017894594594594597, |
| "loss": 2.024, |
| "step": 880 |
| }, |
| { |
| "epoch": 0.11866666666666667, |
| "grad_norm": 2.249725818634033, |
| "learning_rate": 0.0001786756756756757, |
| "loss": 2.1998, |
| "step": 890 |
| }, |
| { |
| "epoch": 0.12, |
| "grad_norm": 2.403038740158081, |
| "learning_rate": 0.00017840540540540542, |
| "loss": 2.1166, |
| "step": 900 |
| }, |
| { |
| "epoch": 0.12133333333333333, |
| "grad_norm": 2.416254997253418, |
| "learning_rate": 0.00017813513513513513, |
| "loss": 2.1032, |
| "step": 910 |
| }, |
| { |
| "epoch": 0.12266666666666666, |
| "grad_norm": 2.6445345878601074, |
| "learning_rate": 0.00017786486486486485, |
| "loss": 2.0197, |
| "step": 920 |
| }, |
| { |
| "epoch": 0.124, |
| "grad_norm": 2.84909987449646, |
| "learning_rate": 0.0001775945945945946, |
| "loss": 2.0796, |
| "step": 930 |
| }, |
| { |
| "epoch": 0.12533333333333332, |
| "grad_norm": 2.1707866191864014, |
| "learning_rate": 0.00017732432432432434, |
| "loss": 2.1496, |
| "step": 940 |
| }, |
| { |
| "epoch": 0.12666666666666668, |
| "grad_norm": 2.600884437561035, |
| "learning_rate": 0.00017705405405405407, |
| "loss": 1.9924, |
| "step": 950 |
| }, |
| { |
| "epoch": 0.128, |
| "grad_norm": 2.818328857421875, |
| "learning_rate": 0.0001767837837837838, |
| "loss": 1.9545, |
| "step": 960 |
| }, |
| { |
| "epoch": 0.12933333333333333, |
| "grad_norm": 2.4547555446624756, |
| "learning_rate": 0.00017651351351351353, |
| "loss": 2.089, |
| "step": 970 |
| }, |
| { |
| "epoch": 0.13066666666666665, |
| "grad_norm": 2.362712860107422, |
| "learning_rate": 0.00017624324324324326, |
| "loss": 2.0058, |
| "step": 980 |
| }, |
| { |
| "epoch": 0.132, |
| "grad_norm": 2.355741262435913, |
| "learning_rate": 0.00017597297297297298, |
| "loss": 2.028, |
| "step": 990 |
| }, |
| { |
| "epoch": 0.13333333333333333, |
| "grad_norm": 2.233793258666992, |
| "learning_rate": 0.00017570270270270271, |
| "loss": 2.2153, |
| "step": 1000 |
| }, |
| { |
| "epoch": 0.13466666666666666, |
| "grad_norm": 2.3833236694335938, |
| "learning_rate": 0.00017543243243243244, |
| "loss": 2.0436, |
| "step": 1010 |
| }, |
| { |
| "epoch": 0.136, |
| "grad_norm": 2.710584878921509, |
| "learning_rate": 0.00017516216216216217, |
| "loss": 2.0223, |
| "step": 1020 |
| }, |
| { |
| "epoch": 0.13733333333333334, |
| "grad_norm": 2.614525556564331, |
| "learning_rate": 0.0001748918918918919, |
| "loss": 2.0186, |
| "step": 1030 |
| }, |
| { |
| "epoch": 0.13866666666666666, |
| "grad_norm": 2.5518527030944824, |
| "learning_rate": 0.00017462162162162163, |
| "loss": 2.1302, |
| "step": 1040 |
| }, |
| { |
| "epoch": 0.14, |
| "grad_norm": 2.047034502029419, |
| "learning_rate": 0.00017435135135135136, |
| "loss": 1.9576, |
| "step": 1050 |
| }, |
| { |
| "epoch": 0.14133333333333334, |
| "grad_norm": 2.1909399032592773, |
| "learning_rate": 0.0001740810810810811, |
| "loss": 1.9832, |
| "step": 1060 |
| }, |
| { |
| "epoch": 0.14266666666666666, |
| "grad_norm": 2.759376049041748, |
| "learning_rate": 0.00017381081081081082, |
| "loss": 1.9669, |
| "step": 1070 |
| }, |
| { |
| "epoch": 0.144, |
| "grad_norm": 2.1014363765716553, |
| "learning_rate": 0.00017354054054054055, |
| "loss": 1.9592, |
| "step": 1080 |
| }, |
| { |
| "epoch": 0.14533333333333334, |
| "grad_norm": 2.471461296081543, |
| "learning_rate": 0.00017327027027027027, |
| "loss": 2.0039, |
| "step": 1090 |
| }, |
| { |
| "epoch": 0.14666666666666667, |
| "grad_norm": 2.4198598861694336, |
| "learning_rate": 0.000173, |
| "loss": 2.2345, |
| "step": 1100 |
| }, |
| { |
| "epoch": 0.148, |
| "grad_norm": 2.2740516662597656, |
| "learning_rate": 0.00017272972972972973, |
| "loss": 1.9767, |
| "step": 1110 |
| }, |
| { |
| "epoch": 0.14933333333333335, |
| "grad_norm": 2.3317854404449463, |
| "learning_rate": 0.00017245945945945946, |
| "loss": 1.8423, |
| "step": 1120 |
| }, |
| { |
| "epoch": 0.15066666666666667, |
| "grad_norm": 2.584611177444458, |
| "learning_rate": 0.0001721891891891892, |
| "loss": 2.0966, |
| "step": 1130 |
| }, |
| { |
| "epoch": 0.152, |
| "grad_norm": 2.548743486404419, |
| "learning_rate": 0.00017191891891891895, |
| "loss": 2.1091, |
| "step": 1140 |
| }, |
| { |
| "epoch": 0.15333333333333332, |
| "grad_norm": 2.825737476348877, |
| "learning_rate": 0.00017164864864864865, |
| "loss": 2.0788, |
| "step": 1150 |
| }, |
| { |
| "epoch": 0.15466666666666667, |
| "grad_norm": 2.088826894760132, |
| "learning_rate": 0.00017137837837837838, |
| "loss": 2.1464, |
| "step": 1160 |
| }, |
| { |
| "epoch": 0.156, |
| "grad_norm": 2.2038209438323975, |
| "learning_rate": 0.0001711081081081081, |
| "loss": 2.0624, |
| "step": 1170 |
| }, |
| { |
| "epoch": 0.15733333333333333, |
| "grad_norm": 2.4896717071533203, |
| "learning_rate": 0.00017083783783783784, |
| "loss": 1.967, |
| "step": 1180 |
| }, |
| { |
| "epoch": 0.15866666666666668, |
| "grad_norm": 2.3541336059570312, |
| "learning_rate": 0.00017056756756756757, |
| "loss": 2.0084, |
| "step": 1190 |
| }, |
| { |
| "epoch": 0.16, |
| "grad_norm": 2.453277349472046, |
| "learning_rate": 0.00017029729729729732, |
| "loss": 2.0833, |
| "step": 1200 |
| }, |
| { |
| "epoch": 0.16133333333333333, |
| "grad_norm": 2.260068655014038, |
| "learning_rate": 0.00017002702702702705, |
| "loss": 2.1794, |
| "step": 1210 |
| }, |
| { |
| "epoch": 0.16266666666666665, |
| "grad_norm": 2.3417861461639404, |
| "learning_rate": 0.00016975675675675678, |
| "loss": 2.041, |
| "step": 1220 |
| }, |
| { |
| "epoch": 0.164, |
| "grad_norm": 2.2368979454040527, |
| "learning_rate": 0.00016948648648648648, |
| "loss": 1.948, |
| "step": 1230 |
| }, |
| { |
| "epoch": 0.16533333333333333, |
| "grad_norm": 2.455191135406494, |
| "learning_rate": 0.0001692162162162162, |
| "loss": 2.097, |
| "step": 1240 |
| }, |
| { |
| "epoch": 0.16666666666666666, |
| "grad_norm": 2.4021196365356445, |
| "learning_rate": 0.00016894594594594594, |
| "loss": 2.2503, |
| "step": 1250 |
| }, |
| { |
| "epoch": 0.168, |
| "grad_norm": 2.4756224155426025, |
| "learning_rate": 0.0001686756756756757, |
| "loss": 2.1246, |
| "step": 1260 |
| }, |
| { |
| "epoch": 0.16933333333333334, |
| "grad_norm": 2.039151668548584, |
| "learning_rate": 0.00016840540540540542, |
| "loss": 2.0853, |
| "step": 1270 |
| }, |
| { |
| "epoch": 0.17066666666666666, |
| "grad_norm": 2.3654773235321045, |
| "learning_rate": 0.00016813513513513515, |
| "loss": 1.8093, |
| "step": 1280 |
| }, |
| { |
| "epoch": 0.172, |
| "grad_norm": 2.2299022674560547, |
| "learning_rate": 0.00016786486486486488, |
| "loss": 2.1571, |
| "step": 1290 |
| }, |
| { |
| "epoch": 0.17333333333333334, |
| "grad_norm": 2.2870802879333496, |
| "learning_rate": 0.0001675945945945946, |
| "loss": 2.0854, |
| "step": 1300 |
| }, |
| { |
| "epoch": 0.17466666666666666, |
| "grad_norm": 2.5499372482299805, |
| "learning_rate": 0.0001673243243243243, |
| "loss": 1.9018, |
| "step": 1310 |
| }, |
| { |
| "epoch": 0.176, |
| "grad_norm": 2.303187608718872, |
| "learning_rate": 0.00016705405405405404, |
| "loss": 1.8708, |
| "step": 1320 |
| }, |
| { |
| "epoch": 0.17733333333333334, |
| "grad_norm": 2.691697359085083, |
| "learning_rate": 0.0001667837837837838, |
| "loss": 2.0391, |
| "step": 1330 |
| }, |
| { |
| "epoch": 0.17866666666666667, |
| "grad_norm": 2.1159846782684326, |
| "learning_rate": 0.00016651351351351353, |
| "loss": 2.0662, |
| "step": 1340 |
| }, |
| { |
| "epoch": 0.18, |
| "grad_norm": 2.203563928604126, |
| "learning_rate": 0.00016624324324324326, |
| "loss": 2.1151, |
| "step": 1350 |
| }, |
| { |
| "epoch": 0.18133333333333335, |
| "grad_norm": 2.6186702251434326, |
| "learning_rate": 0.00016597297297297299, |
| "loss": 2.0718, |
| "step": 1360 |
| }, |
| { |
| "epoch": 0.18266666666666667, |
| "grad_norm": 2.2199795246124268, |
| "learning_rate": 0.00016570270270270271, |
| "loss": 2.0022, |
| "step": 1370 |
| }, |
| { |
| "epoch": 0.184, |
| "grad_norm": 2.2812774181365967, |
| "learning_rate": 0.00016543243243243244, |
| "loss": 2.0641, |
| "step": 1380 |
| }, |
| { |
| "epoch": 0.18533333333333332, |
| "grad_norm": 2.3244810104370117, |
| "learning_rate": 0.00016516216216216217, |
| "loss": 1.9985, |
| "step": 1390 |
| }, |
| { |
| "epoch": 0.18666666666666668, |
| "grad_norm": 2.5323832035064697, |
| "learning_rate": 0.0001648918918918919, |
| "loss": 2.1556, |
| "step": 1400 |
| }, |
| { |
| "epoch": 0.188, |
| "grad_norm": 2.3235483169555664, |
| "learning_rate": 0.00016462162162162163, |
| "loss": 2.0925, |
| "step": 1410 |
| }, |
| { |
| "epoch": 0.18933333333333333, |
| "grad_norm": 2.1113898754119873, |
| "learning_rate": 0.00016435135135135136, |
| "loss": 1.9516, |
| "step": 1420 |
| }, |
| { |
| "epoch": 0.19066666666666668, |
| "grad_norm": 2.413828134536743, |
| "learning_rate": 0.0001640810810810811, |
| "loss": 1.967, |
| "step": 1430 |
| }, |
| { |
| "epoch": 0.192, |
| "grad_norm": 2.5828988552093506, |
| "learning_rate": 0.00016381081081081082, |
| "loss": 1.9044, |
| "step": 1440 |
| }, |
| { |
| "epoch": 0.19333333333333333, |
| "grad_norm": 2.4083187580108643, |
| "learning_rate": 0.00016354054054054055, |
| "loss": 2.0735, |
| "step": 1450 |
| }, |
| { |
| "epoch": 0.19466666666666665, |
| "grad_norm": 2.087176561355591, |
| "learning_rate": 0.00016327027027027028, |
| "loss": 2.1443, |
| "step": 1460 |
| }, |
| { |
| "epoch": 0.196, |
| "grad_norm": 2.379067897796631, |
| "learning_rate": 0.000163, |
| "loss": 1.9315, |
| "step": 1470 |
| }, |
| { |
| "epoch": 0.19733333333333333, |
| "grad_norm": 2.18395733833313, |
| "learning_rate": 0.00016272972972972973, |
| "loss": 1.9611, |
| "step": 1480 |
| }, |
| { |
| "epoch": 0.19866666666666666, |
| "grad_norm": 2.779679298400879, |
| "learning_rate": 0.00016245945945945946, |
| "loss": 1.9477, |
| "step": 1490 |
| }, |
| { |
| "epoch": 0.2, |
| "grad_norm": 2.5839364528656006, |
| "learning_rate": 0.0001621891891891892, |
| "loss": 2.0883, |
| "step": 1500 |
| }, |
| { |
| "epoch": 0.20133333333333334, |
| "grad_norm": 2.2403440475463867, |
| "learning_rate": 0.00016191891891891892, |
| "loss": 1.9674, |
| "step": 1510 |
| }, |
| { |
| "epoch": 0.20266666666666666, |
| "grad_norm": 2.212310552597046, |
| "learning_rate": 0.00016164864864864865, |
| "loss": 1.9615, |
| "step": 1520 |
| }, |
| { |
| "epoch": 0.204, |
| "grad_norm": 2.061232089996338, |
| "learning_rate": 0.00016137837837837838, |
| "loss": 1.8414, |
| "step": 1530 |
| }, |
| { |
| "epoch": 0.20533333333333334, |
| "grad_norm": 2.308788299560547, |
| "learning_rate": 0.00016110810810810813, |
| "loss": 2.1248, |
| "step": 1540 |
| }, |
| { |
| "epoch": 0.20666666666666667, |
| "grad_norm": 2.8568644523620605, |
| "learning_rate": 0.00016083783783783784, |
| "loss": 2.0214, |
| "step": 1550 |
| }, |
| { |
| "epoch": 0.208, |
| "grad_norm": 2.2601778507232666, |
| "learning_rate": 0.00016056756756756757, |
| "loss": 2.0157, |
| "step": 1560 |
| }, |
| { |
| "epoch": 0.20933333333333334, |
| "grad_norm": 2.2495760917663574, |
| "learning_rate": 0.0001602972972972973, |
| "loss": 1.8412, |
| "step": 1570 |
| }, |
| { |
| "epoch": 0.21066666666666667, |
| "grad_norm": 2.428441047668457, |
| "learning_rate": 0.00016002702702702702, |
| "loss": 1.9386, |
| "step": 1580 |
| }, |
| { |
| "epoch": 0.212, |
| "grad_norm": 2.09167742729187, |
| "learning_rate": 0.00015975675675675675, |
| "loss": 1.973, |
| "step": 1590 |
| }, |
| { |
| "epoch": 0.21333333333333335, |
| "grad_norm": 2.3817343711853027, |
| "learning_rate": 0.0001594864864864865, |
| "loss": 1.8546, |
| "step": 1600 |
| }, |
| { |
| "epoch": 0.21466666666666667, |
| "grad_norm": 2.8860208988189697, |
| "learning_rate": 0.00015921621621621624, |
| "loss": 2.012, |
| "step": 1610 |
| }, |
| { |
| "epoch": 0.216, |
| "grad_norm": 2.051791191101074, |
| "learning_rate": 0.00015894594594594597, |
| "loss": 2.0164, |
| "step": 1620 |
| }, |
| { |
| "epoch": 0.21733333333333332, |
| "grad_norm": 2.287928819656372, |
| "learning_rate": 0.00015867567567567567, |
| "loss": 2.0204, |
| "step": 1630 |
| }, |
| { |
| "epoch": 0.21866666666666668, |
| "grad_norm": 2.236645221710205, |
| "learning_rate": 0.0001584054054054054, |
| "loss": 1.9511, |
| "step": 1640 |
| }, |
| { |
| "epoch": 0.22, |
| "grad_norm": 2.5095677375793457, |
| "learning_rate": 0.00015813513513513513, |
| "loss": 1.8854, |
| "step": 1650 |
| }, |
| { |
| "epoch": 0.22133333333333333, |
| "grad_norm": 2.1247832775115967, |
| "learning_rate": 0.00015786486486486488, |
| "loss": 1.9322, |
| "step": 1660 |
| }, |
| { |
| "epoch": 0.22266666666666668, |
| "grad_norm": 2.481032371520996, |
| "learning_rate": 0.0001575945945945946, |
| "loss": 2.0147, |
| "step": 1670 |
| }, |
| { |
| "epoch": 0.224, |
| "grad_norm": 2.2294256687164307, |
| "learning_rate": 0.00015732432432432434, |
| "loss": 1.9696, |
| "step": 1680 |
| }, |
| { |
| "epoch": 0.22533333333333333, |
| "grad_norm": 2.1882622241973877, |
| "learning_rate": 0.00015705405405405407, |
| "loss": 1.9985, |
| "step": 1690 |
| }, |
| { |
| "epoch": 0.22666666666666666, |
| "grad_norm": 2.462214946746826, |
| "learning_rate": 0.0001567837837837838, |
| "loss": 1.9962, |
| "step": 1700 |
| }, |
| { |
| "epoch": 0.228, |
| "grad_norm": 2.432840585708618, |
| "learning_rate": 0.0001565135135135135, |
| "loss": 1.9907, |
| "step": 1710 |
| }, |
| { |
| "epoch": 0.22933333333333333, |
| "grad_norm": 2.3330256938934326, |
| "learning_rate": 0.00015624324324324323, |
| "loss": 2.0143, |
| "step": 1720 |
| }, |
| { |
| "epoch": 0.23066666666666666, |
| "grad_norm": 2.855696439743042, |
| "learning_rate": 0.00015597297297297299, |
| "loss": 1.9473, |
| "step": 1730 |
| }, |
| { |
| "epoch": 0.232, |
| "grad_norm": 2.1184675693511963, |
| "learning_rate": 0.00015570270270270272, |
| "loss": 1.753, |
| "step": 1740 |
| }, |
| { |
| "epoch": 0.23333333333333334, |
| "grad_norm": 2.4657397270202637, |
| "learning_rate": 0.00015543243243243244, |
| "loss": 2.0217, |
| "step": 1750 |
| }, |
| { |
| "epoch": 0.23466666666666666, |
| "grad_norm": 2.0865886211395264, |
| "learning_rate": 0.00015516216216216217, |
| "loss": 1.8535, |
| "step": 1760 |
| }, |
| { |
| "epoch": 0.236, |
| "grad_norm": 2.6373355388641357, |
| "learning_rate": 0.0001548918918918919, |
| "loss": 2.0945, |
| "step": 1770 |
| }, |
| { |
| "epoch": 0.23733333333333334, |
| "grad_norm": 2.4117348194122314, |
| "learning_rate": 0.00015462162162162163, |
| "loss": 1.8543, |
| "step": 1780 |
| }, |
| { |
| "epoch": 0.23866666666666667, |
| "grad_norm": 2.3577213287353516, |
| "learning_rate": 0.00015435135135135136, |
| "loss": 1.7954, |
| "step": 1790 |
| }, |
| { |
| "epoch": 0.24, |
| "grad_norm": 2.1598386764526367, |
| "learning_rate": 0.0001540810810810811, |
| "loss": 1.7916, |
| "step": 1800 |
| }, |
| { |
| "epoch": 0.24133333333333334, |
| "grad_norm": 2.6178441047668457, |
| "learning_rate": 0.00015381081081081082, |
| "loss": 1.9397, |
| "step": 1810 |
| }, |
| { |
| "epoch": 0.24266666666666667, |
| "grad_norm": 2.4125001430511475, |
| "learning_rate": 0.00015354054054054055, |
| "loss": 1.9107, |
| "step": 1820 |
| }, |
| { |
| "epoch": 0.244, |
| "grad_norm": 2.800724744796753, |
| "learning_rate": 0.00015327027027027028, |
| "loss": 2.0856, |
| "step": 1830 |
| }, |
| { |
| "epoch": 0.24533333333333332, |
| "grad_norm": 2.2823989391326904, |
| "learning_rate": 0.000153, |
| "loss": 2.0139, |
| "step": 1840 |
| }, |
| { |
| "epoch": 0.24666666666666667, |
| "grad_norm": 2.6119205951690674, |
| "learning_rate": 0.00015272972972972973, |
| "loss": 1.9756, |
| "step": 1850 |
| }, |
| { |
| "epoch": 0.248, |
| "grad_norm": 2.471101999282837, |
| "learning_rate": 0.00015245945945945946, |
| "loss": 2.0031, |
| "step": 1860 |
| }, |
| { |
| "epoch": 0.24933333333333332, |
| "grad_norm": 3.342244863510132, |
| "learning_rate": 0.00015218918918918922, |
| "loss": 1.961, |
| "step": 1870 |
| }, |
| { |
| "epoch": 0.25066666666666665, |
| "grad_norm": 2.2568140029907227, |
| "learning_rate": 0.00015191891891891892, |
| "loss": 1.8824, |
| "step": 1880 |
| }, |
| { |
| "epoch": 0.252, |
| "grad_norm": 2.2656123638153076, |
| "learning_rate": 0.00015164864864864865, |
| "loss": 1.9523, |
| "step": 1890 |
| }, |
| { |
| "epoch": 0.25333333333333335, |
| "grad_norm": 2.502617120742798, |
| "learning_rate": 0.00015137837837837838, |
| "loss": 1.9268, |
| "step": 1900 |
| }, |
| { |
| "epoch": 0.25466666666666665, |
| "grad_norm": 1.9510729312896729, |
| "learning_rate": 0.0001511081081081081, |
| "loss": 2.0174, |
| "step": 1910 |
| }, |
| { |
| "epoch": 0.256, |
| "grad_norm": 2.3908302783966064, |
| "learning_rate": 0.00015083783783783784, |
| "loss": 1.9687, |
| "step": 1920 |
| }, |
| { |
| "epoch": 0.25733333333333336, |
| "grad_norm": 2.6163437366485596, |
| "learning_rate": 0.00015056756756756757, |
| "loss": 1.9372, |
| "step": 1930 |
| }, |
| { |
| "epoch": 0.25866666666666666, |
| "grad_norm": 2.542884349822998, |
| "learning_rate": 0.00015029729729729732, |
| "loss": 1.8967, |
| "step": 1940 |
| }, |
| { |
| "epoch": 0.26, |
| "grad_norm": 2.367628812789917, |
| "learning_rate": 0.00015002702702702705, |
| "loss": 2.0635, |
| "step": 1950 |
| }, |
| { |
| "epoch": 0.2613333333333333, |
| "grad_norm": 2.3614468574523926, |
| "learning_rate": 0.00014975675675675675, |
| "loss": 1.8329, |
| "step": 1960 |
| }, |
| { |
| "epoch": 0.26266666666666666, |
| "grad_norm": 2.4361073970794678, |
| "learning_rate": 0.00014948648648648648, |
| "loss": 1.883, |
| "step": 1970 |
| }, |
| { |
| "epoch": 0.264, |
| "grad_norm": 2.4619548320770264, |
| "learning_rate": 0.0001492162162162162, |
| "loss": 1.8639, |
| "step": 1980 |
| }, |
| { |
| "epoch": 0.2653333333333333, |
| "grad_norm": 2.17228364944458, |
| "learning_rate": 0.00014894594594594594, |
| "loss": 1.9439, |
| "step": 1990 |
| }, |
| { |
| "epoch": 0.26666666666666666, |
| "grad_norm": 2.700016975402832, |
| "learning_rate": 0.0001486756756756757, |
| "loss": 1.8936, |
| "step": 2000 |
| }, |
| { |
| "epoch": 0.268, |
| "grad_norm": 2.6100916862487793, |
| "learning_rate": 0.00014840540540540543, |
| "loss": 1.8344, |
| "step": 2010 |
| }, |
| { |
| "epoch": 0.2693333333333333, |
| "grad_norm": 2.815261125564575, |
| "learning_rate": 0.00014813513513513516, |
| "loss": 1.9495, |
| "step": 2020 |
| }, |
| { |
| "epoch": 0.27066666666666667, |
| "grad_norm": 2.138500452041626, |
| "learning_rate": 0.00014786486486486488, |
| "loss": 1.8193, |
| "step": 2030 |
| }, |
| { |
| "epoch": 0.272, |
| "grad_norm": 2.1488797664642334, |
| "learning_rate": 0.00014759459459459459, |
| "loss": 1.9433, |
| "step": 2040 |
| }, |
| { |
| "epoch": 0.2733333333333333, |
| "grad_norm": 2.1589486598968506, |
| "learning_rate": 0.00014732432432432432, |
| "loss": 1.6762, |
| "step": 2050 |
| }, |
| { |
| "epoch": 0.27466666666666667, |
| "grad_norm": 2.2638726234436035, |
| "learning_rate": 0.00014705405405405407, |
| "loss": 1.9194, |
| "step": 2060 |
| }, |
| { |
| "epoch": 0.276, |
| "grad_norm": 2.4697513580322266, |
| "learning_rate": 0.0001467837837837838, |
| "loss": 1.8012, |
| "step": 2070 |
| }, |
| { |
| "epoch": 0.2773333333333333, |
| "grad_norm": 2.354917287826538, |
| "learning_rate": 0.00014651351351351353, |
| "loss": 1.9185, |
| "step": 2080 |
| }, |
| { |
| "epoch": 0.2786666666666667, |
| "grad_norm": 2.6465835571289062, |
| "learning_rate": 0.00014624324324324326, |
| "loss": 1.8993, |
| "step": 2090 |
| }, |
| { |
| "epoch": 0.28, |
| "grad_norm": 2.190953493118286, |
| "learning_rate": 0.000145972972972973, |
| "loss": 1.8787, |
| "step": 2100 |
| }, |
| { |
| "epoch": 0.2813333333333333, |
| "grad_norm": 1.9679425954818726, |
| "learning_rate": 0.00014570270270270272, |
| "loss": 1.9927, |
| "step": 2110 |
| }, |
| { |
| "epoch": 0.2826666666666667, |
| "grad_norm": 2.415135622024536, |
| "learning_rate": 0.00014543243243243242, |
| "loss": 1.9229, |
| "step": 2120 |
| }, |
| { |
| "epoch": 0.284, |
| "grad_norm": 2.4086499214172363, |
| "learning_rate": 0.00014516216216216217, |
| "loss": 2.0727, |
| "step": 2130 |
| }, |
| { |
| "epoch": 0.2853333333333333, |
| "grad_norm": 2.392893075942993, |
| "learning_rate": 0.0001448918918918919, |
| "loss": 1.7448, |
| "step": 2140 |
| }, |
| { |
| "epoch": 0.2866666666666667, |
| "grad_norm": 2.770169258117676, |
| "learning_rate": 0.00014462162162162163, |
| "loss": 1.9505, |
| "step": 2150 |
| }, |
| { |
| "epoch": 0.288, |
| "grad_norm": 2.311103582382202, |
| "learning_rate": 0.00014435135135135136, |
| "loss": 1.6804, |
| "step": 2160 |
| }, |
| { |
| "epoch": 0.28933333333333333, |
| "grad_norm": 2.165285587310791, |
| "learning_rate": 0.0001440810810810811, |
| "loss": 1.9187, |
| "step": 2170 |
| }, |
| { |
| "epoch": 0.2906666666666667, |
| "grad_norm": 2.094935178756714, |
| "learning_rate": 0.00014381081081081082, |
| "loss": 1.8903, |
| "step": 2180 |
| }, |
| { |
| "epoch": 0.292, |
| "grad_norm": 2.519655466079712, |
| "learning_rate": 0.00014354054054054055, |
| "loss": 1.8652, |
| "step": 2190 |
| }, |
| { |
| "epoch": 0.29333333333333333, |
| "grad_norm": 2.7851929664611816, |
| "learning_rate": 0.00014327027027027028, |
| "loss": 1.967, |
| "step": 2200 |
| }, |
| { |
| "epoch": 0.2946666666666667, |
| "grad_norm": 2.0721092224121094, |
| "learning_rate": 0.000143, |
| "loss": 1.781, |
| "step": 2210 |
| }, |
| { |
| "epoch": 0.296, |
| "grad_norm": 2.5341694355010986, |
| "learning_rate": 0.00014272972972972974, |
| "loss": 1.8954, |
| "step": 2220 |
| }, |
| { |
| "epoch": 0.29733333333333334, |
| "grad_norm": 2.5309038162231445, |
| "learning_rate": 0.00014245945945945946, |
| "loss": 1.7745, |
| "step": 2230 |
| }, |
| { |
| "epoch": 0.2986666666666667, |
| "grad_norm": 2.662684440612793, |
| "learning_rate": 0.0001421891891891892, |
| "loss": 1.9238, |
| "step": 2240 |
| }, |
| { |
| "epoch": 0.3, |
| "grad_norm": 2.6758480072021484, |
| "learning_rate": 0.00014191891891891892, |
| "loss": 1.9235, |
| "step": 2250 |
| }, |
| { |
| "epoch": 0.30133333333333334, |
| "grad_norm": 2.1309969425201416, |
| "learning_rate": 0.00014164864864864865, |
| "loss": 1.8598, |
| "step": 2260 |
| }, |
| { |
| "epoch": 0.30266666666666664, |
| "grad_norm": 2.1839652061462402, |
| "learning_rate": 0.0001413783783783784, |
| "loss": 1.9754, |
| "step": 2270 |
| }, |
| { |
| "epoch": 0.304, |
| "grad_norm": 2.4292712211608887, |
| "learning_rate": 0.0001411081081081081, |
| "loss": 1.8616, |
| "step": 2280 |
| }, |
| { |
| "epoch": 0.30533333333333335, |
| "grad_norm": 2.4542698860168457, |
| "learning_rate": 0.00014083783783783784, |
| "loss": 1.8174, |
| "step": 2290 |
| }, |
| { |
| "epoch": 0.30666666666666664, |
| "grad_norm": 2.242682456970215, |
| "learning_rate": 0.00014056756756756757, |
| "loss": 1.9928, |
| "step": 2300 |
| }, |
| { |
| "epoch": 0.308, |
| "grad_norm": 2.100231885910034, |
| "learning_rate": 0.0001402972972972973, |
| "loss": 1.7233, |
| "step": 2310 |
| }, |
| { |
| "epoch": 0.30933333333333335, |
| "grad_norm": 2.2382125854492188, |
| "learning_rate": 0.00014002702702702703, |
| "loss": 1.7495, |
| "step": 2320 |
| }, |
| { |
| "epoch": 0.31066666666666665, |
| "grad_norm": 2.4526655673980713, |
| "learning_rate": 0.00013975675675675675, |
| "loss": 1.8347, |
| "step": 2330 |
| }, |
| { |
| "epoch": 0.312, |
| "grad_norm": 2.5950348377227783, |
| "learning_rate": 0.0001394864864864865, |
| "loss": 2.0072, |
| "step": 2340 |
| }, |
| { |
| "epoch": 0.31333333333333335, |
| "grad_norm": 2.5388689041137695, |
| "learning_rate": 0.00013921621621621624, |
| "loss": 1.797, |
| "step": 2350 |
| }, |
| { |
| "epoch": 0.31466666666666665, |
| "grad_norm": 2.236910343170166, |
| "learning_rate": 0.00013894594594594594, |
| "loss": 1.9876, |
| "step": 2360 |
| }, |
| { |
| "epoch": 0.316, |
| "grad_norm": 2.8742430210113525, |
| "learning_rate": 0.00013867567567567567, |
| "loss": 1.8521, |
| "step": 2370 |
| }, |
| { |
| "epoch": 0.31733333333333336, |
| "grad_norm": 2.561190605163574, |
| "learning_rate": 0.0001384054054054054, |
| "loss": 2.0232, |
| "step": 2380 |
| }, |
| { |
| "epoch": 0.31866666666666665, |
| "grad_norm": 2.38421893119812, |
| "learning_rate": 0.00013813513513513513, |
| "loss": 1.961, |
| "step": 2390 |
| }, |
| { |
| "epoch": 0.32, |
| "grad_norm": 2.2902133464813232, |
| "learning_rate": 0.00013786486486486488, |
| "loss": 1.9902, |
| "step": 2400 |
| }, |
| { |
| "epoch": 0.32133333333333336, |
| "grad_norm": 2.5904157161712646, |
| "learning_rate": 0.00013759459459459461, |
| "loss": 1.781, |
| "step": 2410 |
| }, |
| { |
| "epoch": 0.32266666666666666, |
| "grad_norm": 2.5587573051452637, |
| "learning_rate": 0.00013732432432432434, |
| "loss": 1.9068, |
| "step": 2420 |
| }, |
| { |
| "epoch": 0.324, |
| "grad_norm": 2.613391399383545, |
| "learning_rate": 0.00013705405405405407, |
| "loss": 2.0022, |
| "step": 2430 |
| }, |
| { |
| "epoch": 0.3253333333333333, |
| "grad_norm": 2.584764003753662, |
| "learning_rate": 0.00013678378378378377, |
| "loss": 1.8805, |
| "step": 2440 |
| }, |
| { |
| "epoch": 0.32666666666666666, |
| "grad_norm": 2.3512659072875977, |
| "learning_rate": 0.0001365135135135135, |
| "loss": 1.9629, |
| "step": 2450 |
| }, |
| { |
| "epoch": 0.328, |
| "grad_norm": 2.413891315460205, |
| "learning_rate": 0.00013624324324324326, |
| "loss": 1.8533, |
| "step": 2460 |
| }, |
| { |
| "epoch": 0.3293333333333333, |
| "grad_norm": 2.387099504470825, |
| "learning_rate": 0.000135972972972973, |
| "loss": 1.8711, |
| "step": 2470 |
| }, |
| { |
| "epoch": 0.33066666666666666, |
| "grad_norm": 2.6385467052459717, |
| "learning_rate": 0.00013570270270270272, |
| "loss": 1.9717, |
| "step": 2480 |
| }, |
| { |
| "epoch": 0.332, |
| "grad_norm": 2.960862874984741, |
| "learning_rate": 0.00013543243243243245, |
| "loss": 1.8296, |
| "step": 2490 |
| }, |
| { |
| "epoch": 0.3333333333333333, |
| "grad_norm": 2.1800155639648438, |
| "learning_rate": 0.00013516216216216218, |
| "loss": 1.9322, |
| "step": 2500 |
| }, |
| { |
| "epoch": 0.33466666666666667, |
| "grad_norm": 2.5185933113098145, |
| "learning_rate": 0.0001348918918918919, |
| "loss": 1.8675, |
| "step": 2510 |
| }, |
| { |
| "epoch": 0.336, |
| "grad_norm": 2.2519352436065674, |
| "learning_rate": 0.0001346216216216216, |
| "loss": 1.7972, |
| "step": 2520 |
| }, |
| { |
| "epoch": 0.3373333333333333, |
| "grad_norm": 2.6340436935424805, |
| "learning_rate": 0.00013435135135135136, |
| "loss": 1.9534, |
| "step": 2530 |
| }, |
| { |
| "epoch": 0.33866666666666667, |
| "grad_norm": 2.165707588195801, |
| "learning_rate": 0.0001340810810810811, |
| "loss": 1.7994, |
| "step": 2540 |
| }, |
| { |
| "epoch": 0.34, |
| "grad_norm": 2.348612070083618, |
| "learning_rate": 0.00013381081081081082, |
| "loss": 1.9858, |
| "step": 2550 |
| }, |
| { |
| "epoch": 0.3413333333333333, |
| "grad_norm": 2.3681528568267822, |
| "learning_rate": 0.00013354054054054055, |
| "loss": 1.7415, |
| "step": 2560 |
| }, |
| { |
| "epoch": 0.3426666666666667, |
| "grad_norm": 2.5608510971069336, |
| "learning_rate": 0.00013327027027027028, |
| "loss": 1.8823, |
| "step": 2570 |
| }, |
| { |
| "epoch": 0.344, |
| "grad_norm": 2.6806623935699463, |
| "learning_rate": 0.000133, |
| "loss": 1.8476, |
| "step": 2580 |
| }, |
| { |
| "epoch": 0.3453333333333333, |
| "grad_norm": 2.831604242324829, |
| "learning_rate": 0.00013272972972972974, |
| "loss": 1.9141, |
| "step": 2590 |
| }, |
| { |
| "epoch": 0.3466666666666667, |
| "grad_norm": 1.9012176990509033, |
| "learning_rate": 0.00013245945945945947, |
| "loss": 1.8499, |
| "step": 2600 |
| }, |
| { |
| "epoch": 0.348, |
| "grad_norm": 2.3375415802001953, |
| "learning_rate": 0.0001321891891891892, |
| "loss": 1.7699, |
| "step": 2610 |
| }, |
| { |
| "epoch": 0.34933333333333333, |
| "grad_norm": 2.512385368347168, |
| "learning_rate": 0.00013191891891891892, |
| "loss": 1.8884, |
| "step": 2620 |
| }, |
| { |
| "epoch": 0.3506666666666667, |
| "grad_norm": 2.3544890880584717, |
| "learning_rate": 0.00013164864864864865, |
| "loss": 1.9272, |
| "step": 2630 |
| }, |
| { |
| "epoch": 0.352, |
| "grad_norm": 2.4715840816497803, |
| "learning_rate": 0.00013137837837837838, |
| "loss": 1.7804, |
| "step": 2640 |
| }, |
| { |
| "epoch": 0.35333333333333333, |
| "grad_norm": 2.5176870822906494, |
| "learning_rate": 0.0001311081081081081, |
| "loss": 1.9021, |
| "step": 2650 |
| }, |
| { |
| "epoch": 0.3546666666666667, |
| "grad_norm": 2.504687786102295, |
| "learning_rate": 0.00013083783783783784, |
| "loss": 1.8654, |
| "step": 2660 |
| }, |
| { |
| "epoch": 0.356, |
| "grad_norm": 2.0953216552734375, |
| "learning_rate": 0.0001305675675675676, |
| "loss": 2.0281, |
| "step": 2670 |
| }, |
| { |
| "epoch": 0.35733333333333334, |
| "grad_norm": 2.504034996032715, |
| "learning_rate": 0.0001302972972972973, |
| "loss": 1.8217, |
| "step": 2680 |
| }, |
| { |
| "epoch": 0.3586666666666667, |
| "grad_norm": 2.6822965145111084, |
| "learning_rate": 0.00013002702702702703, |
| "loss": 1.8937, |
| "step": 2690 |
| }, |
| { |
| "epoch": 0.36, |
| "grad_norm": 2.371816396713257, |
| "learning_rate": 0.00012975675675675676, |
| "loss": 2.0069, |
| "step": 2700 |
| }, |
| { |
| "epoch": 0.36133333333333334, |
| "grad_norm": 2.483445167541504, |
| "learning_rate": 0.00012948648648648648, |
| "loss": 1.8049, |
| "step": 2710 |
| }, |
| { |
| "epoch": 0.3626666666666667, |
| "grad_norm": 2.2719194889068604, |
| "learning_rate": 0.00012921621621621621, |
| "loss": 1.8349, |
| "step": 2720 |
| }, |
| { |
| "epoch": 0.364, |
| "grad_norm": 3.004281759262085, |
| "learning_rate": 0.00012894594594594597, |
| "loss": 1.9028, |
| "step": 2730 |
| }, |
| { |
| "epoch": 0.36533333333333334, |
| "grad_norm": 2.079331636428833, |
| "learning_rate": 0.0001286756756756757, |
| "loss": 1.9015, |
| "step": 2740 |
| }, |
| { |
| "epoch": 0.36666666666666664, |
| "grad_norm": 2.302001953125, |
| "learning_rate": 0.00012840540540540543, |
| "loss": 1.7912, |
| "step": 2750 |
| }, |
| { |
| "epoch": 0.368, |
| "grad_norm": 2.505072593688965, |
| "learning_rate": 0.00012813513513513513, |
| "loss": 1.7402, |
| "step": 2760 |
| }, |
| { |
| "epoch": 0.36933333333333335, |
| "grad_norm": 2.2121100425720215, |
| "learning_rate": 0.00012786486486486486, |
| "loss": 1.8438, |
| "step": 2770 |
| }, |
| { |
| "epoch": 0.37066666666666664, |
| "grad_norm": 2.7014358043670654, |
| "learning_rate": 0.0001275945945945946, |
| "loss": 1.8281, |
| "step": 2780 |
| }, |
| { |
| "epoch": 0.372, |
| "grad_norm": 2.3546624183654785, |
| "learning_rate": 0.00012732432432432432, |
| "loss": 1.7845, |
| "step": 2790 |
| }, |
| { |
| "epoch": 0.37333333333333335, |
| "grad_norm": 2.6270368099212646, |
| "learning_rate": 0.00012705405405405407, |
| "loss": 1.7712, |
| "step": 2800 |
| }, |
| { |
| "epoch": 0.37466666666666665, |
| "grad_norm": 2.2024219036102295, |
| "learning_rate": 0.0001267837837837838, |
| "loss": 1.8937, |
| "step": 2810 |
| }, |
| { |
| "epoch": 0.376, |
| "grad_norm": 2.725980281829834, |
| "learning_rate": 0.00012651351351351353, |
| "loss": 1.8, |
| "step": 2820 |
| }, |
| { |
| "epoch": 0.37733333333333335, |
| "grad_norm": 2.736056327819824, |
| "learning_rate": 0.00012624324324324326, |
| "loss": 1.7882, |
| "step": 2830 |
| }, |
| { |
| "epoch": 0.37866666666666665, |
| "grad_norm": 2.295846939086914, |
| "learning_rate": 0.00012597297297297296, |
| "loss": 1.8812, |
| "step": 2840 |
| }, |
| { |
| "epoch": 0.38, |
| "grad_norm": 2.3466341495513916, |
| "learning_rate": 0.0001257027027027027, |
| "loss": 1.8526, |
| "step": 2850 |
| }, |
| { |
| "epoch": 0.38133333333333336, |
| "grad_norm": 2.5064749717712402, |
| "learning_rate": 0.00012543243243243245, |
| "loss": 1.8277, |
| "step": 2860 |
| }, |
| { |
| "epoch": 0.38266666666666665, |
| "grad_norm": 2.057648181915283, |
| "learning_rate": 0.00012516216216216218, |
| "loss": 1.8434, |
| "step": 2870 |
| }, |
| { |
| "epoch": 0.384, |
| "grad_norm": 2.188091516494751, |
| "learning_rate": 0.0001248918918918919, |
| "loss": 1.7555, |
| "step": 2880 |
| }, |
| { |
| "epoch": 0.38533333333333336, |
| "grad_norm": 2.241875410079956, |
| "learning_rate": 0.00012462162162162163, |
| "loss": 1.7676, |
| "step": 2890 |
| }, |
| { |
| "epoch": 0.38666666666666666, |
| "grad_norm": 2.3929405212402344, |
| "learning_rate": 0.00012435135135135136, |
| "loss": 1.8402, |
| "step": 2900 |
| }, |
| { |
| "epoch": 0.388, |
| "grad_norm": 2.52616024017334, |
| "learning_rate": 0.0001240810810810811, |
| "loss": 1.7849, |
| "step": 2910 |
| }, |
| { |
| "epoch": 0.3893333333333333, |
| "grad_norm": 2.8403215408325195, |
| "learning_rate": 0.0001238108108108108, |
| "loss": 1.9443, |
| "step": 2920 |
| }, |
| { |
| "epoch": 0.39066666666666666, |
| "grad_norm": 2.620992422103882, |
| "learning_rate": 0.00012354054054054055, |
| "loss": 1.8759, |
| "step": 2930 |
| }, |
| { |
| "epoch": 0.392, |
| "grad_norm": 2.383084535598755, |
| "learning_rate": 0.00012327027027027028, |
| "loss": 1.7983, |
| "step": 2940 |
| }, |
| { |
| "epoch": 0.3933333333333333, |
| "grad_norm": 2.5578014850616455, |
| "learning_rate": 0.000123, |
| "loss": 1.81, |
| "step": 2950 |
| }, |
| { |
| "epoch": 0.39466666666666667, |
| "grad_norm": 2.495368003845215, |
| "learning_rate": 0.00012272972972972974, |
| "loss": 1.7728, |
| "step": 2960 |
| }, |
| { |
| "epoch": 0.396, |
| "grad_norm": 2.232659101486206, |
| "learning_rate": 0.00012245945945945947, |
| "loss": 1.8377, |
| "step": 2970 |
| }, |
| { |
| "epoch": 0.3973333333333333, |
| "grad_norm": 2.6198713779449463, |
| "learning_rate": 0.0001221891891891892, |
| "loss": 1.9587, |
| "step": 2980 |
| }, |
| { |
| "epoch": 0.39866666666666667, |
| "grad_norm": 2.1526083946228027, |
| "learning_rate": 0.00012191891891891894, |
| "loss": 1.809, |
| "step": 2990 |
| }, |
| { |
| "epoch": 0.4, |
| "grad_norm": 2.3453357219696045, |
| "learning_rate": 0.00012164864864864864, |
| "loss": 1.9066, |
| "step": 3000 |
| }, |
| { |
| "epoch": 0.4013333333333333, |
| "grad_norm": 2.4124536514282227, |
| "learning_rate": 0.00012137837837837838, |
| "loss": 1.8622, |
| "step": 3010 |
| }, |
| { |
| "epoch": 0.4026666666666667, |
| "grad_norm": 2.6172194480895996, |
| "learning_rate": 0.00012110810810810811, |
| "loss": 1.8597, |
| "step": 3020 |
| }, |
| { |
| "epoch": 0.404, |
| "grad_norm": 2.4721031188964844, |
| "learning_rate": 0.00012083783783783784, |
| "loss": 1.8155, |
| "step": 3030 |
| }, |
| { |
| "epoch": 0.4053333333333333, |
| "grad_norm": 2.181688070297241, |
| "learning_rate": 0.00012056756756756757, |
| "loss": 1.7773, |
| "step": 3040 |
| }, |
| { |
| "epoch": 0.4066666666666667, |
| "grad_norm": 2.3668036460876465, |
| "learning_rate": 0.00012029729729729731, |
| "loss": 1.8723, |
| "step": 3050 |
| }, |
| { |
| "epoch": 0.408, |
| "grad_norm": 2.3490967750549316, |
| "learning_rate": 0.00012002702702702704, |
| "loss": 1.9486, |
| "step": 3060 |
| }, |
| { |
| "epoch": 0.4093333333333333, |
| "grad_norm": 2.873337984085083, |
| "learning_rate": 0.00011975675675675677, |
| "loss": 1.6982, |
| "step": 3070 |
| }, |
| { |
| "epoch": 0.4106666666666667, |
| "grad_norm": 2.973256826400757, |
| "learning_rate": 0.00011948648648648649, |
| "loss": 1.8668, |
| "step": 3080 |
| }, |
| { |
| "epoch": 0.412, |
| "grad_norm": 2.4113101959228516, |
| "learning_rate": 0.00011921621621621621, |
| "loss": 1.8744, |
| "step": 3090 |
| }, |
| { |
| "epoch": 0.41333333333333333, |
| "grad_norm": 2.451672077178955, |
| "learning_rate": 0.00011894594594594594, |
| "loss": 1.8917, |
| "step": 3100 |
| }, |
| { |
| "epoch": 0.4146666666666667, |
| "grad_norm": 2.1510443687438965, |
| "learning_rate": 0.00011867567567567569, |
| "loss": 1.867, |
| "step": 3110 |
| }, |
| { |
| "epoch": 0.416, |
| "grad_norm": 2.453091621398926, |
| "learning_rate": 0.00011840540540540542, |
| "loss": 1.8437, |
| "step": 3120 |
| }, |
| { |
| "epoch": 0.41733333333333333, |
| "grad_norm": 2.2953782081604004, |
| "learning_rate": 0.00011813513513513514, |
| "loss": 1.8312, |
| "step": 3130 |
| }, |
| { |
| "epoch": 0.4186666666666667, |
| "grad_norm": 2.1897218227386475, |
| "learning_rate": 0.00011786486486486487, |
| "loss": 1.7924, |
| "step": 3140 |
| }, |
| { |
| "epoch": 0.42, |
| "grad_norm": 2.358774185180664, |
| "learning_rate": 0.00011759459459459462, |
| "loss": 1.8807, |
| "step": 3150 |
| }, |
| { |
| "epoch": 0.42133333333333334, |
| "grad_norm": 2.3652596473693848, |
| "learning_rate": 0.00011732432432432432, |
| "loss": 1.7519, |
| "step": 3160 |
| }, |
| { |
| "epoch": 0.4226666666666667, |
| "grad_norm": 2.2734439373016357, |
| "learning_rate": 0.00011705405405405405, |
| "loss": 1.9866, |
| "step": 3170 |
| }, |
| { |
| "epoch": 0.424, |
| "grad_norm": 2.14550518989563, |
| "learning_rate": 0.00011678378378378379, |
| "loss": 1.7491, |
| "step": 3180 |
| }, |
| { |
| "epoch": 0.42533333333333334, |
| "grad_norm": 2.2799768447875977, |
| "learning_rate": 0.00011651351351351352, |
| "loss": 1.8064, |
| "step": 3190 |
| }, |
| { |
| "epoch": 0.4266666666666667, |
| "grad_norm": 2.2822225093841553, |
| "learning_rate": 0.00011624324324324325, |
| "loss": 1.8875, |
| "step": 3200 |
| }, |
| { |
| "epoch": 0.428, |
| "grad_norm": 2.3406484127044678, |
| "learning_rate": 0.00011597297297297298, |
| "loss": 1.7164, |
| "step": 3210 |
| }, |
| { |
| "epoch": 0.42933333333333334, |
| "grad_norm": 2.42501163482666, |
| "learning_rate": 0.00011570270270270272, |
| "loss": 1.6375, |
| "step": 3220 |
| }, |
| { |
| "epoch": 0.43066666666666664, |
| "grad_norm": 2.5525708198547363, |
| "learning_rate": 0.00011543243243243245, |
| "loss": 1.8152, |
| "step": 3230 |
| }, |
| { |
| "epoch": 0.432, |
| "grad_norm": 2.5526885986328125, |
| "learning_rate": 0.00011516216216216216, |
| "loss": 1.8527, |
| "step": 3240 |
| }, |
| { |
| "epoch": 0.43333333333333335, |
| "grad_norm": 2.4633045196533203, |
| "learning_rate": 0.00011489189189189189, |
| "loss": 1.9891, |
| "step": 3250 |
| }, |
| { |
| "epoch": 0.43466666666666665, |
| "grad_norm": 2.543779134750366, |
| "learning_rate": 0.00011462162162162162, |
| "loss": 1.657, |
| "step": 3260 |
| }, |
| { |
| "epoch": 0.436, |
| "grad_norm": 2.3144562244415283, |
| "learning_rate": 0.00011435135135135135, |
| "loss": 1.7782, |
| "step": 3270 |
| }, |
| { |
| "epoch": 0.43733333333333335, |
| "grad_norm": 2.4620347023010254, |
| "learning_rate": 0.00011408108108108109, |
| "loss": 1.671, |
| "step": 3280 |
| }, |
| { |
| "epoch": 0.43866666666666665, |
| "grad_norm": 2.1379547119140625, |
| "learning_rate": 0.00011381081081081082, |
| "loss": 1.7785, |
| "step": 3290 |
| }, |
| { |
| "epoch": 0.44, |
| "grad_norm": 2.7815945148468018, |
| "learning_rate": 0.00011354054054054055, |
| "loss": 1.8815, |
| "step": 3300 |
| }, |
| { |
| "epoch": 0.44133333333333336, |
| "grad_norm": 2.363492012023926, |
| "learning_rate": 0.00011327027027027028, |
| "loss": 1.7913, |
| "step": 3310 |
| }, |
| { |
| "epoch": 0.44266666666666665, |
| "grad_norm": 2.4313836097717285, |
| "learning_rate": 0.000113, |
| "loss": 1.6717, |
| "step": 3320 |
| }, |
| { |
| "epoch": 0.444, |
| "grad_norm": 2.3215606212615967, |
| "learning_rate": 0.00011272972972972972, |
| "loss": 1.7141, |
| "step": 3330 |
| }, |
| { |
| "epoch": 0.44533333333333336, |
| "grad_norm": 2.645784854888916, |
| "learning_rate": 0.00011245945945945945, |
| "loss": 1.7668, |
| "step": 3340 |
| }, |
| { |
| "epoch": 0.44666666666666666, |
| "grad_norm": 2.1791491508483887, |
| "learning_rate": 0.0001121891891891892, |
| "loss": 1.6896, |
| "step": 3350 |
| }, |
| { |
| "epoch": 0.448, |
| "grad_norm": 2.405156135559082, |
| "learning_rate": 0.00011191891891891893, |
| "loss": 1.7193, |
| "step": 3360 |
| }, |
| { |
| "epoch": 0.4493333333333333, |
| "grad_norm": 2.422961473464966, |
| "learning_rate": 0.00011164864864864865, |
| "loss": 1.7974, |
| "step": 3370 |
| }, |
| { |
| "epoch": 0.45066666666666666, |
| "grad_norm": 2.448552370071411, |
| "learning_rate": 0.00011137837837837838, |
| "loss": 1.7334, |
| "step": 3380 |
| }, |
| { |
| "epoch": 0.452, |
| "grad_norm": 2.373347520828247, |
| "learning_rate": 0.00011110810810810813, |
| "loss": 1.8613, |
| "step": 3390 |
| }, |
| { |
| "epoch": 0.4533333333333333, |
| "grad_norm": 2.2626328468322754, |
| "learning_rate": 0.00011083783783783783, |
| "loss": 1.9542, |
| "step": 3400 |
| }, |
| { |
| "epoch": 0.45466666666666666, |
| "grad_norm": 2.335479497909546, |
| "learning_rate": 0.00011056756756756757, |
| "loss": 1.7644, |
| "step": 3410 |
| }, |
| { |
| "epoch": 0.456, |
| "grad_norm": 2.395338773727417, |
| "learning_rate": 0.0001102972972972973, |
| "loss": 1.8408, |
| "step": 3420 |
| }, |
| { |
| "epoch": 0.4573333333333333, |
| "grad_norm": 2.3638622760772705, |
| "learning_rate": 0.00011002702702702703, |
| "loss": 1.7154, |
| "step": 3430 |
| }, |
| { |
| "epoch": 0.45866666666666667, |
| "grad_norm": 2.7765445709228516, |
| "learning_rate": 0.00010975675675675676, |
| "loss": 1.9639, |
| "step": 3440 |
| }, |
| { |
| "epoch": 0.46, |
| "grad_norm": 2.2215042114257812, |
| "learning_rate": 0.0001094864864864865, |
| "loss": 1.6793, |
| "step": 3450 |
| }, |
| { |
| "epoch": 0.4613333333333333, |
| "grad_norm": 2.3340561389923096, |
| "learning_rate": 0.00010921621621621623, |
| "loss": 1.8801, |
| "step": 3460 |
| }, |
| { |
| "epoch": 0.46266666666666667, |
| "grad_norm": 2.5933775901794434, |
| "learning_rate": 0.00010894594594594596, |
| "loss": 1.7788, |
| "step": 3470 |
| }, |
| { |
| "epoch": 0.464, |
| "grad_norm": 2.8188467025756836, |
| "learning_rate": 0.00010867567567567567, |
| "loss": 1.7195, |
| "step": 3480 |
| }, |
| { |
| "epoch": 0.4653333333333333, |
| "grad_norm": 2.4774179458618164, |
| "learning_rate": 0.0001084054054054054, |
| "loss": 1.8218, |
| "step": 3490 |
| }, |
| { |
| "epoch": 0.4666666666666667, |
| "grad_norm": 2.1092641353607178, |
| "learning_rate": 0.00010813513513513513, |
| "loss": 1.8152, |
| "step": 3500 |
| }, |
| { |
| "epoch": 0.468, |
| "grad_norm": 2.6163859367370605, |
| "learning_rate": 0.00010786486486486487, |
| "loss": 1.8379, |
| "step": 3510 |
| }, |
| { |
| "epoch": 0.4693333333333333, |
| "grad_norm": 2.596951484680176, |
| "learning_rate": 0.0001075945945945946, |
| "loss": 1.7957, |
| "step": 3520 |
| }, |
| { |
| "epoch": 0.4706666666666667, |
| "grad_norm": 2.303182601928711, |
| "learning_rate": 0.00010732432432432433, |
| "loss": 1.8729, |
| "step": 3530 |
| }, |
| { |
| "epoch": 0.472, |
| "grad_norm": 2.363114595413208, |
| "learning_rate": 0.00010705405405405406, |
| "loss": 1.963, |
| "step": 3540 |
| }, |
| { |
| "epoch": 0.47333333333333333, |
| "grad_norm": 2.3271377086639404, |
| "learning_rate": 0.0001067837837837838, |
| "loss": 1.7534, |
| "step": 3550 |
| }, |
| { |
| "epoch": 0.4746666666666667, |
| "grad_norm": 2.517594337463379, |
| "learning_rate": 0.0001065135135135135, |
| "loss": 1.737, |
| "step": 3560 |
| }, |
| { |
| "epoch": 0.476, |
| "grad_norm": 2.4857470989227295, |
| "learning_rate": 0.00010624324324324323, |
| "loss": 1.7539, |
| "step": 3570 |
| }, |
| { |
| "epoch": 0.47733333333333333, |
| "grad_norm": 2.998281478881836, |
| "learning_rate": 0.00010597297297297298, |
| "loss": 1.808, |
| "step": 3580 |
| }, |
| { |
| "epoch": 0.4786666666666667, |
| "grad_norm": 2.3807339668273926, |
| "learning_rate": 0.0001057027027027027, |
| "loss": 1.8887, |
| "step": 3590 |
| }, |
| { |
| "epoch": 0.48, |
| "grad_norm": 2.3057262897491455, |
| "learning_rate": 0.00010543243243243244, |
| "loss": 1.773, |
| "step": 3600 |
| }, |
| { |
| "epoch": 0.48133333333333334, |
| "grad_norm": 2.498272657394409, |
| "learning_rate": 0.00010516216216216216, |
| "loss": 1.7171, |
| "step": 3610 |
| }, |
| { |
| "epoch": 0.4826666666666667, |
| "grad_norm": 2.491147994995117, |
| "learning_rate": 0.00010489189189189191, |
| "loss": 1.8013, |
| "step": 3620 |
| }, |
| { |
| "epoch": 0.484, |
| "grad_norm": 2.615712881088257, |
| "learning_rate": 0.00010462162162162164, |
| "loss": 1.9365, |
| "step": 3630 |
| }, |
| { |
| "epoch": 0.48533333333333334, |
| "grad_norm": 2.81484055519104, |
| "learning_rate": 0.00010435135135135136, |
| "loss": 1.714, |
| "step": 3640 |
| }, |
| { |
| "epoch": 0.4866666666666667, |
| "grad_norm": 2.371706247329712, |
| "learning_rate": 0.00010408108108108108, |
| "loss": 1.801, |
| "step": 3650 |
| }, |
| { |
| "epoch": 0.488, |
| "grad_norm": 2.4274868965148926, |
| "learning_rate": 0.00010381081081081081, |
| "loss": 1.6728, |
| "step": 3660 |
| }, |
| { |
| "epoch": 0.48933333333333334, |
| "grad_norm": 2.419053316116333, |
| "learning_rate": 0.00010354054054054054, |
| "loss": 1.7538, |
| "step": 3670 |
| }, |
| { |
| "epoch": 0.49066666666666664, |
| "grad_norm": 2.3377275466918945, |
| "learning_rate": 0.00010327027027027028, |
| "loss": 1.6784, |
| "step": 3680 |
| }, |
| { |
| "epoch": 0.492, |
| "grad_norm": 2.5018696784973145, |
| "learning_rate": 0.00010300000000000001, |
| "loss": 1.8772, |
| "step": 3690 |
| }, |
| { |
| "epoch": 0.49333333333333335, |
| "grad_norm": 2.106964349746704, |
| "learning_rate": 0.00010272972972972974, |
| "loss": 1.7381, |
| "step": 3700 |
| }, |
| { |
| "epoch": 0.49466666666666664, |
| "grad_norm": 2.7904281616210938, |
| "learning_rate": 0.00010245945945945947, |
| "loss": 1.7774, |
| "step": 3710 |
| }, |
| { |
| "epoch": 0.496, |
| "grad_norm": 2.5653111934661865, |
| "learning_rate": 0.00010218918918918921, |
| "loss": 1.861, |
| "step": 3720 |
| }, |
| { |
| "epoch": 0.49733333333333335, |
| "grad_norm": 2.198683261871338, |
| "learning_rate": 0.00010191891891891891, |
| "loss": 1.7723, |
| "step": 3730 |
| }, |
| { |
| "epoch": 0.49866666666666665, |
| "grad_norm": 2.7365922927856445, |
| "learning_rate": 0.00010164864864864864, |
| "loss": 1.7066, |
| "step": 3740 |
| }, |
| { |
| "epoch": 0.5, |
| "grad_norm": 2.3762874603271484, |
| "learning_rate": 0.00010137837837837838, |
| "loss": 1.8504, |
| "step": 3750 |
| }, |
| { |
| "epoch": 0.5013333333333333, |
| "grad_norm": 2.620673179626465, |
| "learning_rate": 0.00010110810810810811, |
| "loss": 1.8199, |
| "step": 3760 |
| }, |
| { |
| "epoch": 0.5026666666666667, |
| "grad_norm": 2.5394673347473145, |
| "learning_rate": 0.00010083783783783784, |
| "loss": 1.8501, |
| "step": 3770 |
| }, |
| { |
| "epoch": 0.504, |
| "grad_norm": 2.297248125076294, |
| "learning_rate": 0.00010056756756756757, |
| "loss": 1.6851, |
| "step": 3780 |
| }, |
| { |
| "epoch": 0.5053333333333333, |
| "grad_norm": 2.316267967224121, |
| "learning_rate": 0.00010029729729729731, |
| "loss": 1.7737, |
| "step": 3790 |
| }, |
| { |
| "epoch": 0.5066666666666667, |
| "grad_norm": 2.332772970199585, |
| "learning_rate": 0.00010002702702702704, |
| "loss": 1.7312, |
| "step": 3800 |
| }, |
| { |
| "epoch": 0.508, |
| "grad_norm": 2.190260410308838, |
| "learning_rate": 9.975675675675676e-05, |
| "loss": 1.7734, |
| "step": 3810 |
| }, |
| { |
| "epoch": 0.5093333333333333, |
| "grad_norm": 2.7426130771636963, |
| "learning_rate": 9.94864864864865e-05, |
| "loss": 1.7855, |
| "step": 3820 |
| }, |
| { |
| "epoch": 0.5106666666666667, |
| "grad_norm": 2.242137908935547, |
| "learning_rate": 9.921621621621622e-05, |
| "loss": 1.7832, |
| "step": 3830 |
| }, |
| { |
| "epoch": 0.512, |
| "grad_norm": 2.5682225227355957, |
| "learning_rate": 9.894594594594595e-05, |
| "loss": 1.6038, |
| "step": 3840 |
| }, |
| { |
| "epoch": 0.5133333333333333, |
| "grad_norm": 2.2677552700042725, |
| "learning_rate": 9.867567567567569e-05, |
| "loss": 1.6608, |
| "step": 3850 |
| }, |
| { |
| "epoch": 0.5146666666666667, |
| "grad_norm": 2.7266035079956055, |
| "learning_rate": 9.840540540540542e-05, |
| "loss": 1.82, |
| "step": 3860 |
| }, |
| { |
| "epoch": 0.516, |
| "grad_norm": 2.479783058166504, |
| "learning_rate": 9.813513513513513e-05, |
| "loss": 1.7791, |
| "step": 3870 |
| }, |
| { |
| "epoch": 0.5173333333333333, |
| "grad_norm": 2.4355106353759766, |
| "learning_rate": 9.786486486486487e-05, |
| "loss": 1.7157, |
| "step": 3880 |
| }, |
| { |
| "epoch": 0.5186666666666667, |
| "grad_norm": 2.2603278160095215, |
| "learning_rate": 9.75945945945946e-05, |
| "loss": 1.8092, |
| "step": 3890 |
| }, |
| { |
| "epoch": 0.52, |
| "grad_norm": 2.4887278079986572, |
| "learning_rate": 9.732432432432433e-05, |
| "loss": 1.7094, |
| "step": 3900 |
| }, |
| { |
| "epoch": 0.5213333333333333, |
| "grad_norm": 2.621600866317749, |
| "learning_rate": 9.705405405405406e-05, |
| "loss": 1.8193, |
| "step": 3910 |
| }, |
| { |
| "epoch": 0.5226666666666666, |
| "grad_norm": 2.263338565826416, |
| "learning_rate": 9.678378378378379e-05, |
| "loss": 1.9238, |
| "step": 3920 |
| }, |
| { |
| "epoch": 0.524, |
| "grad_norm": 2.3326528072357178, |
| "learning_rate": 9.651351351351352e-05, |
| "loss": 1.7959, |
| "step": 3930 |
| }, |
| { |
| "epoch": 0.5253333333333333, |
| "grad_norm": 2.843334913253784, |
| "learning_rate": 9.624324324324325e-05, |
| "loss": 1.7858, |
| "step": 3940 |
| }, |
| { |
| "epoch": 0.5266666666666666, |
| "grad_norm": 2.7273387908935547, |
| "learning_rate": 9.597297297297298e-05, |
| "loss": 1.6727, |
| "step": 3950 |
| }, |
| { |
| "epoch": 0.528, |
| "grad_norm": 2.3087942600250244, |
| "learning_rate": 9.570270270270271e-05, |
| "loss": 1.7141, |
| "step": 3960 |
| }, |
| { |
| "epoch": 0.5293333333333333, |
| "grad_norm": 2.8893113136291504, |
| "learning_rate": 9.543243243243244e-05, |
| "loss": 1.8398, |
| "step": 3970 |
| }, |
| { |
| "epoch": 0.5306666666666666, |
| "grad_norm": 2.326162576675415, |
| "learning_rate": 9.516216216216217e-05, |
| "loss": 1.684, |
| "step": 3980 |
| }, |
| { |
| "epoch": 0.532, |
| "grad_norm": 2.185478925704956, |
| "learning_rate": 9.48918918918919e-05, |
| "loss": 1.7513, |
| "step": 3990 |
| }, |
| { |
| "epoch": 0.5333333333333333, |
| "grad_norm": 2.5856521129608154, |
| "learning_rate": 9.462162162162162e-05, |
| "loss": 1.7606, |
| "step": 4000 |
| }, |
| { |
| "epoch": 0.5346666666666666, |
| "grad_norm": 2.2908594608306885, |
| "learning_rate": 9.435135135135135e-05, |
| "loss": 1.771, |
| "step": 4010 |
| }, |
| { |
| "epoch": 0.536, |
| "grad_norm": 2.780820369720459, |
| "learning_rate": 9.40810810810811e-05, |
| "loss": 1.7179, |
| "step": 4020 |
| }, |
| { |
| "epoch": 0.5373333333333333, |
| "grad_norm": 2.564866781234741, |
| "learning_rate": 9.381081081081081e-05, |
| "loss": 1.7235, |
| "step": 4030 |
| }, |
| { |
| "epoch": 0.5386666666666666, |
| "grad_norm": 2.4878122806549072, |
| "learning_rate": 9.354054054054054e-05, |
| "loss": 1.6965, |
| "step": 4040 |
| }, |
| { |
| "epoch": 0.54, |
| "grad_norm": 2.3223400115966797, |
| "learning_rate": 9.327027027027028e-05, |
| "loss": 1.9201, |
| "step": 4050 |
| }, |
| { |
| "epoch": 0.5413333333333333, |
| "grad_norm": 2.294663667678833, |
| "learning_rate": 9.300000000000001e-05, |
| "loss": 1.7465, |
| "step": 4060 |
| }, |
| { |
| "epoch": 0.5426666666666666, |
| "grad_norm": 2.4434211254119873, |
| "learning_rate": 9.272972972972973e-05, |
| "loss": 1.8371, |
| "step": 4070 |
| }, |
| { |
| "epoch": 0.544, |
| "grad_norm": 2.2722768783569336, |
| "learning_rate": 9.245945945945947e-05, |
| "loss": 1.6401, |
| "step": 4080 |
| }, |
| { |
| "epoch": 0.5453333333333333, |
| "grad_norm": 2.0681846141815186, |
| "learning_rate": 9.21891891891892e-05, |
| "loss": 1.7559, |
| "step": 4090 |
| }, |
| { |
| "epoch": 0.5466666666666666, |
| "grad_norm": 2.4701437950134277, |
| "learning_rate": 9.191891891891893e-05, |
| "loss": 1.7718, |
| "step": 4100 |
| }, |
| { |
| "epoch": 0.548, |
| "grad_norm": 2.545989513397217, |
| "learning_rate": 9.164864864864866e-05, |
| "loss": 1.7521, |
| "step": 4110 |
| }, |
| { |
| "epoch": 0.5493333333333333, |
| "grad_norm": 2.7108235359191895, |
| "learning_rate": 9.137837837837838e-05, |
| "loss": 1.7254, |
| "step": 4120 |
| }, |
| { |
| "epoch": 0.5506666666666666, |
| "grad_norm": 2.4735264778137207, |
| "learning_rate": 9.110810810810811e-05, |
| "loss": 1.7458, |
| "step": 4130 |
| }, |
| { |
| "epoch": 0.552, |
| "grad_norm": 2.220050573348999, |
| "learning_rate": 9.083783783783784e-05, |
| "loss": 1.77, |
| "step": 4140 |
| }, |
| { |
| "epoch": 0.5533333333333333, |
| "grad_norm": 2.395819902420044, |
| "learning_rate": 9.056756756756757e-05, |
| "loss": 1.7674, |
| "step": 4150 |
| }, |
| { |
| "epoch": 0.5546666666666666, |
| "grad_norm": 2.2065374851226807, |
| "learning_rate": 9.02972972972973e-05, |
| "loss": 1.6576, |
| "step": 4160 |
| }, |
| { |
| "epoch": 0.556, |
| "grad_norm": 2.499130964279175, |
| "learning_rate": 9.002702702702703e-05, |
| "loss": 1.7199, |
| "step": 4170 |
| }, |
| { |
| "epoch": 0.5573333333333333, |
| "grad_norm": 2.316784381866455, |
| "learning_rate": 8.975675675675676e-05, |
| "loss": 1.7379, |
| "step": 4180 |
| }, |
| { |
| "epoch": 0.5586666666666666, |
| "grad_norm": 2.3874051570892334, |
| "learning_rate": 8.948648648648649e-05, |
| "loss": 1.6866, |
| "step": 4190 |
| }, |
| { |
| "epoch": 0.56, |
| "grad_norm": 2.3450894355773926, |
| "learning_rate": 8.921621621621622e-05, |
| "loss": 1.7862, |
| "step": 4200 |
| }, |
| { |
| "epoch": 0.5613333333333334, |
| "grad_norm": 2.4151878356933594, |
| "learning_rate": 8.894594594594595e-05, |
| "loss": 1.8199, |
| "step": 4210 |
| }, |
| { |
| "epoch": 0.5626666666666666, |
| "grad_norm": 2.5283477306365967, |
| "learning_rate": 8.867567567567569e-05, |
| "loss": 1.8578, |
| "step": 4220 |
| }, |
| { |
| "epoch": 0.564, |
| "grad_norm": 2.4942572116851807, |
| "learning_rate": 8.84054054054054e-05, |
| "loss": 1.7759, |
| "step": 4230 |
| }, |
| { |
| "epoch": 0.5653333333333334, |
| "grad_norm": 2.476116895675659, |
| "learning_rate": 8.813513513513513e-05, |
| "loss": 1.8068, |
| "step": 4240 |
| }, |
| { |
| "epoch": 0.5666666666666667, |
| "grad_norm": 2.4816012382507324, |
| "learning_rate": 8.786486486486488e-05, |
| "loss": 1.7716, |
| "step": 4250 |
| }, |
| { |
| "epoch": 0.568, |
| "grad_norm": 2.349569320678711, |
| "learning_rate": 8.75945945945946e-05, |
| "loss": 1.6928, |
| "step": 4260 |
| }, |
| { |
| "epoch": 0.5693333333333334, |
| "grad_norm": 2.599334955215454, |
| "learning_rate": 8.732432432432432e-05, |
| "loss": 1.7631, |
| "step": 4270 |
| }, |
| { |
| "epoch": 0.5706666666666667, |
| "grad_norm": 2.4788341522216797, |
| "learning_rate": 8.705405405405406e-05, |
| "loss": 1.5607, |
| "step": 4280 |
| }, |
| { |
| "epoch": 0.572, |
| "grad_norm": 2.4678757190704346, |
| "learning_rate": 8.678378378378379e-05, |
| "loss": 1.7926, |
| "step": 4290 |
| }, |
| { |
| "epoch": 0.5733333333333334, |
| "grad_norm": 2.707916736602783, |
| "learning_rate": 8.651351351351352e-05, |
| "loss": 1.7541, |
| "step": 4300 |
| }, |
| { |
| "epoch": 0.5746666666666667, |
| "grad_norm": 2.478193759918213, |
| "learning_rate": 8.624324324324325e-05, |
| "loss": 1.6382, |
| "step": 4310 |
| }, |
| { |
| "epoch": 0.576, |
| "grad_norm": 2.7475545406341553, |
| "learning_rate": 8.597297297297298e-05, |
| "loss": 1.6723, |
| "step": 4320 |
| }, |
| { |
| "epoch": 0.5773333333333334, |
| "grad_norm": 2.6279048919677734, |
| "learning_rate": 8.570270270270271e-05, |
| "loss": 1.8845, |
| "step": 4330 |
| }, |
| { |
| "epoch": 0.5786666666666667, |
| "grad_norm": 2.270444393157959, |
| "learning_rate": 8.543243243243244e-05, |
| "loss": 1.8199, |
| "step": 4340 |
| }, |
| { |
| "epoch": 0.58, |
| "grad_norm": 2.681002616882324, |
| "learning_rate": 8.516216216216217e-05, |
| "loss": 1.7343, |
| "step": 4350 |
| }, |
| { |
| "epoch": 0.5813333333333334, |
| "grad_norm": 2.756366014480591, |
| "learning_rate": 8.48918918918919e-05, |
| "loss": 1.7764, |
| "step": 4360 |
| }, |
| { |
| "epoch": 0.5826666666666667, |
| "grad_norm": 2.6855266094207764, |
| "learning_rate": 8.462162162162162e-05, |
| "loss": 1.6117, |
| "step": 4370 |
| }, |
| { |
| "epoch": 0.584, |
| "grad_norm": 2.4041712284088135, |
| "learning_rate": 8.435135135135135e-05, |
| "loss": 1.7411, |
| "step": 4380 |
| }, |
| { |
| "epoch": 0.5853333333333334, |
| "grad_norm": 2.4793505668640137, |
| "learning_rate": 8.408108108108108e-05, |
| "loss": 1.7765, |
| "step": 4390 |
| }, |
| { |
| "epoch": 0.5866666666666667, |
| "grad_norm": 2.3179032802581787, |
| "learning_rate": 8.381081081081081e-05, |
| "loss": 1.7906, |
| "step": 4400 |
| }, |
| { |
| "epoch": 0.588, |
| "grad_norm": 2.4121007919311523, |
| "learning_rate": 8.354054054054054e-05, |
| "loss": 1.5975, |
| "step": 4410 |
| }, |
| { |
| "epoch": 0.5893333333333334, |
| "grad_norm": 2.316859722137451, |
| "learning_rate": 8.327027027027028e-05, |
| "loss": 1.7897, |
| "step": 4420 |
| }, |
| { |
| "epoch": 0.5906666666666667, |
| "grad_norm": 2.4854021072387695, |
| "learning_rate": 8.3e-05, |
| "loss": 1.8299, |
| "step": 4430 |
| }, |
| { |
| "epoch": 0.592, |
| "grad_norm": 2.215632677078247, |
| "learning_rate": 8.272972972972973e-05, |
| "loss": 1.7155, |
| "step": 4440 |
| }, |
| { |
| "epoch": 0.5933333333333334, |
| "grad_norm": 2.052816390991211, |
| "learning_rate": 8.245945945945947e-05, |
| "loss": 1.842, |
| "step": 4450 |
| }, |
| { |
| "epoch": 0.5946666666666667, |
| "grad_norm": 2.4223296642303467, |
| "learning_rate": 8.21891891891892e-05, |
| "loss": 1.7534, |
| "step": 4460 |
| }, |
| { |
| "epoch": 0.596, |
| "grad_norm": 2.5604755878448486, |
| "learning_rate": 8.191891891891891e-05, |
| "loss": 1.8931, |
| "step": 4470 |
| }, |
| { |
| "epoch": 0.5973333333333334, |
| "grad_norm": 2.4084320068359375, |
| "learning_rate": 8.164864864864866e-05, |
| "loss": 1.8604, |
| "step": 4480 |
| }, |
| { |
| "epoch": 0.5986666666666667, |
| "grad_norm": 2.3748981952667236, |
| "learning_rate": 8.137837837837839e-05, |
| "loss": 1.6899, |
| "step": 4490 |
| }, |
| { |
| "epoch": 0.6, |
| "grad_norm": 2.626437187194824, |
| "learning_rate": 8.110810810810811e-05, |
| "loss": 1.7266, |
| "step": 4500 |
| }, |
| { |
| "epoch": 0.6013333333333334, |
| "grad_norm": 2.8805296421051025, |
| "learning_rate": 8.083783783783784e-05, |
| "loss": 1.6474, |
| "step": 4510 |
| }, |
| { |
| "epoch": 0.6026666666666667, |
| "grad_norm": 2.7690365314483643, |
| "learning_rate": 8.056756756756757e-05, |
| "loss": 1.8816, |
| "step": 4520 |
| }, |
| { |
| "epoch": 0.604, |
| "grad_norm": 2.068767786026001, |
| "learning_rate": 8.02972972972973e-05, |
| "loss": 1.6933, |
| "step": 4530 |
| }, |
| { |
| "epoch": 0.6053333333333333, |
| "grad_norm": 2.304553270339966, |
| "learning_rate": 8.002702702702703e-05, |
| "loss": 1.7292, |
| "step": 4540 |
| }, |
| { |
| "epoch": 0.6066666666666667, |
| "grad_norm": 2.5072391033172607, |
| "learning_rate": 7.975675675675676e-05, |
| "loss": 1.6681, |
| "step": 4550 |
| }, |
| { |
| "epoch": 0.608, |
| "grad_norm": 2.6145615577697754, |
| "learning_rate": 7.948648648648649e-05, |
| "loss": 1.6283, |
| "step": 4560 |
| }, |
| { |
| "epoch": 0.6093333333333333, |
| "grad_norm": 2.449979066848755, |
| "learning_rate": 7.921621621621622e-05, |
| "loss": 1.8048, |
| "step": 4570 |
| }, |
| { |
| "epoch": 0.6106666666666667, |
| "grad_norm": 2.9940662384033203, |
| "learning_rate": 7.894594594594596e-05, |
| "loss": 1.9057, |
| "step": 4580 |
| }, |
| { |
| "epoch": 0.612, |
| "grad_norm": 2.5613086223602295, |
| "learning_rate": 7.867567567567568e-05, |
| "loss": 1.7684, |
| "step": 4590 |
| }, |
| { |
| "epoch": 0.6133333333333333, |
| "grad_norm": 2.5477535724639893, |
| "learning_rate": 7.84054054054054e-05, |
| "loss": 1.6731, |
| "step": 4600 |
| }, |
| { |
| "epoch": 0.6146666666666667, |
| "grad_norm": 2.6440248489379883, |
| "learning_rate": 7.813513513513513e-05, |
| "loss": 1.636, |
| "step": 4610 |
| }, |
| { |
| "epoch": 0.616, |
| "grad_norm": 2.123093605041504, |
| "learning_rate": 7.786486486486488e-05, |
| "loss": 1.8323, |
| "step": 4620 |
| }, |
| { |
| "epoch": 0.6173333333333333, |
| "grad_norm": 2.5474610328674316, |
| "learning_rate": 7.759459459459459e-05, |
| "loss": 1.7251, |
| "step": 4630 |
| }, |
| { |
| "epoch": 0.6186666666666667, |
| "grad_norm": 2.78224778175354, |
| "learning_rate": 7.732432432432432e-05, |
| "loss": 1.7143, |
| "step": 4640 |
| }, |
| { |
| "epoch": 0.62, |
| "grad_norm": 2.470123767852783, |
| "learning_rate": 7.705405405405406e-05, |
| "loss": 1.7682, |
| "step": 4650 |
| }, |
| { |
| "epoch": 0.6213333333333333, |
| "grad_norm": 2.5710723400115967, |
| "learning_rate": 7.678378378378379e-05, |
| "loss": 1.8062, |
| "step": 4660 |
| }, |
| { |
| "epoch": 0.6226666666666667, |
| "grad_norm": 2.321366310119629, |
| "learning_rate": 7.651351351351351e-05, |
| "loss": 1.7087, |
| "step": 4670 |
| }, |
| { |
| "epoch": 0.624, |
| "grad_norm": 2.769404411315918, |
| "learning_rate": 7.624324324324325e-05, |
| "loss": 1.8375, |
| "step": 4680 |
| }, |
| { |
| "epoch": 0.6253333333333333, |
| "grad_norm": 2.4478726387023926, |
| "learning_rate": 7.597297297297298e-05, |
| "loss": 1.663, |
| "step": 4690 |
| }, |
| { |
| "epoch": 0.6266666666666667, |
| "grad_norm": 2.865020275115967, |
| "learning_rate": 7.570270270270271e-05, |
| "loss": 1.7983, |
| "step": 4700 |
| }, |
| { |
| "epoch": 0.628, |
| "grad_norm": 2.564938545227051, |
| "learning_rate": 7.543243243243244e-05, |
| "loss": 1.7516, |
| "step": 4710 |
| }, |
| { |
| "epoch": 0.6293333333333333, |
| "grad_norm": 2.2252092361450195, |
| "learning_rate": 7.516216216216217e-05, |
| "loss": 1.716, |
| "step": 4720 |
| }, |
| { |
| "epoch": 0.6306666666666667, |
| "grad_norm": 2.067749261856079, |
| "learning_rate": 7.48918918918919e-05, |
| "loss": 1.6779, |
| "step": 4730 |
| }, |
| { |
| "epoch": 0.632, |
| "grad_norm": 2.7093424797058105, |
| "learning_rate": 7.462162162162162e-05, |
| "loss": 1.7285, |
| "step": 4740 |
| }, |
| { |
| "epoch": 0.6333333333333333, |
| "grad_norm": 2.576286554336548, |
| "learning_rate": 7.435135135135135e-05, |
| "loss": 1.619, |
| "step": 4750 |
| }, |
| { |
| "epoch": 0.6346666666666667, |
| "grad_norm": 2.5047481060028076, |
| "learning_rate": 7.408108108108108e-05, |
| "loss": 1.9123, |
| "step": 4760 |
| }, |
| { |
| "epoch": 0.636, |
| "grad_norm": 2.2953903675079346, |
| "learning_rate": 7.381081081081081e-05, |
| "loss": 1.6716, |
| "step": 4770 |
| }, |
| { |
| "epoch": 0.6373333333333333, |
| "grad_norm": 2.3581738471984863, |
| "learning_rate": 7.354054054054055e-05, |
| "loss": 1.7734, |
| "step": 4780 |
| }, |
| { |
| "epoch": 0.6386666666666667, |
| "grad_norm": 2.7139110565185547, |
| "learning_rate": 7.327027027027027e-05, |
| "loss": 1.758, |
| "step": 4790 |
| }, |
| { |
| "epoch": 0.64, |
| "grad_norm": 2.26751971244812, |
| "learning_rate": 7.3e-05, |
| "loss": 1.6165, |
| "step": 4800 |
| }, |
| { |
| "epoch": 0.6413333333333333, |
| "grad_norm": 2.472557306289673, |
| "learning_rate": 7.272972972972973e-05, |
| "loss": 1.7257, |
| "step": 4810 |
| }, |
| { |
| "epoch": 0.6426666666666667, |
| "grad_norm": 2.4562666416168213, |
| "learning_rate": 7.245945945945947e-05, |
| "loss": 1.6237, |
| "step": 4820 |
| }, |
| { |
| "epoch": 0.644, |
| "grad_norm": 2.587217092514038, |
| "learning_rate": 7.218918918918919e-05, |
| "loss": 1.7768, |
| "step": 4830 |
| }, |
| { |
| "epoch": 0.6453333333333333, |
| "grad_norm": 2.319197416305542, |
| "learning_rate": 7.191891891891892e-05, |
| "loss": 1.8886, |
| "step": 4840 |
| }, |
| { |
| "epoch": 0.6466666666666666, |
| "grad_norm": 2.6838629245758057, |
| "learning_rate": 7.164864864864866e-05, |
| "loss": 1.8624, |
| "step": 4850 |
| }, |
| { |
| "epoch": 0.648, |
| "grad_norm": 2.459134578704834, |
| "learning_rate": 7.137837837837839e-05, |
| "loss": 1.8797, |
| "step": 4860 |
| }, |
| { |
| "epoch": 0.6493333333333333, |
| "grad_norm": 2.434612274169922, |
| "learning_rate": 7.11081081081081e-05, |
| "loss": 1.7052, |
| "step": 4870 |
| }, |
| { |
| "epoch": 0.6506666666666666, |
| "grad_norm": 2.676539897918701, |
| "learning_rate": 7.083783783783784e-05, |
| "loss": 1.5103, |
| "step": 4880 |
| }, |
| { |
| "epoch": 0.652, |
| "grad_norm": 2.1555585861206055, |
| "learning_rate": 7.056756756756757e-05, |
| "loss": 1.7087, |
| "step": 4890 |
| }, |
| { |
| "epoch": 0.6533333333333333, |
| "grad_norm": 2.6224405765533447, |
| "learning_rate": 7.02972972972973e-05, |
| "loss": 1.7359, |
| "step": 4900 |
| }, |
| { |
| "epoch": 0.6546666666666666, |
| "grad_norm": 2.353959798812866, |
| "learning_rate": 7.002702702702703e-05, |
| "loss": 1.7143, |
| "step": 4910 |
| }, |
| { |
| "epoch": 0.656, |
| "grad_norm": 2.266991376876831, |
| "learning_rate": 6.975675675675676e-05, |
| "loss": 1.6933, |
| "step": 4920 |
| }, |
| { |
| "epoch": 0.6573333333333333, |
| "grad_norm": 2.238447904586792, |
| "learning_rate": 6.948648648648649e-05, |
| "loss": 1.6179, |
| "step": 4930 |
| }, |
| { |
| "epoch": 0.6586666666666666, |
| "grad_norm": 2.6156067848205566, |
| "learning_rate": 6.921621621621622e-05, |
| "loss": 1.6184, |
| "step": 4940 |
| }, |
| { |
| "epoch": 0.66, |
| "grad_norm": 2.658324718475342, |
| "learning_rate": 6.894594594594595e-05, |
| "loss": 1.8393, |
| "step": 4950 |
| }, |
| { |
| "epoch": 0.6613333333333333, |
| "grad_norm": 3.0969736576080322, |
| "learning_rate": 6.867567567567568e-05, |
| "loss": 1.7887, |
| "step": 4960 |
| }, |
| { |
| "epoch": 0.6626666666666666, |
| "grad_norm": 2.7049593925476074, |
| "learning_rate": 6.84054054054054e-05, |
| "loss": 1.7723, |
| "step": 4970 |
| }, |
| { |
| "epoch": 0.664, |
| "grad_norm": 2.2911875247955322, |
| "learning_rate": 6.813513513513515e-05, |
| "loss": 1.6815, |
| "step": 4980 |
| }, |
| { |
| "epoch": 0.6653333333333333, |
| "grad_norm": 2.4017186164855957, |
| "learning_rate": 6.786486486486486e-05, |
| "loss": 1.7622, |
| "step": 4990 |
| }, |
| { |
| "epoch": 0.6666666666666666, |
| "grad_norm": 2.133009672164917, |
| "learning_rate": 6.759459459459459e-05, |
| "loss": 1.6369, |
| "step": 5000 |
| }, |
| { |
| "epoch": 0.668, |
| "grad_norm": 2.7822725772857666, |
| "learning_rate": 6.732432432432432e-05, |
| "loss": 1.7423, |
| "step": 5010 |
| }, |
| { |
| "epoch": 0.6693333333333333, |
| "grad_norm": 2.395003080368042, |
| "learning_rate": 6.705405405405406e-05, |
| "loss": 1.665, |
| "step": 5020 |
| }, |
| { |
| "epoch": 0.6706666666666666, |
| "grad_norm": 2.3305490016937256, |
| "learning_rate": 6.678378378378378e-05, |
| "loss": 1.7307, |
| "step": 5030 |
| }, |
| { |
| "epoch": 0.672, |
| "grad_norm": 2.327988862991333, |
| "learning_rate": 6.651351351351351e-05, |
| "loss": 1.6633, |
| "step": 5040 |
| }, |
| { |
| "epoch": 0.6733333333333333, |
| "grad_norm": 2.212411880493164, |
| "learning_rate": 6.624324324324325e-05, |
| "loss": 1.63, |
| "step": 5050 |
| }, |
| { |
| "epoch": 0.6746666666666666, |
| "grad_norm": 2.9532217979431152, |
| "learning_rate": 6.597297297297298e-05, |
| "loss": 1.7147, |
| "step": 5060 |
| }, |
| { |
| "epoch": 0.676, |
| "grad_norm": 2.410266160964966, |
| "learning_rate": 6.57027027027027e-05, |
| "loss": 1.7012, |
| "step": 5070 |
| }, |
| { |
| "epoch": 0.6773333333333333, |
| "grad_norm": 2.47847056388855, |
| "learning_rate": 6.543243243243244e-05, |
| "loss": 1.6846, |
| "step": 5080 |
| }, |
| { |
| "epoch": 0.6786666666666666, |
| "grad_norm": 2.3797738552093506, |
| "learning_rate": 6.516216216216217e-05, |
| "loss": 1.7244, |
| "step": 5090 |
| }, |
| { |
| "epoch": 0.68, |
| "grad_norm": 2.260364294052124, |
| "learning_rate": 6.48918918918919e-05, |
| "loss": 1.6383, |
| "step": 5100 |
| }, |
| { |
| "epoch": 0.6813333333333333, |
| "grad_norm": 7.000325679779053, |
| "learning_rate": 6.462162162162163e-05, |
| "loss": 1.9112, |
| "step": 5110 |
| }, |
| { |
| "epoch": 0.6826666666666666, |
| "grad_norm": 2.6418049335479736, |
| "learning_rate": 6.435135135135135e-05, |
| "loss": 1.7482, |
| "step": 5120 |
| }, |
| { |
| "epoch": 0.684, |
| "grad_norm": 2.709291458129883, |
| "learning_rate": 6.408108108108108e-05, |
| "loss": 1.763, |
| "step": 5130 |
| }, |
| { |
| "epoch": 0.6853333333333333, |
| "grad_norm": 3.0964314937591553, |
| "learning_rate": 6.381081081081081e-05, |
| "loss": 1.7461, |
| "step": 5140 |
| }, |
| { |
| "epoch": 0.6866666666666666, |
| "grad_norm": 2.2311952114105225, |
| "learning_rate": 6.354054054054054e-05, |
| "loss": 1.8129, |
| "step": 5150 |
| }, |
| { |
| "epoch": 0.688, |
| "grad_norm": 2.4658689498901367, |
| "learning_rate": 6.327027027027027e-05, |
| "loss": 1.7197, |
| "step": 5160 |
| }, |
| { |
| "epoch": 0.6893333333333334, |
| "grad_norm": 2.494281053543091, |
| "learning_rate": 6.3e-05, |
| "loss": 1.7131, |
| "step": 5170 |
| }, |
| { |
| "epoch": 0.6906666666666667, |
| "grad_norm": 2.337458848953247, |
| "learning_rate": 6.272972972972974e-05, |
| "loss": 1.8182, |
| "step": 5180 |
| }, |
| { |
| "epoch": 0.692, |
| "grad_norm": 2.2860753536224365, |
| "learning_rate": 6.245945945945946e-05, |
| "loss": 1.8402, |
| "step": 5190 |
| }, |
| { |
| "epoch": 0.6933333333333334, |
| "grad_norm": 2.654182195663452, |
| "learning_rate": 6.218918918918919e-05, |
| "loss": 1.7607, |
| "step": 5200 |
| }, |
| { |
| "epoch": 0.6946666666666667, |
| "grad_norm": 2.4384946823120117, |
| "learning_rate": 6.191891891891892e-05, |
| "loss": 1.8643, |
| "step": 5210 |
| }, |
| { |
| "epoch": 0.696, |
| "grad_norm": 2.5063271522521973, |
| "learning_rate": 6.164864864864866e-05, |
| "loss": 1.7459, |
| "step": 5220 |
| }, |
| { |
| "epoch": 0.6973333333333334, |
| "grad_norm": 2.3819327354431152, |
| "learning_rate": 6.137837837837837e-05, |
| "loss": 1.7328, |
| "step": 5230 |
| }, |
| { |
| "epoch": 0.6986666666666667, |
| "grad_norm": 2.353322744369507, |
| "learning_rate": 6.11081081081081e-05, |
| "loss": 1.6994, |
| "step": 5240 |
| }, |
| { |
| "epoch": 0.7, |
| "grad_norm": 2.059305429458618, |
| "learning_rate": 6.083783783783784e-05, |
| "loss": 1.6366, |
| "step": 5250 |
| }, |
| { |
| "epoch": 0.7013333333333334, |
| "grad_norm": 2.6309072971343994, |
| "learning_rate": 6.0567567567567575e-05, |
| "loss": 1.8112, |
| "step": 5260 |
| }, |
| { |
| "epoch": 0.7026666666666667, |
| "grad_norm": 2.3017349243164062, |
| "learning_rate": 6.02972972972973e-05, |
| "loss": 1.6129, |
| "step": 5270 |
| }, |
| { |
| "epoch": 0.704, |
| "grad_norm": 2.3827080726623535, |
| "learning_rate": 6.0027027027027026e-05, |
| "loss": 1.7627, |
| "step": 5280 |
| }, |
| { |
| "epoch": 0.7053333333333334, |
| "grad_norm": 2.489391565322876, |
| "learning_rate": 5.975675675675676e-05, |
| "loss": 1.6755, |
| "step": 5290 |
| }, |
| { |
| "epoch": 0.7066666666666667, |
| "grad_norm": 2.4546420574188232, |
| "learning_rate": 5.948648648648649e-05, |
| "loss": 1.637, |
| "step": 5300 |
| }, |
| { |
| "epoch": 0.708, |
| "grad_norm": 2.1778452396392822, |
| "learning_rate": 5.921621621621621e-05, |
| "loss": 1.7271, |
| "step": 5310 |
| }, |
| { |
| "epoch": 0.7093333333333334, |
| "grad_norm": 2.3320977687835693, |
| "learning_rate": 5.894594594594595e-05, |
| "loss": 1.7104, |
| "step": 5320 |
| }, |
| { |
| "epoch": 0.7106666666666667, |
| "grad_norm": 2.9002904891967773, |
| "learning_rate": 5.867567567567568e-05, |
| "loss": 1.768, |
| "step": 5330 |
| }, |
| { |
| "epoch": 0.712, |
| "grad_norm": 2.236595392227173, |
| "learning_rate": 5.8405405405405414e-05, |
| "loss": 1.7603, |
| "step": 5340 |
| }, |
| { |
| "epoch": 0.7133333333333334, |
| "grad_norm": 2.342060089111328, |
| "learning_rate": 5.8135135135135136e-05, |
| "loss": 1.756, |
| "step": 5350 |
| }, |
| { |
| "epoch": 0.7146666666666667, |
| "grad_norm": 2.43502140045166, |
| "learning_rate": 5.7864864864864865e-05, |
| "loss": 1.6526, |
| "step": 5360 |
| }, |
| { |
| "epoch": 0.716, |
| "grad_norm": 2.416416883468628, |
| "learning_rate": 5.75945945945946e-05, |
| "loss": 1.6821, |
| "step": 5370 |
| }, |
| { |
| "epoch": 0.7173333333333334, |
| "grad_norm": 2.79465651512146, |
| "learning_rate": 5.732432432432433e-05, |
| "loss": 1.653, |
| "step": 5380 |
| }, |
| { |
| "epoch": 0.7186666666666667, |
| "grad_norm": 2.1442489624023438, |
| "learning_rate": 5.705405405405405e-05, |
| "loss": 1.6052, |
| "step": 5390 |
| }, |
| { |
| "epoch": 0.72, |
| "grad_norm": 2.3195009231567383, |
| "learning_rate": 5.678378378378378e-05, |
| "loss": 1.773, |
| "step": 5400 |
| }, |
| { |
| "epoch": 0.7213333333333334, |
| "grad_norm": 2.435551166534424, |
| "learning_rate": 5.651351351351352e-05, |
| "loss": 1.6717, |
| "step": 5410 |
| }, |
| { |
| "epoch": 0.7226666666666667, |
| "grad_norm": 2.9846158027648926, |
| "learning_rate": 5.6243243243243246e-05, |
| "loss": 1.6524, |
| "step": 5420 |
| }, |
| { |
| "epoch": 0.724, |
| "grad_norm": 2.2463107109069824, |
| "learning_rate": 5.597297297297297e-05, |
| "loss": 1.5635, |
| "step": 5430 |
| }, |
| { |
| "epoch": 0.7253333333333334, |
| "grad_norm": 2.6960723400115967, |
| "learning_rate": 5.5702702702702704e-05, |
| "loss": 1.5236, |
| "step": 5440 |
| }, |
| { |
| "epoch": 0.7266666666666667, |
| "grad_norm": 2.4956061840057373, |
| "learning_rate": 5.543243243243243e-05, |
| "loss": 1.7235, |
| "step": 5450 |
| }, |
| { |
| "epoch": 0.728, |
| "grad_norm": 2.218177080154419, |
| "learning_rate": 5.516216216216217e-05, |
| "loss": 1.682, |
| "step": 5460 |
| }, |
| { |
| "epoch": 0.7293333333333333, |
| "grad_norm": 2.515575647354126, |
| "learning_rate": 5.48918918918919e-05, |
| "loss": 1.7251, |
| "step": 5470 |
| }, |
| { |
| "epoch": 0.7306666666666667, |
| "grad_norm": 2.859912395477295, |
| "learning_rate": 5.462162162162162e-05, |
| "loss": 1.7788, |
| "step": 5480 |
| }, |
| { |
| "epoch": 0.732, |
| "grad_norm": 2.5170841217041016, |
| "learning_rate": 5.4351351351351356e-05, |
| "loss": 1.7671, |
| "step": 5490 |
| }, |
| { |
| "epoch": 0.7333333333333333, |
| "grad_norm": 3.0050339698791504, |
| "learning_rate": 5.4081081081081085e-05, |
| "loss": 1.6537, |
| "step": 5500 |
| }, |
| { |
| "epoch": 0.7346666666666667, |
| "grad_norm": 2.685117483139038, |
| "learning_rate": 5.381081081081082e-05, |
| "loss": 1.7784, |
| "step": 5510 |
| }, |
| { |
| "epoch": 0.736, |
| "grad_norm": 2.6302332878112793, |
| "learning_rate": 5.354054054054054e-05, |
| "loss": 1.8508, |
| "step": 5520 |
| }, |
| { |
| "epoch": 0.7373333333333333, |
| "grad_norm": 2.4447121620178223, |
| "learning_rate": 5.327027027027027e-05, |
| "loss": 1.5135, |
| "step": 5530 |
| }, |
| { |
| "epoch": 0.7386666666666667, |
| "grad_norm": 2.059255361557007, |
| "learning_rate": 5.300000000000001e-05, |
| "loss": 1.6182, |
| "step": 5540 |
| }, |
| { |
| "epoch": 0.74, |
| "grad_norm": 2.508316993713379, |
| "learning_rate": 5.2729729729729737e-05, |
| "loss": 1.7946, |
| "step": 5550 |
| }, |
| { |
| "epoch": 0.7413333333333333, |
| "grad_norm": 2.500084161758423, |
| "learning_rate": 5.245945945945946e-05, |
| "loss": 1.6965, |
| "step": 5560 |
| }, |
| { |
| "epoch": 0.7426666666666667, |
| "grad_norm": 2.6352810859680176, |
| "learning_rate": 5.2189189189189195e-05, |
| "loss": 1.5864, |
| "step": 5570 |
| }, |
| { |
| "epoch": 0.744, |
| "grad_norm": 2.924647092819214, |
| "learning_rate": 5.1918918918918924e-05, |
| "loss": 1.7354, |
| "step": 5580 |
| }, |
| { |
| "epoch": 0.7453333333333333, |
| "grad_norm": 2.4402995109558105, |
| "learning_rate": 5.164864864864866e-05, |
| "loss": 1.6326, |
| "step": 5590 |
| }, |
| { |
| "epoch": 0.7466666666666667, |
| "grad_norm": 3.5275487899780273, |
| "learning_rate": 5.1378378378378375e-05, |
| "loss": 1.6526, |
| "step": 5600 |
| }, |
| { |
| "epoch": 0.748, |
| "grad_norm": 2.640603542327881, |
| "learning_rate": 5.110810810810811e-05, |
| "loss": 1.6978, |
| "step": 5610 |
| }, |
| { |
| "epoch": 0.7493333333333333, |
| "grad_norm": 2.4517879486083984, |
| "learning_rate": 5.083783783783784e-05, |
| "loss": 1.6873, |
| "step": 5620 |
| }, |
| { |
| "epoch": 0.7506666666666667, |
| "grad_norm": 2.5826404094696045, |
| "learning_rate": 5.0567567567567576e-05, |
| "loss": 1.7209, |
| "step": 5630 |
| }, |
| { |
| "epoch": 0.752, |
| "grad_norm": 3.254995822906494, |
| "learning_rate": 5.02972972972973e-05, |
| "loss": 1.7182, |
| "step": 5640 |
| }, |
| { |
| "epoch": 0.7533333333333333, |
| "grad_norm": 2.4099812507629395, |
| "learning_rate": 5.002702702702703e-05, |
| "loss": 1.5186, |
| "step": 5650 |
| }, |
| { |
| "epoch": 0.7546666666666667, |
| "grad_norm": 2.534217357635498, |
| "learning_rate": 4.975675675675676e-05, |
| "loss": 1.8553, |
| "step": 5660 |
| }, |
| { |
| "epoch": 0.756, |
| "grad_norm": 2.5693318843841553, |
| "learning_rate": 4.948648648648649e-05, |
| "loss": 1.8622, |
| "step": 5670 |
| }, |
| { |
| "epoch": 0.7573333333333333, |
| "grad_norm": 2.573843002319336, |
| "learning_rate": 4.921621621621622e-05, |
| "loss": 1.6448, |
| "step": 5680 |
| }, |
| { |
| "epoch": 0.7586666666666667, |
| "grad_norm": 2.8359835147857666, |
| "learning_rate": 4.894594594594595e-05, |
| "loss": 1.6768, |
| "step": 5690 |
| }, |
| { |
| "epoch": 0.76, |
| "grad_norm": 2.405327081680298, |
| "learning_rate": 4.867567567567568e-05, |
| "loss": 1.7944, |
| "step": 5700 |
| }, |
| { |
| "epoch": 0.7613333333333333, |
| "grad_norm": 2.5962822437286377, |
| "learning_rate": 4.840540540540541e-05, |
| "loss": 1.589, |
| "step": 5710 |
| }, |
| { |
| "epoch": 0.7626666666666667, |
| "grad_norm": 2.4753477573394775, |
| "learning_rate": 4.813513513513514e-05, |
| "loss": 1.767, |
| "step": 5720 |
| }, |
| { |
| "epoch": 0.764, |
| "grad_norm": 2.732316017150879, |
| "learning_rate": 4.7864864864864866e-05, |
| "loss": 1.7758, |
| "step": 5730 |
| }, |
| { |
| "epoch": 0.7653333333333333, |
| "grad_norm": 2.772697925567627, |
| "learning_rate": 4.75945945945946e-05, |
| "loss": 1.6539, |
| "step": 5740 |
| }, |
| { |
| "epoch": 0.7666666666666667, |
| "grad_norm": 2.8475613594055176, |
| "learning_rate": 4.7324324324324324e-05, |
| "loss": 1.688, |
| "step": 5750 |
| }, |
| { |
| "epoch": 0.768, |
| "grad_norm": 2.7171499729156494, |
| "learning_rate": 4.705405405405406e-05, |
| "loss": 1.6328, |
| "step": 5760 |
| }, |
| { |
| "epoch": 0.7693333333333333, |
| "grad_norm": 2.5793089866638184, |
| "learning_rate": 4.678378378378379e-05, |
| "loss": 1.5797, |
| "step": 5770 |
| }, |
| { |
| "epoch": 0.7706666666666667, |
| "grad_norm": 2.263705015182495, |
| "learning_rate": 4.651351351351352e-05, |
| "loss": 1.7494, |
| "step": 5780 |
| }, |
| { |
| "epoch": 0.772, |
| "grad_norm": 2.689951181411743, |
| "learning_rate": 4.624324324324325e-05, |
| "loss": 1.642, |
| "step": 5790 |
| }, |
| { |
| "epoch": 0.7733333333333333, |
| "grad_norm": 2.384277105331421, |
| "learning_rate": 4.5972972972972976e-05, |
| "loss": 1.822, |
| "step": 5800 |
| }, |
| { |
| "epoch": 0.7746666666666666, |
| "grad_norm": 2.517409324645996, |
| "learning_rate": 4.5702702702702705e-05, |
| "loss": 1.6411, |
| "step": 5810 |
| }, |
| { |
| "epoch": 0.776, |
| "grad_norm": 2.7147343158721924, |
| "learning_rate": 4.5432432432432434e-05, |
| "loss": 1.7847, |
| "step": 5820 |
| }, |
| { |
| "epoch": 0.7773333333333333, |
| "grad_norm": 2.289916515350342, |
| "learning_rate": 4.516216216216216e-05, |
| "loss": 1.7548, |
| "step": 5830 |
| }, |
| { |
| "epoch": 0.7786666666666666, |
| "grad_norm": 2.620067596435547, |
| "learning_rate": 4.48918918918919e-05, |
| "loss": 1.5818, |
| "step": 5840 |
| }, |
| { |
| "epoch": 0.78, |
| "grad_norm": 2.3116276264190674, |
| "learning_rate": 4.462162162162162e-05, |
| "loss": 1.6786, |
| "step": 5850 |
| }, |
| { |
| "epoch": 0.7813333333333333, |
| "grad_norm": 2.479151964187622, |
| "learning_rate": 4.4351351351351357e-05, |
| "loss": 1.7516, |
| "step": 5860 |
| }, |
| { |
| "epoch": 0.7826666666666666, |
| "grad_norm": 2.3408565521240234, |
| "learning_rate": 4.4081081081081086e-05, |
| "loss": 1.6726, |
| "step": 5870 |
| }, |
| { |
| "epoch": 0.784, |
| "grad_norm": 2.4903507232666016, |
| "learning_rate": 4.3810810810810815e-05, |
| "loss": 1.7151, |
| "step": 5880 |
| }, |
| { |
| "epoch": 0.7853333333333333, |
| "grad_norm": 2.7375853061676025, |
| "learning_rate": 4.3540540540540544e-05, |
| "loss": 1.712, |
| "step": 5890 |
| }, |
| { |
| "epoch": 0.7866666666666666, |
| "grad_norm": 2.2988908290863037, |
| "learning_rate": 4.327027027027027e-05, |
| "loss": 1.7197, |
| "step": 5900 |
| }, |
| { |
| "epoch": 0.788, |
| "grad_norm": 2.9923717975616455, |
| "learning_rate": 4.3e-05, |
| "loss": 1.4819, |
| "step": 5910 |
| }, |
| { |
| "epoch": 0.7893333333333333, |
| "grad_norm": 2.4413089752197266, |
| "learning_rate": 4.272972972972973e-05, |
| "loss": 1.5703, |
| "step": 5920 |
| }, |
| { |
| "epoch": 0.7906666666666666, |
| "grad_norm": 2.3859667778015137, |
| "learning_rate": 4.245945945945946e-05, |
| "loss": 1.7052, |
| "step": 5930 |
| }, |
| { |
| "epoch": 0.792, |
| "grad_norm": 2.527226209640503, |
| "learning_rate": 4.2189189189189195e-05, |
| "loss": 1.7125, |
| "step": 5940 |
| }, |
| { |
| "epoch": 0.7933333333333333, |
| "grad_norm": 3.1854281425476074, |
| "learning_rate": 4.191891891891892e-05, |
| "loss": 1.7037, |
| "step": 5950 |
| }, |
| { |
| "epoch": 0.7946666666666666, |
| "grad_norm": 2.814861297607422, |
| "learning_rate": 4.1648648648648654e-05, |
| "loss": 1.6434, |
| "step": 5960 |
| }, |
| { |
| "epoch": 0.796, |
| "grad_norm": 2.9175212383270264, |
| "learning_rate": 4.137837837837838e-05, |
| "loss": 1.7307, |
| "step": 5970 |
| }, |
| { |
| "epoch": 0.7973333333333333, |
| "grad_norm": 2.400646924972534, |
| "learning_rate": 4.110810810810811e-05, |
| "loss": 1.5439, |
| "step": 5980 |
| }, |
| { |
| "epoch": 0.7986666666666666, |
| "grad_norm": 2.5307583808898926, |
| "learning_rate": 4.083783783783784e-05, |
| "loss": 1.6965, |
| "step": 5990 |
| }, |
| { |
| "epoch": 0.8, |
| "grad_norm": 2.612553358078003, |
| "learning_rate": 4.056756756756757e-05, |
| "loss": 1.7097, |
| "step": 6000 |
| }, |
| { |
| "epoch": 0.8013333333333333, |
| "grad_norm": 2.284662961959839, |
| "learning_rate": 4.02972972972973e-05, |
| "loss": 1.6993, |
| "step": 6010 |
| }, |
| { |
| "epoch": 0.8026666666666666, |
| "grad_norm": 3.0410237312316895, |
| "learning_rate": 4.002702702702703e-05, |
| "loss": 1.6701, |
| "step": 6020 |
| }, |
| { |
| "epoch": 0.804, |
| "grad_norm": 2.654667377471924, |
| "learning_rate": 3.975675675675676e-05, |
| "loss": 1.7714, |
| "step": 6030 |
| }, |
| { |
| "epoch": 0.8053333333333333, |
| "grad_norm": 2.5018224716186523, |
| "learning_rate": 3.948648648648649e-05, |
| "loss": 1.6427, |
| "step": 6040 |
| }, |
| { |
| "epoch": 0.8066666666666666, |
| "grad_norm": 2.2526869773864746, |
| "learning_rate": 3.9216216216216215e-05, |
| "loss": 1.4547, |
| "step": 6050 |
| }, |
| { |
| "epoch": 0.808, |
| "grad_norm": 2.6133015155792236, |
| "learning_rate": 3.894594594594595e-05, |
| "loss": 1.7321, |
| "step": 6060 |
| }, |
| { |
| "epoch": 0.8093333333333333, |
| "grad_norm": 2.4903156757354736, |
| "learning_rate": 3.867567567567568e-05, |
| "loss": 1.6721, |
| "step": 6070 |
| }, |
| { |
| "epoch": 0.8106666666666666, |
| "grad_norm": 2.7530627250671387, |
| "learning_rate": 3.840540540540541e-05, |
| "loss": 1.6131, |
| "step": 6080 |
| }, |
| { |
| "epoch": 0.812, |
| "grad_norm": 2.515719413757324, |
| "learning_rate": 3.813513513513514e-05, |
| "loss": 1.6351, |
| "step": 6090 |
| }, |
| { |
| "epoch": 0.8133333333333334, |
| "grad_norm": 2.6677589416503906, |
| "learning_rate": 3.7864864864864867e-05, |
| "loss": 1.6129, |
| "step": 6100 |
| }, |
| { |
| "epoch": 0.8146666666666667, |
| "grad_norm": 2.306367874145508, |
| "learning_rate": 3.7594594594594596e-05, |
| "loss": 1.6285, |
| "step": 6110 |
| }, |
| { |
| "epoch": 0.816, |
| "grad_norm": 3.3968253135681152, |
| "learning_rate": 3.7324324324324325e-05, |
| "loss": 1.7338, |
| "step": 6120 |
| }, |
| { |
| "epoch": 0.8173333333333334, |
| "grad_norm": 2.48195743560791, |
| "learning_rate": 3.7054054054054054e-05, |
| "loss": 1.8016, |
| "step": 6130 |
| }, |
| { |
| "epoch": 0.8186666666666667, |
| "grad_norm": 2.4861512184143066, |
| "learning_rate": 3.678378378378379e-05, |
| "loss": 1.6984, |
| "step": 6140 |
| }, |
| { |
| "epoch": 0.82, |
| "grad_norm": 2.6321170330047607, |
| "learning_rate": 3.651351351351351e-05, |
| "loss": 1.6262, |
| "step": 6150 |
| }, |
| { |
| "epoch": 0.8213333333333334, |
| "grad_norm": 2.5380373001098633, |
| "learning_rate": 3.624324324324325e-05, |
| "loss": 1.5623, |
| "step": 6160 |
| }, |
| { |
| "epoch": 0.8226666666666667, |
| "grad_norm": 2.204197883605957, |
| "learning_rate": 3.5972972972972977e-05, |
| "loss": 1.6745, |
| "step": 6170 |
| }, |
| { |
| "epoch": 0.824, |
| "grad_norm": 2.7403526306152344, |
| "learning_rate": 3.5702702702702706e-05, |
| "loss": 1.5203, |
| "step": 6180 |
| }, |
| { |
| "epoch": 0.8253333333333334, |
| "grad_norm": 2.620312452316284, |
| "learning_rate": 3.5432432432432435e-05, |
| "loss": 1.7019, |
| "step": 6190 |
| }, |
| { |
| "epoch": 0.8266666666666667, |
| "grad_norm": 2.6407034397125244, |
| "learning_rate": 3.5162162162162164e-05, |
| "loss": 1.6738, |
| "step": 6200 |
| }, |
| { |
| "epoch": 0.828, |
| "grad_norm": 2.8657119274139404, |
| "learning_rate": 3.489189189189189e-05, |
| "loss": 1.6289, |
| "step": 6210 |
| }, |
| { |
| "epoch": 0.8293333333333334, |
| "grad_norm": 2.3813586235046387, |
| "learning_rate": 3.462162162162162e-05, |
| "loss": 1.5808, |
| "step": 6220 |
| }, |
| { |
| "epoch": 0.8306666666666667, |
| "grad_norm": 2.9518868923187256, |
| "learning_rate": 3.435135135135135e-05, |
| "loss": 1.7271, |
| "step": 6230 |
| }, |
| { |
| "epoch": 0.832, |
| "grad_norm": 2.5830390453338623, |
| "learning_rate": 3.4081081081081086e-05, |
| "loss": 1.8173, |
| "step": 6240 |
| }, |
| { |
| "epoch": 0.8333333333333334, |
| "grad_norm": 2.986417293548584, |
| "learning_rate": 3.381081081081081e-05, |
| "loss": 1.7649, |
| "step": 6250 |
| }, |
| { |
| "epoch": 0.8346666666666667, |
| "grad_norm": 2.7815823554992676, |
| "learning_rate": 3.3540540540540544e-05, |
| "loss": 1.8131, |
| "step": 6260 |
| }, |
| { |
| "epoch": 0.836, |
| "grad_norm": 2.68438720703125, |
| "learning_rate": 3.3270270270270274e-05, |
| "loss": 1.6404, |
| "step": 6270 |
| }, |
| { |
| "epoch": 0.8373333333333334, |
| "grad_norm": 2.7621591091156006, |
| "learning_rate": 3.3e-05, |
| "loss": 1.7984, |
| "step": 6280 |
| }, |
| { |
| "epoch": 0.8386666666666667, |
| "grad_norm": 2.544633388519287, |
| "learning_rate": 3.272972972972973e-05, |
| "loss": 1.5763, |
| "step": 6290 |
| }, |
| { |
| "epoch": 0.84, |
| "grad_norm": 2.5023107528686523, |
| "learning_rate": 3.245945945945946e-05, |
| "loss": 1.8152, |
| "step": 6300 |
| }, |
| { |
| "epoch": 0.8413333333333334, |
| "grad_norm": 2.2994837760925293, |
| "learning_rate": 3.218918918918919e-05, |
| "loss": 1.8882, |
| "step": 6310 |
| }, |
| { |
| "epoch": 0.8426666666666667, |
| "grad_norm": 3.953317880630493, |
| "learning_rate": 3.191891891891892e-05, |
| "loss": 1.6891, |
| "step": 6320 |
| }, |
| { |
| "epoch": 0.844, |
| "grad_norm": 2.7134106159210205, |
| "learning_rate": 3.164864864864865e-05, |
| "loss": 1.7224, |
| "step": 6330 |
| }, |
| { |
| "epoch": 0.8453333333333334, |
| "grad_norm": 2.4005279541015625, |
| "learning_rate": 3.1378378378378383e-05, |
| "loss": 1.787, |
| "step": 6340 |
| }, |
| { |
| "epoch": 0.8466666666666667, |
| "grad_norm": 2.4672749042510986, |
| "learning_rate": 3.1108108108108106e-05, |
| "loss": 1.738, |
| "step": 6350 |
| }, |
| { |
| "epoch": 0.848, |
| "grad_norm": 2.928025245666504, |
| "learning_rate": 3.083783783783784e-05, |
| "loss": 1.8161, |
| "step": 6360 |
| }, |
| { |
| "epoch": 0.8493333333333334, |
| "grad_norm": 2.672902822494507, |
| "learning_rate": 3.056756756756757e-05, |
| "loss": 1.6174, |
| "step": 6370 |
| }, |
| { |
| "epoch": 0.8506666666666667, |
| "grad_norm": 2.5502936840057373, |
| "learning_rate": 3.02972972972973e-05, |
| "loss": 1.6013, |
| "step": 6380 |
| }, |
| { |
| "epoch": 0.852, |
| "grad_norm": 2.719055652618408, |
| "learning_rate": 3.002702702702703e-05, |
| "loss": 1.6408, |
| "step": 6390 |
| }, |
| { |
| "epoch": 0.8533333333333334, |
| "grad_norm": 2.978949785232544, |
| "learning_rate": 2.975675675675676e-05, |
| "loss": 1.6231, |
| "step": 6400 |
| }, |
| { |
| "epoch": 0.8546666666666667, |
| "grad_norm": 2.727102756500244, |
| "learning_rate": 2.9486486486486487e-05, |
| "loss": 1.6566, |
| "step": 6410 |
| }, |
| { |
| "epoch": 0.856, |
| "grad_norm": 2.3912513256073, |
| "learning_rate": 2.921621621621622e-05, |
| "loss": 1.6672, |
| "step": 6420 |
| }, |
| { |
| "epoch": 0.8573333333333333, |
| "grad_norm": 2.4890830516815186, |
| "learning_rate": 2.8945945945945945e-05, |
| "loss": 1.6692, |
| "step": 6430 |
| }, |
| { |
| "epoch": 0.8586666666666667, |
| "grad_norm": 2.6371443271636963, |
| "learning_rate": 2.8675675675675677e-05, |
| "loss": 1.864, |
| "step": 6440 |
| }, |
| { |
| "epoch": 0.86, |
| "grad_norm": 2.6232187747955322, |
| "learning_rate": 2.8405405405405406e-05, |
| "loss": 1.7107, |
| "step": 6450 |
| }, |
| { |
| "epoch": 0.8613333333333333, |
| "grad_norm": 2.3654496669769287, |
| "learning_rate": 2.813513513513514e-05, |
| "loss": 1.6735, |
| "step": 6460 |
| }, |
| { |
| "epoch": 0.8626666666666667, |
| "grad_norm": 2.777508497238159, |
| "learning_rate": 2.7864864864864864e-05, |
| "loss": 1.7127, |
| "step": 6470 |
| }, |
| { |
| "epoch": 0.864, |
| "grad_norm": 2.7823853492736816, |
| "learning_rate": 2.7594594594594596e-05, |
| "loss": 1.7249, |
| "step": 6480 |
| }, |
| { |
| "epoch": 0.8653333333333333, |
| "grad_norm": 2.3992345333099365, |
| "learning_rate": 2.7324324324324326e-05, |
| "loss": 1.4668, |
| "step": 6490 |
| }, |
| { |
| "epoch": 0.8666666666666667, |
| "grad_norm": 2.6813876628875732, |
| "learning_rate": 2.7054054054054058e-05, |
| "loss": 1.5731, |
| "step": 6500 |
| }, |
| { |
| "epoch": 0.868, |
| "grad_norm": 2.8751773834228516, |
| "learning_rate": 2.6783783783783784e-05, |
| "loss": 1.737, |
| "step": 6510 |
| }, |
| { |
| "epoch": 0.8693333333333333, |
| "grad_norm": 2.3561997413635254, |
| "learning_rate": 2.6513513513513516e-05, |
| "loss": 1.5408, |
| "step": 6520 |
| }, |
| { |
| "epoch": 0.8706666666666667, |
| "grad_norm": 2.712101697921753, |
| "learning_rate": 2.624324324324324e-05, |
| "loss": 1.6529, |
| "step": 6530 |
| }, |
| { |
| "epoch": 0.872, |
| "grad_norm": 2.6622605323791504, |
| "learning_rate": 2.5972972972972974e-05, |
| "loss": 1.6287, |
| "step": 6540 |
| }, |
| { |
| "epoch": 0.8733333333333333, |
| "grad_norm": 2.330552339553833, |
| "learning_rate": 2.5702702702702703e-05, |
| "loss": 1.7394, |
| "step": 6550 |
| }, |
| { |
| "epoch": 0.8746666666666667, |
| "grad_norm": 2.4436655044555664, |
| "learning_rate": 2.5432432432432435e-05, |
| "loss": 1.6597, |
| "step": 6560 |
| }, |
| { |
| "epoch": 0.876, |
| "grad_norm": 2.36600923538208, |
| "learning_rate": 2.516216216216216e-05, |
| "loss": 1.6797, |
| "step": 6570 |
| }, |
| { |
| "epoch": 0.8773333333333333, |
| "grad_norm": 2.758204698562622, |
| "learning_rate": 2.4891891891891893e-05, |
| "loss": 1.669, |
| "step": 6580 |
| }, |
| { |
| "epoch": 0.8786666666666667, |
| "grad_norm": 2.7728378772735596, |
| "learning_rate": 2.4621621621621623e-05, |
| "loss": 1.7215, |
| "step": 6590 |
| }, |
| { |
| "epoch": 0.88, |
| "grad_norm": 2.289459705352783, |
| "learning_rate": 2.4351351351351355e-05, |
| "loss": 1.6012, |
| "step": 6600 |
| }, |
| { |
| "epoch": 0.8813333333333333, |
| "grad_norm": 2.649552345275879, |
| "learning_rate": 2.4081081081081084e-05, |
| "loss": 1.6669, |
| "step": 6610 |
| }, |
| { |
| "epoch": 0.8826666666666667, |
| "grad_norm": 2.6189112663269043, |
| "learning_rate": 2.3810810810810813e-05, |
| "loss": 1.7255, |
| "step": 6620 |
| }, |
| { |
| "epoch": 0.884, |
| "grad_norm": 2.6846015453338623, |
| "learning_rate": 2.3540540540540542e-05, |
| "loss": 1.9068, |
| "step": 6630 |
| }, |
| { |
| "epoch": 0.8853333333333333, |
| "grad_norm": 2.8346004486083984, |
| "learning_rate": 2.327027027027027e-05, |
| "loss": 1.7185, |
| "step": 6640 |
| }, |
| { |
| "epoch": 0.8866666666666667, |
| "grad_norm": 2.6064999103546143, |
| "learning_rate": 2.3000000000000003e-05, |
| "loss": 1.6009, |
| "step": 6650 |
| }, |
| { |
| "epoch": 0.888, |
| "grad_norm": 2.423532009124756, |
| "learning_rate": 2.2729729729729732e-05, |
| "loss": 1.6337, |
| "step": 6660 |
| }, |
| { |
| "epoch": 0.8893333333333333, |
| "grad_norm": 2.556084632873535, |
| "learning_rate": 2.245945945945946e-05, |
| "loss": 1.6241, |
| "step": 6670 |
| }, |
| { |
| "epoch": 0.8906666666666667, |
| "grad_norm": 2.7347779273986816, |
| "learning_rate": 2.218918918918919e-05, |
| "loss": 1.6245, |
| "step": 6680 |
| }, |
| { |
| "epoch": 0.892, |
| "grad_norm": 3.145932674407959, |
| "learning_rate": 2.191891891891892e-05, |
| "loss": 1.723, |
| "step": 6690 |
| }, |
| { |
| "epoch": 0.8933333333333333, |
| "grad_norm": 2.62679386138916, |
| "learning_rate": 2.1648648648648652e-05, |
| "loss": 1.5785, |
| "step": 6700 |
| }, |
| { |
| "epoch": 0.8946666666666667, |
| "grad_norm": 2.508307695388794, |
| "learning_rate": 2.137837837837838e-05, |
| "loss": 1.6147, |
| "step": 6710 |
| }, |
| { |
| "epoch": 0.896, |
| "grad_norm": 2.8022305965423584, |
| "learning_rate": 2.110810810810811e-05, |
| "loss": 1.7815, |
| "step": 6720 |
| }, |
| { |
| "epoch": 0.8973333333333333, |
| "grad_norm": 3.2732038497924805, |
| "learning_rate": 2.083783783783784e-05, |
| "loss": 1.5358, |
| "step": 6730 |
| }, |
| { |
| "epoch": 0.8986666666666666, |
| "grad_norm": 2.396840810775757, |
| "learning_rate": 2.0567567567567568e-05, |
| "loss": 1.6873, |
| "step": 6740 |
| }, |
| { |
| "epoch": 0.9, |
| "grad_norm": 2.5847902297973633, |
| "learning_rate": 2.02972972972973e-05, |
| "loss": 1.7431, |
| "step": 6750 |
| }, |
| { |
| "epoch": 0.9013333333333333, |
| "grad_norm": 3.0284829139709473, |
| "learning_rate": 2.002702702702703e-05, |
| "loss": 1.5864, |
| "step": 6760 |
| }, |
| { |
| "epoch": 0.9026666666666666, |
| "grad_norm": 2.715101480484009, |
| "learning_rate": 1.975675675675676e-05, |
| "loss": 1.6942, |
| "step": 6770 |
| }, |
| { |
| "epoch": 0.904, |
| "grad_norm": 2.6553282737731934, |
| "learning_rate": 1.9486486486486487e-05, |
| "loss": 1.6703, |
| "step": 6780 |
| }, |
| { |
| "epoch": 0.9053333333333333, |
| "grad_norm": 2.634984254837036, |
| "learning_rate": 1.9216216216216216e-05, |
| "loss": 1.6149, |
| "step": 6790 |
| }, |
| { |
| "epoch": 0.9066666666666666, |
| "grad_norm": 2.7491838932037354, |
| "learning_rate": 1.894594594594595e-05, |
| "loss": 1.5419, |
| "step": 6800 |
| }, |
| { |
| "epoch": 0.908, |
| "grad_norm": 2.5145108699798584, |
| "learning_rate": 1.8675675675675678e-05, |
| "loss": 1.6888, |
| "step": 6810 |
| }, |
| { |
| "epoch": 0.9093333333333333, |
| "grad_norm": 2.5140767097473145, |
| "learning_rate": 1.8405405405405407e-05, |
| "loss": 1.6765, |
| "step": 6820 |
| }, |
| { |
| "epoch": 0.9106666666666666, |
| "grad_norm": 2.548701047897339, |
| "learning_rate": 1.8135135135135136e-05, |
| "loss": 1.6776, |
| "step": 6830 |
| }, |
| { |
| "epoch": 0.912, |
| "grad_norm": 2.5743017196655273, |
| "learning_rate": 1.7864864864864865e-05, |
| "loss": 1.6047, |
| "step": 6840 |
| }, |
| { |
| "epoch": 0.9133333333333333, |
| "grad_norm": 2.569002151489258, |
| "learning_rate": 1.7594594594594597e-05, |
| "loss": 1.6433, |
| "step": 6850 |
| }, |
| { |
| "epoch": 0.9146666666666666, |
| "grad_norm": 2.7466344833374023, |
| "learning_rate": 1.7324324324324326e-05, |
| "loss": 1.469, |
| "step": 6860 |
| }, |
| { |
| "epoch": 0.916, |
| "grad_norm": 2.4851741790771484, |
| "learning_rate": 1.7054054054054055e-05, |
| "loss": 1.755, |
| "step": 6870 |
| }, |
| { |
| "epoch": 0.9173333333333333, |
| "grad_norm": 2.8213634490966797, |
| "learning_rate": 1.6783783783783784e-05, |
| "loss": 1.7171, |
| "step": 6880 |
| }, |
| { |
| "epoch": 0.9186666666666666, |
| "grad_norm": 2.4094128608703613, |
| "learning_rate": 1.6513513513513513e-05, |
| "loss": 1.7336, |
| "step": 6890 |
| }, |
| { |
| "epoch": 0.92, |
| "grad_norm": 2.748495578765869, |
| "learning_rate": 1.6243243243243246e-05, |
| "loss": 1.7019, |
| "step": 6900 |
| }, |
| { |
| "epoch": 0.9213333333333333, |
| "grad_norm": 2.6169843673706055, |
| "learning_rate": 1.5972972972972975e-05, |
| "loss": 1.6504, |
| "step": 6910 |
| }, |
| { |
| "epoch": 0.9226666666666666, |
| "grad_norm": 2.2441680431365967, |
| "learning_rate": 1.5702702702702704e-05, |
| "loss": 1.4319, |
| "step": 6920 |
| }, |
| { |
| "epoch": 0.924, |
| "grad_norm": 2.5555968284606934, |
| "learning_rate": 1.5432432432432433e-05, |
| "loss": 1.7728, |
| "step": 6930 |
| }, |
| { |
| "epoch": 0.9253333333333333, |
| "grad_norm": 2.4957871437072754, |
| "learning_rate": 1.5162162162162164e-05, |
| "loss": 1.7825, |
| "step": 6940 |
| }, |
| { |
| "epoch": 0.9266666666666666, |
| "grad_norm": 2.550595283508301, |
| "learning_rate": 1.4891891891891893e-05, |
| "loss": 1.603, |
| "step": 6950 |
| }, |
| { |
| "epoch": 0.928, |
| "grad_norm": 2.6314826011657715, |
| "learning_rate": 1.4621621621621623e-05, |
| "loss": 1.7567, |
| "step": 6960 |
| }, |
| { |
| "epoch": 0.9293333333333333, |
| "grad_norm": 2.9072461128234863, |
| "learning_rate": 1.4351351351351352e-05, |
| "loss": 1.6172, |
| "step": 6970 |
| }, |
| { |
| "epoch": 0.9306666666666666, |
| "grad_norm": 3.2710816860198975, |
| "learning_rate": 1.4081081081081081e-05, |
| "loss": 1.6034, |
| "step": 6980 |
| }, |
| { |
| "epoch": 0.932, |
| "grad_norm": 2.4734737873077393, |
| "learning_rate": 1.3810810810810812e-05, |
| "loss": 1.6267, |
| "step": 6990 |
| }, |
| { |
| "epoch": 0.9333333333333333, |
| "grad_norm": 2.662058115005493, |
| "learning_rate": 1.3540540540540541e-05, |
| "loss": 1.6551, |
| "step": 7000 |
| }, |
| { |
| "epoch": 0.9346666666666666, |
| "grad_norm": 2.6980836391448975, |
| "learning_rate": 1.3270270270270272e-05, |
| "loss": 1.6888, |
| "step": 7010 |
| }, |
| { |
| "epoch": 0.936, |
| "grad_norm": 2.771665096282959, |
| "learning_rate": 1.3000000000000001e-05, |
| "loss": 1.7321, |
| "step": 7020 |
| }, |
| { |
| "epoch": 0.9373333333333334, |
| "grad_norm": 2.653038740158081, |
| "learning_rate": 1.2729729729729732e-05, |
| "loss": 1.7143, |
| "step": 7030 |
| }, |
| { |
| "epoch": 0.9386666666666666, |
| "grad_norm": 2.3817522525787354, |
| "learning_rate": 1.245945945945946e-05, |
| "loss": 1.5358, |
| "step": 7040 |
| }, |
| { |
| "epoch": 0.94, |
| "grad_norm": 2.279339551925659, |
| "learning_rate": 1.218918918918919e-05, |
| "loss": 1.6555, |
| "step": 7050 |
| }, |
| { |
| "epoch": 0.9413333333333334, |
| "grad_norm": 3.3182878494262695, |
| "learning_rate": 1.191891891891892e-05, |
| "loss": 1.6184, |
| "step": 7060 |
| }, |
| { |
| "epoch": 0.9426666666666667, |
| "grad_norm": 2.6482789516448975, |
| "learning_rate": 1.164864864864865e-05, |
| "loss": 1.709, |
| "step": 7070 |
| }, |
| { |
| "epoch": 0.944, |
| "grad_norm": 2.4812536239624023, |
| "learning_rate": 1.137837837837838e-05, |
| "loss": 1.7768, |
| "step": 7080 |
| }, |
| { |
| "epoch": 0.9453333333333334, |
| "grad_norm": 3.111724615097046, |
| "learning_rate": 1.1108108108108109e-05, |
| "loss": 1.6812, |
| "step": 7090 |
| }, |
| { |
| "epoch": 0.9466666666666667, |
| "grad_norm": 2.495426654815674, |
| "learning_rate": 1.0837837837837838e-05, |
| "loss": 1.5317, |
| "step": 7100 |
| }, |
| { |
| "epoch": 0.948, |
| "grad_norm": 2.2483787536621094, |
| "learning_rate": 1.0567567567567569e-05, |
| "loss": 1.629, |
| "step": 7110 |
| }, |
| { |
| "epoch": 0.9493333333333334, |
| "grad_norm": 2.7049107551574707, |
| "learning_rate": 1.0297297297297298e-05, |
| "loss": 1.5866, |
| "step": 7120 |
| }, |
| { |
| "epoch": 0.9506666666666667, |
| "grad_norm": 3.0780189037323, |
| "learning_rate": 1.0027027027027029e-05, |
| "loss": 1.7374, |
| "step": 7130 |
| }, |
| { |
| "epoch": 0.952, |
| "grad_norm": 2.746018171310425, |
| "learning_rate": 9.756756756756758e-06, |
| "loss": 1.5519, |
| "step": 7140 |
| }, |
| { |
| "epoch": 0.9533333333333334, |
| "grad_norm": 2.679908514022827, |
| "learning_rate": 9.486486486486487e-06, |
| "loss": 1.5365, |
| "step": 7150 |
| }, |
| { |
| "epoch": 0.9546666666666667, |
| "grad_norm": 2.8329336643218994, |
| "learning_rate": 9.216216216216217e-06, |
| "loss": 1.62, |
| "step": 7160 |
| }, |
| { |
| "epoch": 0.956, |
| "grad_norm": 2.6065895557403564, |
| "learning_rate": 8.945945945945946e-06, |
| "loss": 1.7687, |
| "step": 7170 |
| }, |
| { |
| "epoch": 0.9573333333333334, |
| "grad_norm": 2.30088472366333, |
| "learning_rate": 8.675675675675677e-06, |
| "loss": 1.557, |
| "step": 7180 |
| }, |
| { |
| "epoch": 0.9586666666666667, |
| "grad_norm": 2.599210262298584, |
| "learning_rate": 8.405405405405406e-06, |
| "loss": 1.62, |
| "step": 7190 |
| }, |
| { |
| "epoch": 0.96, |
| "grad_norm": 2.2358078956604004, |
| "learning_rate": 8.135135135135135e-06, |
| "loss": 1.6407, |
| "step": 7200 |
| }, |
| { |
| "epoch": 0.9613333333333334, |
| "grad_norm": 2.4841508865356445, |
| "learning_rate": 7.864864864864866e-06, |
| "loss": 1.6056, |
| "step": 7210 |
| }, |
| { |
| "epoch": 0.9626666666666667, |
| "grad_norm": 2.3047494888305664, |
| "learning_rate": 7.594594594594595e-06, |
| "loss": 1.5406, |
| "step": 7220 |
| }, |
| { |
| "epoch": 0.964, |
| "grad_norm": 2.834550380706787, |
| "learning_rate": 7.324324324324325e-06, |
| "loss": 1.7274, |
| "step": 7230 |
| }, |
| { |
| "epoch": 0.9653333333333334, |
| "grad_norm": 2.8711700439453125, |
| "learning_rate": 7.054054054054055e-06, |
| "loss": 1.6701, |
| "step": 7240 |
| }, |
| { |
| "epoch": 0.9666666666666667, |
| "grad_norm": 2.738593816757202, |
| "learning_rate": 6.7837837837837845e-06, |
| "loss": 1.6375, |
| "step": 7250 |
| }, |
| { |
| "epoch": 0.968, |
| "grad_norm": 2.4135043621063232, |
| "learning_rate": 6.5135135135135135e-06, |
| "loss": 1.6107, |
| "step": 7260 |
| }, |
| { |
| "epoch": 0.9693333333333334, |
| "grad_norm": 2.8111422061920166, |
| "learning_rate": 6.243243243243243e-06, |
| "loss": 1.539, |
| "step": 7270 |
| }, |
| { |
| "epoch": 0.9706666666666667, |
| "grad_norm": 2.566840648651123, |
| "learning_rate": 5.972972972972973e-06, |
| "loss": 1.594, |
| "step": 7280 |
| }, |
| { |
| "epoch": 0.972, |
| "grad_norm": 2.5556352138519287, |
| "learning_rate": 5.702702702702703e-06, |
| "loss": 1.6455, |
| "step": 7290 |
| }, |
| { |
| "epoch": 0.9733333333333334, |
| "grad_norm": 3.008657932281494, |
| "learning_rate": 5.432432432432433e-06, |
| "loss": 1.5848, |
| "step": 7300 |
| }, |
| { |
| "epoch": 0.9746666666666667, |
| "grad_norm": 2.610825777053833, |
| "learning_rate": 5.162162162162163e-06, |
| "loss": 1.7194, |
| "step": 7310 |
| }, |
| { |
| "epoch": 0.976, |
| "grad_norm": 2.616455078125, |
| "learning_rate": 4.891891891891892e-06, |
| "loss": 1.568, |
| "step": 7320 |
| }, |
| { |
| "epoch": 0.9773333333333334, |
| "grad_norm": 2.8675105571746826, |
| "learning_rate": 4.621621621621622e-06, |
| "loss": 1.7507, |
| "step": 7330 |
| }, |
| { |
| "epoch": 0.9786666666666667, |
| "grad_norm": 2.5159497261047363, |
| "learning_rate": 4.351351351351352e-06, |
| "loss": 1.7367, |
| "step": 7340 |
| }, |
| { |
| "epoch": 0.98, |
| "grad_norm": 2.332679271697998, |
| "learning_rate": 4.0810810810810815e-06, |
| "loss": 1.7872, |
| "step": 7350 |
| }, |
| { |
| "epoch": 0.9813333333333333, |
| "grad_norm": 2.50606632232666, |
| "learning_rate": 3.810810810810811e-06, |
| "loss": 1.7851, |
| "step": 7360 |
| }, |
| { |
| "epoch": 0.9826666666666667, |
| "grad_norm": 2.3942174911499023, |
| "learning_rate": 3.5405405405405408e-06, |
| "loss": 1.735, |
| "step": 7370 |
| }, |
| { |
| "epoch": 0.984, |
| "grad_norm": 2.652820348739624, |
| "learning_rate": 3.27027027027027e-06, |
| "loss": 1.549, |
| "step": 7380 |
| }, |
| { |
| "epoch": 0.9853333333333333, |
| "grad_norm": 2.5401089191436768, |
| "learning_rate": 3e-06, |
| "loss": 1.7919, |
| "step": 7390 |
| }, |
| { |
| "epoch": 0.9866666666666667, |
| "grad_norm": 2.644707679748535, |
| "learning_rate": 2.72972972972973e-06, |
| "loss": 1.6898, |
| "step": 7400 |
| }, |
| { |
| "epoch": 0.988, |
| "grad_norm": 2.5156869888305664, |
| "learning_rate": 2.4594594594594594e-06, |
| "loss": 1.7502, |
| "step": 7410 |
| }, |
| { |
| "epoch": 0.9893333333333333, |
| "grad_norm": 2.9626588821411133, |
| "learning_rate": 2.1891891891891893e-06, |
| "loss": 1.7192, |
| "step": 7420 |
| }, |
| { |
| "epoch": 0.9906666666666667, |
| "grad_norm": 2.3246891498565674, |
| "learning_rate": 1.9189189189189187e-06, |
| "loss": 1.5739, |
| "step": 7430 |
| }, |
| { |
| "epoch": 0.992, |
| "grad_norm": 2.74018931388855, |
| "learning_rate": 1.648648648648649e-06, |
| "loss": 1.6219, |
| "step": 7440 |
| }, |
| { |
| "epoch": 0.9933333333333333, |
| "grad_norm": 2.560476779937744, |
| "learning_rate": 1.3783783783783784e-06, |
| "loss": 1.629, |
| "step": 7450 |
| }, |
| { |
| "epoch": 0.9946666666666667, |
| "grad_norm": 2.6624557971954346, |
| "learning_rate": 1.108108108108108e-06, |
| "loss": 1.6837, |
| "step": 7460 |
| }, |
| { |
| "epoch": 0.996, |
| "grad_norm": 2.5217485427856445, |
| "learning_rate": 8.378378378378379e-07, |
| "loss": 1.7801, |
| "step": 7470 |
| }, |
| { |
| "epoch": 0.9973333333333333, |
| "grad_norm": 2.61094069480896, |
| "learning_rate": 5.675675675675676e-07, |
| "loss": 1.7075, |
| "step": 7480 |
| }, |
| { |
| "epoch": 0.9986666666666667, |
| "grad_norm": 2.4117472171783447, |
| "learning_rate": 2.972972972972973e-07, |
| "loss": 1.7605, |
| "step": 7490 |
| }, |
| { |
| "epoch": 1.0, |
| "grad_norm": 2.9337403774261475, |
| "learning_rate": 2.7027027027027028e-08, |
| "loss": 1.5628, |
| "step": 7500 |
| } |
| ], |
| "logging_steps": 10, |
| "max_steps": 7500, |
| "num_input_tokens_seen": 0, |
| "num_train_epochs": 1, |
| "save_steps": 500, |
| "stateful_callbacks": { |
| "TrainerControl": { |
| "args": { |
| "should_epoch_stop": false, |
| "should_evaluate": false, |
| "should_log": false, |
| "should_save": true, |
| "should_training_stop": true |
| }, |
| "attributes": {} |
| } |
| }, |
| "total_flos": 1.789801119744e+17, |
| "train_batch_size": 4, |
| "trial_name": null, |
| "trial_params": null |
| } |
|
|