|
{ |
|
"best_metric": 0.5036363636363637, |
|
"best_model_checkpoint": "swinv2-tiny-patch4-window8-256-RD-da-colab/checkpoint-864", |
|
"epoch": 40.0, |
|
"eval_steps": 500, |
|
"global_step": 3840, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.10416666666666667, |
|
"grad_norm": 42.598148345947266, |
|
"learning_rate": 4.986979166666667e-05, |
|
"loss": 0.1248, |
|
"step": 10 |
|
}, |
|
{ |
|
"epoch": 0.20833333333333334, |
|
"grad_norm": 17.584503173828125, |
|
"learning_rate": 4.973958333333333e-05, |
|
"loss": 0.151, |
|
"step": 20 |
|
}, |
|
{ |
|
"epoch": 0.3125, |
|
"grad_norm": 34.18959045410156, |
|
"learning_rate": 4.9609375000000005e-05, |
|
"loss": 0.1573, |
|
"step": 30 |
|
}, |
|
{ |
|
"epoch": 0.4166666666666667, |
|
"grad_norm": 45.50139617919922, |
|
"learning_rate": 4.947916666666667e-05, |
|
"loss": 0.2027, |
|
"step": 40 |
|
}, |
|
{ |
|
"epoch": 0.5208333333333334, |
|
"grad_norm": 23.02092170715332, |
|
"learning_rate": 4.934895833333333e-05, |
|
"loss": 0.1427, |
|
"step": 50 |
|
}, |
|
{ |
|
"epoch": 0.625, |
|
"grad_norm": 38.76067352294922, |
|
"learning_rate": 4.921875e-05, |
|
"loss": 0.2, |
|
"step": 60 |
|
}, |
|
{ |
|
"epoch": 0.7291666666666666, |
|
"grad_norm": 18.637813568115234, |
|
"learning_rate": 4.908854166666667e-05, |
|
"loss": 0.1592, |
|
"step": 70 |
|
}, |
|
{ |
|
"epoch": 0.8333333333333334, |
|
"grad_norm": 30.81132698059082, |
|
"learning_rate": 4.8958333333333335e-05, |
|
"loss": 0.1751, |
|
"step": 80 |
|
}, |
|
{ |
|
"epoch": 0.9375, |
|
"grad_norm": 14.898262023925781, |
|
"learning_rate": 4.8828125e-05, |
|
"loss": 0.1347, |
|
"step": 90 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"eval_accuracy": 0.49818181818181817, |
|
"eval_loss": 10.038619041442871, |
|
"eval_runtime": 5.4327, |
|
"eval_samples_per_second": 101.24, |
|
"eval_steps_per_second": 6.443, |
|
"step": 96 |
|
}, |
|
{ |
|
"epoch": 1.0416666666666667, |
|
"grad_norm": 30.047697067260742, |
|
"learning_rate": 4.869791666666667e-05, |
|
"loss": 0.1175, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 1.1458333333333333, |
|
"grad_norm": 60.324214935302734, |
|
"learning_rate": 4.856770833333333e-05, |
|
"loss": 0.1122, |
|
"step": 110 |
|
}, |
|
{ |
|
"epoch": 1.25, |
|
"grad_norm": 36.84939193725586, |
|
"learning_rate": 4.8437500000000005e-05, |
|
"loss": 0.1478, |
|
"step": 120 |
|
}, |
|
{ |
|
"epoch": 1.3541666666666667, |
|
"grad_norm": 22.14335060119629, |
|
"learning_rate": 4.830729166666667e-05, |
|
"loss": 0.1263, |
|
"step": 130 |
|
}, |
|
{ |
|
"epoch": 1.4583333333333333, |
|
"grad_norm": 26.1667537689209, |
|
"learning_rate": 4.817708333333333e-05, |
|
"loss": 0.1456, |
|
"step": 140 |
|
}, |
|
{ |
|
"epoch": 1.5625, |
|
"grad_norm": 14.78097915649414, |
|
"learning_rate": 4.8046875e-05, |
|
"loss": 0.1277, |
|
"step": 150 |
|
}, |
|
{ |
|
"epoch": 1.6666666666666665, |
|
"grad_norm": 8.224088668823242, |
|
"learning_rate": 4.791666666666667e-05, |
|
"loss": 0.1268, |
|
"step": 160 |
|
}, |
|
{ |
|
"epoch": 1.7708333333333335, |
|
"grad_norm": 30.72645378112793, |
|
"learning_rate": 4.7786458333333336e-05, |
|
"loss": 0.1562, |
|
"step": 170 |
|
}, |
|
{ |
|
"epoch": 1.875, |
|
"grad_norm": 60.8471794128418, |
|
"learning_rate": 4.765625e-05, |
|
"loss": 0.1334, |
|
"step": 180 |
|
}, |
|
{ |
|
"epoch": 1.9791666666666665, |
|
"grad_norm": 31.910261154174805, |
|
"learning_rate": 4.752604166666667e-05, |
|
"loss": 0.1556, |
|
"step": 190 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"eval_accuracy": 0.5, |
|
"eval_loss": 9.5017671585083, |
|
"eval_runtime": 5.6573, |
|
"eval_samples_per_second": 97.219, |
|
"eval_steps_per_second": 6.187, |
|
"step": 192 |
|
}, |
|
{ |
|
"epoch": 2.0833333333333335, |
|
"grad_norm": 30.34270477294922, |
|
"learning_rate": 4.739583333333333e-05, |
|
"loss": 0.1748, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 2.1875, |
|
"grad_norm": 17.39912986755371, |
|
"learning_rate": 4.7265625000000005e-05, |
|
"loss": 0.11, |
|
"step": 210 |
|
}, |
|
{ |
|
"epoch": 2.2916666666666665, |
|
"grad_norm": 20.40989112854004, |
|
"learning_rate": 4.713541666666667e-05, |
|
"loss": 0.1196, |
|
"step": 220 |
|
}, |
|
{ |
|
"epoch": 2.3958333333333335, |
|
"grad_norm": 22.483667373657227, |
|
"learning_rate": 4.7005208333333334e-05, |
|
"loss": 0.1099, |
|
"step": 230 |
|
}, |
|
{ |
|
"epoch": 2.5, |
|
"grad_norm": 43.34706497192383, |
|
"learning_rate": 4.6875e-05, |
|
"loss": 0.1165, |
|
"step": 240 |
|
}, |
|
{ |
|
"epoch": 2.6041666666666665, |
|
"grad_norm": 18.61318016052246, |
|
"learning_rate": 4.674479166666667e-05, |
|
"loss": 0.1305, |
|
"step": 250 |
|
}, |
|
{ |
|
"epoch": 2.7083333333333335, |
|
"grad_norm": 6.453171253204346, |
|
"learning_rate": 4.6614583333333336e-05, |
|
"loss": 0.0952, |
|
"step": 260 |
|
}, |
|
{ |
|
"epoch": 2.8125, |
|
"grad_norm": 30.783220291137695, |
|
"learning_rate": 4.6484375e-05, |
|
"loss": 0.1272, |
|
"step": 270 |
|
}, |
|
{ |
|
"epoch": 2.9166666666666665, |
|
"grad_norm": 26.62312126159668, |
|
"learning_rate": 4.635416666666667e-05, |
|
"loss": 0.1051, |
|
"step": 280 |
|
}, |
|
{ |
|
"epoch": 3.0, |
|
"eval_accuracy": 0.49818181818181817, |
|
"eval_loss": 9.951637268066406, |
|
"eval_runtime": 5.8295, |
|
"eval_samples_per_second": 94.347, |
|
"eval_steps_per_second": 6.004, |
|
"step": 288 |
|
}, |
|
{ |
|
"epoch": 3.0208333333333335, |
|
"grad_norm": 21.54640769958496, |
|
"learning_rate": 4.622395833333333e-05, |
|
"loss": 0.1112, |
|
"step": 290 |
|
}, |
|
{ |
|
"epoch": 3.125, |
|
"grad_norm": 42.145084381103516, |
|
"learning_rate": 4.609375e-05, |
|
"loss": 0.1301, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 3.2291666666666665, |
|
"grad_norm": 15.662188529968262, |
|
"learning_rate": 4.596354166666667e-05, |
|
"loss": 0.1256, |
|
"step": 310 |
|
}, |
|
{ |
|
"epoch": 3.3333333333333335, |
|
"grad_norm": 10.25682258605957, |
|
"learning_rate": 4.5833333333333334e-05, |
|
"loss": 0.134, |
|
"step": 320 |
|
}, |
|
{ |
|
"epoch": 3.4375, |
|
"grad_norm": 36.02114486694336, |
|
"learning_rate": 4.5703125e-05, |
|
"loss": 0.1526, |
|
"step": 330 |
|
}, |
|
{ |
|
"epoch": 3.5416666666666665, |
|
"grad_norm": 17.305227279663086, |
|
"learning_rate": 4.557291666666667e-05, |
|
"loss": 0.1023, |
|
"step": 340 |
|
}, |
|
{ |
|
"epoch": 3.6458333333333335, |
|
"grad_norm": 27.077919006347656, |
|
"learning_rate": 4.5442708333333336e-05, |
|
"loss": 0.1232, |
|
"step": 350 |
|
}, |
|
{ |
|
"epoch": 3.75, |
|
"grad_norm": 11.635032653808594, |
|
"learning_rate": 4.5312500000000004e-05, |
|
"loss": 0.118, |
|
"step": 360 |
|
}, |
|
{ |
|
"epoch": 3.8541666666666665, |
|
"grad_norm": 9.679945945739746, |
|
"learning_rate": 4.518229166666667e-05, |
|
"loss": 0.1272, |
|
"step": 370 |
|
}, |
|
{ |
|
"epoch": 3.9583333333333335, |
|
"grad_norm": 35.05564880371094, |
|
"learning_rate": 4.505208333333333e-05, |
|
"loss": 0.1154, |
|
"step": 380 |
|
}, |
|
{ |
|
"epoch": 4.0, |
|
"eval_accuracy": 0.49454545454545457, |
|
"eval_loss": 10.83507251739502, |
|
"eval_runtime": 5.5852, |
|
"eval_samples_per_second": 98.475, |
|
"eval_steps_per_second": 6.267, |
|
"step": 384 |
|
}, |
|
{ |
|
"epoch": 4.0625, |
|
"grad_norm": 17.898588180541992, |
|
"learning_rate": 4.4921875e-05, |
|
"loss": 0.1205, |
|
"step": 390 |
|
}, |
|
{ |
|
"epoch": 4.166666666666667, |
|
"grad_norm": 11.714666366577148, |
|
"learning_rate": 4.4791666666666673e-05, |
|
"loss": 0.1154, |
|
"step": 400 |
|
}, |
|
{ |
|
"epoch": 4.270833333333333, |
|
"grad_norm": 28.628341674804688, |
|
"learning_rate": 4.4661458333333334e-05, |
|
"loss": 0.0921, |
|
"step": 410 |
|
}, |
|
{ |
|
"epoch": 4.375, |
|
"grad_norm": 27.23090171813965, |
|
"learning_rate": 4.453125e-05, |
|
"loss": 0.1387, |
|
"step": 420 |
|
}, |
|
{ |
|
"epoch": 4.479166666666667, |
|
"grad_norm": 21.317411422729492, |
|
"learning_rate": 4.440104166666667e-05, |
|
"loss": 0.0963, |
|
"step": 430 |
|
}, |
|
{ |
|
"epoch": 4.583333333333333, |
|
"grad_norm": 43.00777816772461, |
|
"learning_rate": 4.4270833333333337e-05, |
|
"loss": 0.1442, |
|
"step": 440 |
|
}, |
|
{ |
|
"epoch": 4.6875, |
|
"grad_norm": 16.401071548461914, |
|
"learning_rate": 4.4140625000000004e-05, |
|
"loss": 0.1053, |
|
"step": 450 |
|
}, |
|
{ |
|
"epoch": 4.791666666666667, |
|
"grad_norm": 64.46897888183594, |
|
"learning_rate": 4.401041666666667e-05, |
|
"loss": 0.127, |
|
"step": 460 |
|
}, |
|
{ |
|
"epoch": 4.895833333333333, |
|
"grad_norm": 25.741722106933594, |
|
"learning_rate": 4.388020833333333e-05, |
|
"loss": 0.1091, |
|
"step": 470 |
|
}, |
|
{ |
|
"epoch": 5.0, |
|
"grad_norm": 34.66310501098633, |
|
"learning_rate": 4.375e-05, |
|
"loss": 0.0909, |
|
"step": 480 |
|
}, |
|
{ |
|
"epoch": 5.0, |
|
"eval_accuracy": 0.49454545454545457, |
|
"eval_loss": 11.609113693237305, |
|
"eval_runtime": 5.3602, |
|
"eval_samples_per_second": 102.608, |
|
"eval_steps_per_second": 6.53, |
|
"step": 480 |
|
}, |
|
{ |
|
"epoch": 5.104166666666667, |
|
"grad_norm": 23.78188705444336, |
|
"learning_rate": 4.3619791666666674e-05, |
|
"loss": 0.1073, |
|
"step": 490 |
|
}, |
|
{ |
|
"epoch": 5.208333333333333, |
|
"grad_norm": 13.303662300109863, |
|
"learning_rate": 4.3489583333333334e-05, |
|
"loss": 0.1052, |
|
"step": 500 |
|
}, |
|
{ |
|
"epoch": 5.3125, |
|
"grad_norm": 24.655569076538086, |
|
"learning_rate": 4.3359375e-05, |
|
"loss": 0.1411, |
|
"step": 510 |
|
}, |
|
{ |
|
"epoch": 5.416666666666667, |
|
"grad_norm": 29.348360061645508, |
|
"learning_rate": 4.322916666666667e-05, |
|
"loss": 0.1221, |
|
"step": 520 |
|
}, |
|
{ |
|
"epoch": 5.520833333333333, |
|
"grad_norm": 26.104904174804688, |
|
"learning_rate": 4.309895833333334e-05, |
|
"loss": 0.1141, |
|
"step": 530 |
|
}, |
|
{ |
|
"epoch": 5.625, |
|
"grad_norm": 28.75691032409668, |
|
"learning_rate": 4.2968750000000004e-05, |
|
"loss": 0.1261, |
|
"step": 540 |
|
}, |
|
{ |
|
"epoch": 5.729166666666667, |
|
"grad_norm": 23.914997100830078, |
|
"learning_rate": 4.283854166666667e-05, |
|
"loss": 0.1014, |
|
"step": 550 |
|
}, |
|
{ |
|
"epoch": 5.833333333333333, |
|
"grad_norm": 22.971803665161133, |
|
"learning_rate": 4.270833333333333e-05, |
|
"loss": 0.1062, |
|
"step": 560 |
|
}, |
|
{ |
|
"epoch": 5.9375, |
|
"grad_norm": 18.7663631439209, |
|
"learning_rate": 4.2578125e-05, |
|
"loss": 0.0923, |
|
"step": 570 |
|
}, |
|
{ |
|
"epoch": 6.0, |
|
"eval_accuracy": 0.5, |
|
"eval_loss": 9.0530366897583, |
|
"eval_runtime": 5.338, |
|
"eval_samples_per_second": 103.034, |
|
"eval_steps_per_second": 6.557, |
|
"step": 576 |
|
}, |
|
{ |
|
"epoch": 6.041666666666667, |
|
"grad_norm": 19.22948455810547, |
|
"learning_rate": 4.244791666666667e-05, |
|
"loss": 0.0913, |
|
"step": 580 |
|
}, |
|
{ |
|
"epoch": 6.145833333333333, |
|
"grad_norm": 29.69597053527832, |
|
"learning_rate": 4.2317708333333335e-05, |
|
"loss": 0.1093, |
|
"step": 590 |
|
}, |
|
{ |
|
"epoch": 6.25, |
|
"grad_norm": 11.631077766418457, |
|
"learning_rate": 4.21875e-05, |
|
"loss": 0.1111, |
|
"step": 600 |
|
}, |
|
{ |
|
"epoch": 6.354166666666667, |
|
"grad_norm": 42.53981399536133, |
|
"learning_rate": 4.205729166666667e-05, |
|
"loss": 0.1012, |
|
"step": 610 |
|
}, |
|
{ |
|
"epoch": 6.458333333333333, |
|
"grad_norm": 39.39896774291992, |
|
"learning_rate": 4.192708333333333e-05, |
|
"loss": 0.1194, |
|
"step": 620 |
|
}, |
|
{ |
|
"epoch": 6.5625, |
|
"grad_norm": 33.39352035522461, |
|
"learning_rate": 4.1796875000000005e-05, |
|
"loss": 0.1544, |
|
"step": 630 |
|
}, |
|
{ |
|
"epoch": 6.666666666666667, |
|
"grad_norm": 31.19091796875, |
|
"learning_rate": 4.166666666666667e-05, |
|
"loss": 0.1152, |
|
"step": 640 |
|
}, |
|
{ |
|
"epoch": 6.770833333333333, |
|
"grad_norm": 30.12346076965332, |
|
"learning_rate": 4.153645833333333e-05, |
|
"loss": 0.0876, |
|
"step": 650 |
|
}, |
|
{ |
|
"epoch": 6.875, |
|
"grad_norm": 18.15308952331543, |
|
"learning_rate": 4.140625e-05, |
|
"loss": 0.1204, |
|
"step": 660 |
|
}, |
|
{ |
|
"epoch": 6.979166666666667, |
|
"grad_norm": 27.95501136779785, |
|
"learning_rate": 4.127604166666667e-05, |
|
"loss": 0.1089, |
|
"step": 670 |
|
}, |
|
{ |
|
"epoch": 7.0, |
|
"eval_accuracy": 0.49272727272727274, |
|
"eval_loss": 11.67651653289795, |
|
"eval_runtime": 5.7886, |
|
"eval_samples_per_second": 95.014, |
|
"eval_steps_per_second": 6.046, |
|
"step": 672 |
|
}, |
|
{ |
|
"epoch": 7.083333333333333, |
|
"grad_norm": 46.727420806884766, |
|
"learning_rate": 4.1145833333333335e-05, |
|
"loss": 0.0998, |
|
"step": 680 |
|
}, |
|
{ |
|
"epoch": 7.1875, |
|
"grad_norm": 28.814111709594727, |
|
"learning_rate": 4.1015625e-05, |
|
"loss": 0.1318, |
|
"step": 690 |
|
}, |
|
{ |
|
"epoch": 7.291666666666667, |
|
"grad_norm": 18.481224060058594, |
|
"learning_rate": 4.088541666666667e-05, |
|
"loss": 0.1591, |
|
"step": 700 |
|
}, |
|
{ |
|
"epoch": 7.395833333333333, |
|
"grad_norm": 12.8699951171875, |
|
"learning_rate": 4.075520833333333e-05, |
|
"loss": 0.0791, |
|
"step": 710 |
|
}, |
|
{ |
|
"epoch": 7.5, |
|
"grad_norm": 21.009239196777344, |
|
"learning_rate": 4.0625000000000005e-05, |
|
"loss": 0.1131, |
|
"step": 720 |
|
}, |
|
{ |
|
"epoch": 7.604166666666667, |
|
"grad_norm": 19.821640014648438, |
|
"learning_rate": 4.049479166666667e-05, |
|
"loss": 0.1074, |
|
"step": 730 |
|
}, |
|
{ |
|
"epoch": 7.708333333333333, |
|
"grad_norm": 13.079972267150879, |
|
"learning_rate": 4.036458333333333e-05, |
|
"loss": 0.0768, |
|
"step": 740 |
|
}, |
|
{ |
|
"epoch": 7.8125, |
|
"grad_norm": 26.40730857849121, |
|
"learning_rate": 4.0234375e-05, |
|
"loss": 0.1189, |
|
"step": 750 |
|
}, |
|
{ |
|
"epoch": 7.916666666666667, |
|
"grad_norm": 38.257259368896484, |
|
"learning_rate": 4.010416666666667e-05, |
|
"loss": 0.0959, |
|
"step": 760 |
|
}, |
|
{ |
|
"epoch": 8.0, |
|
"eval_accuracy": 0.49818181818181817, |
|
"eval_loss": 11.513229370117188, |
|
"eval_runtime": 5.8307, |
|
"eval_samples_per_second": 94.329, |
|
"eval_steps_per_second": 6.003, |
|
"step": 768 |
|
}, |
|
{ |
|
"epoch": 8.020833333333334, |
|
"grad_norm": 21.100879669189453, |
|
"learning_rate": 3.9973958333333335e-05, |
|
"loss": 0.1113, |
|
"step": 770 |
|
}, |
|
{ |
|
"epoch": 8.125, |
|
"grad_norm": 8.097026824951172, |
|
"learning_rate": 3.984375e-05, |
|
"loss": 0.0972, |
|
"step": 780 |
|
}, |
|
{ |
|
"epoch": 8.229166666666666, |
|
"grad_norm": 30.355226516723633, |
|
"learning_rate": 3.971354166666667e-05, |
|
"loss": 0.0936, |
|
"step": 790 |
|
}, |
|
{ |
|
"epoch": 8.333333333333334, |
|
"grad_norm": 10.632591247558594, |
|
"learning_rate": 3.958333333333333e-05, |
|
"loss": 0.0874, |
|
"step": 800 |
|
}, |
|
{ |
|
"epoch": 8.4375, |
|
"grad_norm": 18.461145401000977, |
|
"learning_rate": 3.9453125000000005e-05, |
|
"loss": 0.0999, |
|
"step": 810 |
|
}, |
|
{ |
|
"epoch": 8.541666666666666, |
|
"grad_norm": 14.908027648925781, |
|
"learning_rate": 3.932291666666667e-05, |
|
"loss": 0.082, |
|
"step": 820 |
|
}, |
|
{ |
|
"epoch": 8.645833333333334, |
|
"grad_norm": 55.39009094238281, |
|
"learning_rate": 3.919270833333333e-05, |
|
"loss": 0.1039, |
|
"step": 830 |
|
}, |
|
{ |
|
"epoch": 8.75, |
|
"grad_norm": 16.516685485839844, |
|
"learning_rate": 3.90625e-05, |
|
"loss": 0.0962, |
|
"step": 840 |
|
}, |
|
{ |
|
"epoch": 8.854166666666666, |
|
"grad_norm": 15.267253875732422, |
|
"learning_rate": 3.893229166666667e-05, |
|
"loss": 0.102, |
|
"step": 850 |
|
}, |
|
{ |
|
"epoch": 8.958333333333334, |
|
"grad_norm": 19.314268112182617, |
|
"learning_rate": 3.8802083333333336e-05, |
|
"loss": 0.1266, |
|
"step": 860 |
|
}, |
|
{ |
|
"epoch": 9.0, |
|
"eval_accuracy": 0.5036363636363637, |
|
"eval_loss": 10.241958618164062, |
|
"eval_runtime": 5.3604, |
|
"eval_samples_per_second": 102.604, |
|
"eval_steps_per_second": 6.529, |
|
"step": 864 |
|
}, |
|
{ |
|
"epoch": 9.0625, |
|
"grad_norm": 14.391077041625977, |
|
"learning_rate": 3.8671875e-05, |
|
"loss": 0.1163, |
|
"step": 870 |
|
}, |
|
{ |
|
"epoch": 9.166666666666666, |
|
"grad_norm": 22.056367874145508, |
|
"learning_rate": 3.854166666666667e-05, |
|
"loss": 0.0995, |
|
"step": 880 |
|
}, |
|
{ |
|
"epoch": 9.270833333333334, |
|
"grad_norm": 22.975435256958008, |
|
"learning_rate": 3.841145833333333e-05, |
|
"loss": 0.1049, |
|
"step": 890 |
|
}, |
|
{ |
|
"epoch": 9.375, |
|
"grad_norm": 15.946235656738281, |
|
"learning_rate": 3.828125e-05, |
|
"loss": 0.0754, |
|
"step": 900 |
|
}, |
|
{ |
|
"epoch": 9.479166666666666, |
|
"grad_norm": 5.311624050140381, |
|
"learning_rate": 3.815104166666667e-05, |
|
"loss": 0.0952, |
|
"step": 910 |
|
}, |
|
{ |
|
"epoch": 9.583333333333334, |
|
"grad_norm": 122.81232452392578, |
|
"learning_rate": 3.8020833333333334e-05, |
|
"loss": 0.0675, |
|
"step": 920 |
|
}, |
|
{ |
|
"epoch": 9.6875, |
|
"grad_norm": 91.20467376708984, |
|
"learning_rate": 3.7890625e-05, |
|
"loss": 0.1482, |
|
"step": 930 |
|
}, |
|
{ |
|
"epoch": 9.791666666666666, |
|
"grad_norm": 20.524890899658203, |
|
"learning_rate": 3.776041666666667e-05, |
|
"loss": 0.0793, |
|
"step": 940 |
|
}, |
|
{ |
|
"epoch": 9.895833333333334, |
|
"grad_norm": 25.643835067749023, |
|
"learning_rate": 3.7630208333333336e-05, |
|
"loss": 0.1107, |
|
"step": 950 |
|
}, |
|
{ |
|
"epoch": 10.0, |
|
"grad_norm": 45.819244384765625, |
|
"learning_rate": 3.7500000000000003e-05, |
|
"loss": 0.106, |
|
"step": 960 |
|
}, |
|
{ |
|
"epoch": 10.0, |
|
"eval_accuracy": 0.49454545454545457, |
|
"eval_loss": 11.12617301940918, |
|
"eval_runtime": 5.3434, |
|
"eval_samples_per_second": 102.93, |
|
"eval_steps_per_second": 6.55, |
|
"step": 960 |
|
}, |
|
{ |
|
"epoch": 10.104166666666666, |
|
"grad_norm": 17.550018310546875, |
|
"learning_rate": 3.736979166666667e-05, |
|
"loss": 0.1145, |
|
"step": 970 |
|
}, |
|
{ |
|
"epoch": 10.208333333333334, |
|
"grad_norm": 14.89659309387207, |
|
"learning_rate": 3.723958333333333e-05, |
|
"loss": 0.0957, |
|
"step": 980 |
|
}, |
|
{ |
|
"epoch": 10.3125, |
|
"grad_norm": 10.070261001586914, |
|
"learning_rate": 3.7109375e-05, |
|
"loss": 0.072, |
|
"step": 990 |
|
}, |
|
{ |
|
"epoch": 10.416666666666666, |
|
"grad_norm": 9.45882797241211, |
|
"learning_rate": 3.697916666666667e-05, |
|
"loss": 0.0999, |
|
"step": 1000 |
|
}, |
|
{ |
|
"epoch": 10.520833333333334, |
|
"grad_norm": 6.1814188957214355, |
|
"learning_rate": 3.6848958333333334e-05, |
|
"loss": 0.0828, |
|
"step": 1010 |
|
}, |
|
{ |
|
"epoch": 10.625, |
|
"grad_norm": 31.960285186767578, |
|
"learning_rate": 3.671875e-05, |
|
"loss": 0.1169, |
|
"step": 1020 |
|
}, |
|
{ |
|
"epoch": 10.729166666666666, |
|
"grad_norm": 17.69601821899414, |
|
"learning_rate": 3.658854166666667e-05, |
|
"loss": 0.0957, |
|
"step": 1030 |
|
}, |
|
{ |
|
"epoch": 10.833333333333334, |
|
"grad_norm": 3.5759479999542236, |
|
"learning_rate": 3.6458333333333336e-05, |
|
"loss": 0.0745, |
|
"step": 1040 |
|
}, |
|
{ |
|
"epoch": 10.9375, |
|
"grad_norm": 13.734454154968262, |
|
"learning_rate": 3.6328125000000004e-05, |
|
"loss": 0.0831, |
|
"step": 1050 |
|
}, |
|
{ |
|
"epoch": 11.0, |
|
"eval_accuracy": 0.49636363636363634, |
|
"eval_loss": 11.581514358520508, |
|
"eval_runtime": 5.8538, |
|
"eval_samples_per_second": 93.957, |
|
"eval_steps_per_second": 5.979, |
|
"step": 1056 |
|
}, |
|
{ |
|
"epoch": 11.041666666666666, |
|
"grad_norm": 23.551876068115234, |
|
"learning_rate": 3.619791666666667e-05, |
|
"loss": 0.0981, |
|
"step": 1060 |
|
}, |
|
{ |
|
"epoch": 11.145833333333334, |
|
"grad_norm": 28.23809242248535, |
|
"learning_rate": 3.606770833333333e-05, |
|
"loss": 0.1173, |
|
"step": 1070 |
|
}, |
|
{ |
|
"epoch": 11.25, |
|
"grad_norm": 10.377116203308105, |
|
"learning_rate": 3.59375e-05, |
|
"loss": 0.0879, |
|
"step": 1080 |
|
}, |
|
{ |
|
"epoch": 11.354166666666666, |
|
"grad_norm": 8.134793281555176, |
|
"learning_rate": 3.580729166666667e-05, |
|
"loss": 0.0937, |
|
"step": 1090 |
|
}, |
|
{ |
|
"epoch": 11.458333333333334, |
|
"grad_norm": 23.50714874267578, |
|
"learning_rate": 3.5677083333333334e-05, |
|
"loss": 0.0952, |
|
"step": 1100 |
|
}, |
|
{ |
|
"epoch": 11.5625, |
|
"grad_norm": 33.653282165527344, |
|
"learning_rate": 3.5546875e-05, |
|
"loss": 0.0761, |
|
"step": 1110 |
|
}, |
|
{ |
|
"epoch": 11.666666666666666, |
|
"grad_norm": 13.655372619628906, |
|
"learning_rate": 3.541666666666667e-05, |
|
"loss": 0.0992, |
|
"step": 1120 |
|
}, |
|
{ |
|
"epoch": 11.770833333333334, |
|
"grad_norm": 15.17817497253418, |
|
"learning_rate": 3.528645833333333e-05, |
|
"loss": 0.0529, |
|
"step": 1130 |
|
}, |
|
{ |
|
"epoch": 11.875, |
|
"grad_norm": 17.073406219482422, |
|
"learning_rate": 3.5156250000000004e-05, |
|
"loss": 0.0813, |
|
"step": 1140 |
|
}, |
|
{ |
|
"epoch": 11.979166666666666, |
|
"grad_norm": 25.856266021728516, |
|
"learning_rate": 3.502604166666667e-05, |
|
"loss": 0.0819, |
|
"step": 1150 |
|
}, |
|
{ |
|
"epoch": 12.0, |
|
"eval_accuracy": 0.49636363636363634, |
|
"eval_loss": 11.639369010925293, |
|
"eval_runtime": 5.8389, |
|
"eval_samples_per_second": 94.195, |
|
"eval_steps_per_second": 5.994, |
|
"step": 1152 |
|
}, |
|
{ |
|
"epoch": 12.083333333333334, |
|
"grad_norm": 12.686436653137207, |
|
"learning_rate": 3.489583333333333e-05, |
|
"loss": 0.0679, |
|
"step": 1160 |
|
}, |
|
{ |
|
"epoch": 12.1875, |
|
"grad_norm": 19.336843490600586, |
|
"learning_rate": 3.4765625e-05, |
|
"loss": 0.0805, |
|
"step": 1170 |
|
}, |
|
{ |
|
"epoch": 12.291666666666666, |
|
"grad_norm": 13.991415023803711, |
|
"learning_rate": 3.463541666666667e-05, |
|
"loss": 0.1033, |
|
"step": 1180 |
|
}, |
|
{ |
|
"epoch": 12.395833333333334, |
|
"grad_norm": 10.30485725402832, |
|
"learning_rate": 3.4505208333333335e-05, |
|
"loss": 0.0606, |
|
"step": 1190 |
|
}, |
|
{ |
|
"epoch": 12.5, |
|
"grad_norm": 5.9380106925964355, |
|
"learning_rate": 3.4375e-05, |
|
"loss": 0.0684, |
|
"step": 1200 |
|
}, |
|
{ |
|
"epoch": 12.604166666666666, |
|
"grad_norm": 21.952253341674805, |
|
"learning_rate": 3.424479166666667e-05, |
|
"loss": 0.0862, |
|
"step": 1210 |
|
}, |
|
{ |
|
"epoch": 12.708333333333334, |
|
"grad_norm": 9.679445266723633, |
|
"learning_rate": 3.411458333333333e-05, |
|
"loss": 0.0909, |
|
"step": 1220 |
|
}, |
|
{ |
|
"epoch": 12.8125, |
|
"grad_norm": 12.85024356842041, |
|
"learning_rate": 3.3984375000000004e-05, |
|
"loss": 0.0754, |
|
"step": 1230 |
|
}, |
|
{ |
|
"epoch": 12.916666666666666, |
|
"grad_norm": 15.181358337402344, |
|
"learning_rate": 3.385416666666667e-05, |
|
"loss": 0.0862, |
|
"step": 1240 |
|
}, |
|
{ |
|
"epoch": 13.0, |
|
"eval_accuracy": 0.49818181818181817, |
|
"eval_loss": 10.966017723083496, |
|
"eval_runtime": 5.3934, |
|
"eval_samples_per_second": 101.976, |
|
"eval_steps_per_second": 6.489, |
|
"step": 1248 |
|
}, |
|
{ |
|
"epoch": 13.020833333333334, |
|
"grad_norm": 24.69455909729004, |
|
"learning_rate": 3.372395833333333e-05, |
|
"loss": 0.0815, |
|
"step": 1250 |
|
}, |
|
{ |
|
"epoch": 13.125, |
|
"grad_norm": 12.937954902648926, |
|
"learning_rate": 3.359375e-05, |
|
"loss": 0.0667, |
|
"step": 1260 |
|
}, |
|
{ |
|
"epoch": 13.229166666666666, |
|
"grad_norm": 25.513118743896484, |
|
"learning_rate": 3.346354166666667e-05, |
|
"loss": 0.0559, |
|
"step": 1270 |
|
}, |
|
{ |
|
"epoch": 13.333333333333334, |
|
"grad_norm": 2.451594829559326, |
|
"learning_rate": 3.3333333333333335e-05, |
|
"loss": 0.0892, |
|
"step": 1280 |
|
}, |
|
{ |
|
"epoch": 13.4375, |
|
"grad_norm": 21.434192657470703, |
|
"learning_rate": 3.3203125e-05, |
|
"loss": 0.0627, |
|
"step": 1290 |
|
}, |
|
{ |
|
"epoch": 13.541666666666666, |
|
"grad_norm": 31.71984100341797, |
|
"learning_rate": 3.307291666666667e-05, |
|
"loss": 0.0752, |
|
"step": 1300 |
|
}, |
|
{ |
|
"epoch": 13.645833333333334, |
|
"grad_norm": 21.392322540283203, |
|
"learning_rate": 3.294270833333333e-05, |
|
"loss": 0.0814, |
|
"step": 1310 |
|
}, |
|
{ |
|
"epoch": 13.75, |
|
"grad_norm": 19.688873291015625, |
|
"learning_rate": 3.2812500000000005e-05, |
|
"loss": 0.066, |
|
"step": 1320 |
|
}, |
|
{ |
|
"epoch": 13.854166666666666, |
|
"grad_norm": 14.277388572692871, |
|
"learning_rate": 3.268229166666667e-05, |
|
"loss": 0.0907, |
|
"step": 1330 |
|
}, |
|
{ |
|
"epoch": 13.958333333333334, |
|
"grad_norm": 23.38642120361328, |
|
"learning_rate": 3.255208333333333e-05, |
|
"loss": 0.0754, |
|
"step": 1340 |
|
}, |
|
{ |
|
"epoch": 14.0, |
|
"eval_accuracy": 0.49818181818181817, |
|
"eval_loss": 9.546319007873535, |
|
"eval_runtime": 5.3979, |
|
"eval_samples_per_second": 101.892, |
|
"eval_steps_per_second": 6.484, |
|
"step": 1344 |
|
}, |
|
{ |
|
"epoch": 14.0625, |
|
"grad_norm": 14.905341148376465, |
|
"learning_rate": 3.2421875e-05, |
|
"loss": 0.0828, |
|
"step": 1350 |
|
}, |
|
{ |
|
"epoch": 14.166666666666666, |
|
"grad_norm": 43.4570198059082, |
|
"learning_rate": 3.229166666666667e-05, |
|
"loss": 0.0573, |
|
"step": 1360 |
|
}, |
|
{ |
|
"epoch": 14.270833333333334, |
|
"grad_norm": 25.728307723999023, |
|
"learning_rate": 3.2161458333333335e-05, |
|
"loss": 0.0674, |
|
"step": 1370 |
|
}, |
|
{ |
|
"epoch": 14.375, |
|
"grad_norm": 10.14488697052002, |
|
"learning_rate": 3.203125e-05, |
|
"loss": 0.0874, |
|
"step": 1380 |
|
}, |
|
{ |
|
"epoch": 14.479166666666666, |
|
"grad_norm": 6.519920825958252, |
|
"learning_rate": 3.190104166666667e-05, |
|
"loss": 0.0461, |
|
"step": 1390 |
|
}, |
|
{ |
|
"epoch": 14.583333333333334, |
|
"grad_norm": 43.207584381103516, |
|
"learning_rate": 3.177083333333333e-05, |
|
"loss": 0.1044, |
|
"step": 1400 |
|
}, |
|
{ |
|
"epoch": 14.6875, |
|
"grad_norm": 7.188746452331543, |
|
"learning_rate": 3.1640625e-05, |
|
"loss": 0.0287, |
|
"step": 1410 |
|
}, |
|
{ |
|
"epoch": 14.791666666666666, |
|
"grad_norm": 1.6381746530532837, |
|
"learning_rate": 3.151041666666667e-05, |
|
"loss": 0.0831, |
|
"step": 1420 |
|
}, |
|
{ |
|
"epoch": 14.895833333333334, |
|
"grad_norm": 45.054931640625, |
|
"learning_rate": 3.138020833333333e-05, |
|
"loss": 0.0733, |
|
"step": 1430 |
|
}, |
|
{ |
|
"epoch": 15.0, |
|
"grad_norm": 16.6806583404541, |
|
"learning_rate": 3.125e-05, |
|
"loss": 0.06, |
|
"step": 1440 |
|
}, |
|
{ |
|
"epoch": 15.0, |
|
"eval_accuracy": 0.49636363636363634, |
|
"eval_loss": 10.267786026000977, |
|
"eval_runtime": 5.8109, |
|
"eval_samples_per_second": 94.65, |
|
"eval_steps_per_second": 6.023, |
|
"step": 1440 |
|
}, |
|
{ |
|
"epoch": 15.104166666666666, |
|
"grad_norm": 29.4246883392334, |
|
"learning_rate": 3.111979166666667e-05, |
|
"loss": 0.0761, |
|
"step": 1450 |
|
}, |
|
{ |
|
"epoch": 15.208333333333334, |
|
"grad_norm": 15.447731018066406, |
|
"learning_rate": 3.0989583333333336e-05, |
|
"loss": 0.1014, |
|
"step": 1460 |
|
}, |
|
{ |
|
"epoch": 15.3125, |
|
"grad_norm": 34.43509292602539, |
|
"learning_rate": 3.0859375e-05, |
|
"loss": 0.0942, |
|
"step": 1470 |
|
}, |
|
{ |
|
"epoch": 15.416666666666666, |
|
"grad_norm": 7.253175258636475, |
|
"learning_rate": 3.072916666666667e-05, |
|
"loss": 0.0741, |
|
"step": 1480 |
|
}, |
|
{ |
|
"epoch": 15.520833333333334, |
|
"grad_norm": 16.409160614013672, |
|
"learning_rate": 3.059895833333333e-05, |
|
"loss": 0.0749, |
|
"step": 1490 |
|
}, |
|
{ |
|
"epoch": 15.625, |
|
"grad_norm": 21.416982650756836, |
|
"learning_rate": 3.0468750000000002e-05, |
|
"loss": 0.0409, |
|
"step": 1500 |
|
}, |
|
{ |
|
"epoch": 15.729166666666666, |
|
"grad_norm": 22.96625518798828, |
|
"learning_rate": 3.033854166666667e-05, |
|
"loss": 0.0639, |
|
"step": 1510 |
|
}, |
|
{ |
|
"epoch": 15.833333333333334, |
|
"grad_norm": 17.667743682861328, |
|
"learning_rate": 3.0208333333333334e-05, |
|
"loss": 0.0953, |
|
"step": 1520 |
|
}, |
|
{ |
|
"epoch": 15.9375, |
|
"grad_norm": 20.263381958007812, |
|
"learning_rate": 3.0078125e-05, |
|
"loss": 0.0828, |
|
"step": 1530 |
|
}, |
|
{ |
|
"epoch": 16.0, |
|
"eval_accuracy": 0.49272727272727274, |
|
"eval_loss": 11.497347831726074, |
|
"eval_runtime": 5.7785, |
|
"eval_samples_per_second": 95.18, |
|
"eval_steps_per_second": 6.057, |
|
"step": 1536 |
|
}, |
|
{ |
|
"epoch": 16.041666666666668, |
|
"grad_norm": 45.00513458251953, |
|
"learning_rate": 2.994791666666667e-05, |
|
"loss": 0.0737, |
|
"step": 1540 |
|
}, |
|
{ |
|
"epoch": 16.145833333333332, |
|
"grad_norm": 8.412075996398926, |
|
"learning_rate": 2.9817708333333332e-05, |
|
"loss": 0.0555, |
|
"step": 1550 |
|
}, |
|
{ |
|
"epoch": 16.25, |
|
"grad_norm": 31.555465698242188, |
|
"learning_rate": 2.96875e-05, |
|
"loss": 0.0691, |
|
"step": 1560 |
|
}, |
|
{ |
|
"epoch": 16.354166666666668, |
|
"grad_norm": 10.346450805664062, |
|
"learning_rate": 2.955729166666667e-05, |
|
"loss": 0.0619, |
|
"step": 1570 |
|
}, |
|
{ |
|
"epoch": 16.458333333333332, |
|
"grad_norm": 9.351675033569336, |
|
"learning_rate": 2.942708333333333e-05, |
|
"loss": 0.0756, |
|
"step": 1580 |
|
}, |
|
{ |
|
"epoch": 16.5625, |
|
"grad_norm": 49.14165496826172, |
|
"learning_rate": 2.9296875000000002e-05, |
|
"loss": 0.0654, |
|
"step": 1590 |
|
}, |
|
{ |
|
"epoch": 16.666666666666668, |
|
"grad_norm": 28.21025276184082, |
|
"learning_rate": 2.916666666666667e-05, |
|
"loss": 0.0761, |
|
"step": 1600 |
|
}, |
|
{ |
|
"epoch": 16.770833333333332, |
|
"grad_norm": 9.834317207336426, |
|
"learning_rate": 2.9036458333333334e-05, |
|
"loss": 0.0586, |
|
"step": 1610 |
|
}, |
|
{ |
|
"epoch": 16.875, |
|
"grad_norm": 16.89076805114746, |
|
"learning_rate": 2.890625e-05, |
|
"loss": 0.0703, |
|
"step": 1620 |
|
}, |
|
{ |
|
"epoch": 16.979166666666668, |
|
"grad_norm": 57.368709564208984, |
|
"learning_rate": 2.877604166666667e-05, |
|
"loss": 0.0675, |
|
"step": 1630 |
|
}, |
|
{ |
|
"epoch": 17.0, |
|
"eval_accuracy": 0.49636363636363634, |
|
"eval_loss": 10.5018892288208, |
|
"eval_runtime": 5.3515, |
|
"eval_samples_per_second": 102.774, |
|
"eval_steps_per_second": 6.54, |
|
"step": 1632 |
|
}, |
|
{ |
|
"epoch": 17.083333333333332, |
|
"grad_norm": 14.471724510192871, |
|
"learning_rate": 2.8645833333333333e-05, |
|
"loss": 0.0813, |
|
"step": 1640 |
|
}, |
|
{ |
|
"epoch": 17.1875, |
|
"grad_norm": 10.066666603088379, |
|
"learning_rate": 2.8515625e-05, |
|
"loss": 0.0936, |
|
"step": 1650 |
|
}, |
|
{ |
|
"epoch": 17.291666666666668, |
|
"grad_norm": 20.775678634643555, |
|
"learning_rate": 2.838541666666667e-05, |
|
"loss": 0.0464, |
|
"step": 1660 |
|
}, |
|
{ |
|
"epoch": 17.395833333333332, |
|
"grad_norm": 27.076717376708984, |
|
"learning_rate": 2.8255208333333332e-05, |
|
"loss": 0.0891, |
|
"step": 1670 |
|
}, |
|
{ |
|
"epoch": 17.5, |
|
"grad_norm": 18.361055374145508, |
|
"learning_rate": 2.8125000000000003e-05, |
|
"loss": 0.0984, |
|
"step": 1680 |
|
}, |
|
{ |
|
"epoch": 17.604166666666668, |
|
"grad_norm": 11.88374137878418, |
|
"learning_rate": 2.799479166666667e-05, |
|
"loss": 0.0611, |
|
"step": 1690 |
|
}, |
|
{ |
|
"epoch": 17.708333333333332, |
|
"grad_norm": 29.620580673217773, |
|
"learning_rate": 2.7864583333333334e-05, |
|
"loss": 0.0631, |
|
"step": 1700 |
|
}, |
|
{ |
|
"epoch": 17.8125, |
|
"grad_norm": 16.594966888427734, |
|
"learning_rate": 2.7734375e-05, |
|
"loss": 0.0488, |
|
"step": 1710 |
|
}, |
|
{ |
|
"epoch": 17.916666666666668, |
|
"grad_norm": 48.01244354248047, |
|
"learning_rate": 2.760416666666667e-05, |
|
"loss": 0.0687, |
|
"step": 1720 |
|
}, |
|
{ |
|
"epoch": 18.0, |
|
"eval_accuracy": 0.49818181818181817, |
|
"eval_loss": 10.648305892944336, |
|
"eval_runtime": 5.5241, |
|
"eval_samples_per_second": 99.564, |
|
"eval_steps_per_second": 6.336, |
|
"step": 1728 |
|
}, |
|
{ |
|
"epoch": 18.020833333333332, |
|
"grad_norm": 12.527865409851074, |
|
"learning_rate": 2.7473958333333333e-05, |
|
"loss": 0.0408, |
|
"step": 1730 |
|
}, |
|
{ |
|
"epoch": 18.125, |
|
"grad_norm": 25.521921157836914, |
|
"learning_rate": 2.734375e-05, |
|
"loss": 0.0764, |
|
"step": 1740 |
|
}, |
|
{ |
|
"epoch": 18.229166666666668, |
|
"grad_norm": 12.79417896270752, |
|
"learning_rate": 2.721354166666667e-05, |
|
"loss": 0.0704, |
|
"step": 1750 |
|
}, |
|
{ |
|
"epoch": 18.333333333333332, |
|
"grad_norm": 1.994150161743164, |
|
"learning_rate": 2.7083333333333332e-05, |
|
"loss": 0.0451, |
|
"step": 1760 |
|
}, |
|
{ |
|
"epoch": 18.4375, |
|
"grad_norm": 16.780994415283203, |
|
"learning_rate": 2.6953125000000003e-05, |
|
"loss": 0.0568, |
|
"step": 1770 |
|
}, |
|
{ |
|
"epoch": 18.541666666666668, |
|
"grad_norm": 31.4406795501709, |
|
"learning_rate": 2.682291666666667e-05, |
|
"loss": 0.1287, |
|
"step": 1780 |
|
}, |
|
{ |
|
"epoch": 18.645833333333332, |
|
"grad_norm": 12.47148323059082, |
|
"learning_rate": 2.6692708333333334e-05, |
|
"loss": 0.0812, |
|
"step": 1790 |
|
}, |
|
{ |
|
"epoch": 18.75, |
|
"grad_norm": 46.031986236572266, |
|
"learning_rate": 2.6562500000000002e-05, |
|
"loss": 0.0854, |
|
"step": 1800 |
|
}, |
|
{ |
|
"epoch": 18.854166666666668, |
|
"grad_norm": 13.505058288574219, |
|
"learning_rate": 2.643229166666667e-05, |
|
"loss": 0.0662, |
|
"step": 1810 |
|
}, |
|
{ |
|
"epoch": 18.958333333333332, |
|
"grad_norm": 9.58767318725586, |
|
"learning_rate": 2.6302083333333333e-05, |
|
"loss": 0.0548, |
|
"step": 1820 |
|
}, |
|
{ |
|
"epoch": 19.0, |
|
"eval_accuracy": 0.49636363636363634, |
|
"eval_loss": 11.216567993164062, |
|
"eval_runtime": 5.9463, |
|
"eval_samples_per_second": 92.494, |
|
"eval_steps_per_second": 5.886, |
|
"step": 1824 |
|
}, |
|
{ |
|
"epoch": 19.0625, |
|
"grad_norm": 19.555084228515625, |
|
"learning_rate": 2.6171875e-05, |
|
"loss": 0.0837, |
|
"step": 1830 |
|
}, |
|
{ |
|
"epoch": 19.166666666666668, |
|
"grad_norm": 18.929706573486328, |
|
"learning_rate": 2.604166666666667e-05, |
|
"loss": 0.0819, |
|
"step": 1840 |
|
}, |
|
{ |
|
"epoch": 19.270833333333332, |
|
"grad_norm": 14.825089454650879, |
|
"learning_rate": 2.5911458333333332e-05, |
|
"loss": 0.0859, |
|
"step": 1850 |
|
}, |
|
{ |
|
"epoch": 19.375, |
|
"grad_norm": 39.419925689697266, |
|
"learning_rate": 2.578125e-05, |
|
"loss": 0.066, |
|
"step": 1860 |
|
}, |
|
{ |
|
"epoch": 19.479166666666668, |
|
"grad_norm": 23.507537841796875, |
|
"learning_rate": 2.565104166666667e-05, |
|
"loss": 0.0636, |
|
"step": 1870 |
|
}, |
|
{ |
|
"epoch": 19.583333333333332, |
|
"grad_norm": 17.29023551940918, |
|
"learning_rate": 2.552083333333333e-05, |
|
"loss": 0.0605, |
|
"step": 1880 |
|
}, |
|
{ |
|
"epoch": 19.6875, |
|
"grad_norm": 22.190380096435547, |
|
"learning_rate": 2.5390625000000002e-05, |
|
"loss": 0.041, |
|
"step": 1890 |
|
}, |
|
{ |
|
"epoch": 19.791666666666668, |
|
"grad_norm": 25.38574981689453, |
|
"learning_rate": 2.526041666666667e-05, |
|
"loss": 0.0808, |
|
"step": 1900 |
|
}, |
|
{ |
|
"epoch": 19.895833333333332, |
|
"grad_norm": 6.129140377044678, |
|
"learning_rate": 2.5130208333333334e-05, |
|
"loss": 0.0644, |
|
"step": 1910 |
|
}, |
|
{ |
|
"epoch": 20.0, |
|
"grad_norm": 91.47066497802734, |
|
"learning_rate": 2.5e-05, |
|
"loss": 0.0658, |
|
"step": 1920 |
|
}, |
|
{ |
|
"epoch": 20.0, |
|
"eval_accuracy": 0.49454545454545457, |
|
"eval_loss": 11.545882225036621, |
|
"eval_runtime": 5.4403, |
|
"eval_samples_per_second": 101.098, |
|
"eval_steps_per_second": 6.434, |
|
"step": 1920 |
|
}, |
|
{ |
|
"epoch": 20.104166666666668, |
|
"grad_norm": 41.26148223876953, |
|
"learning_rate": 2.4869791666666665e-05, |
|
"loss": 0.0857, |
|
"step": 1930 |
|
}, |
|
{ |
|
"epoch": 20.208333333333332, |
|
"grad_norm": 13.598714828491211, |
|
"learning_rate": 2.4739583333333336e-05, |
|
"loss": 0.0665, |
|
"step": 1940 |
|
}, |
|
{ |
|
"epoch": 20.3125, |
|
"grad_norm": 18.559791564941406, |
|
"learning_rate": 2.4609375e-05, |
|
"loss": 0.0727, |
|
"step": 1950 |
|
}, |
|
{ |
|
"epoch": 20.416666666666668, |
|
"grad_norm": 17.364500045776367, |
|
"learning_rate": 2.4479166666666668e-05, |
|
"loss": 0.0367, |
|
"step": 1960 |
|
}, |
|
{ |
|
"epoch": 20.520833333333332, |
|
"grad_norm": 11.16362190246582, |
|
"learning_rate": 2.4348958333333335e-05, |
|
"loss": 0.0624, |
|
"step": 1970 |
|
}, |
|
{ |
|
"epoch": 20.625, |
|
"grad_norm": 11.971466064453125, |
|
"learning_rate": 2.4218750000000003e-05, |
|
"loss": 0.0494, |
|
"step": 1980 |
|
}, |
|
{ |
|
"epoch": 20.729166666666668, |
|
"grad_norm": 26.046340942382812, |
|
"learning_rate": 2.4088541666666667e-05, |
|
"loss": 0.0733, |
|
"step": 1990 |
|
}, |
|
{ |
|
"epoch": 20.833333333333332, |
|
"grad_norm": 21.085189819335938, |
|
"learning_rate": 2.3958333333333334e-05, |
|
"loss": 0.0799, |
|
"step": 2000 |
|
}, |
|
{ |
|
"epoch": 20.9375, |
|
"grad_norm": 33.888492584228516, |
|
"learning_rate": 2.3828125e-05, |
|
"loss": 0.0565, |
|
"step": 2010 |
|
}, |
|
{ |
|
"epoch": 21.0, |
|
"eval_accuracy": 0.49454545454545457, |
|
"eval_loss": 11.589858055114746, |
|
"eval_runtime": 5.3827, |
|
"eval_samples_per_second": 102.179, |
|
"eval_steps_per_second": 6.502, |
|
"step": 2016 |
|
}, |
|
{ |
|
"epoch": 21.041666666666668, |
|
"grad_norm": 36.55340576171875, |
|
"learning_rate": 2.3697916666666666e-05, |
|
"loss": 0.0649, |
|
"step": 2020 |
|
}, |
|
{ |
|
"epoch": 21.145833333333332, |
|
"grad_norm": 5.335175514221191, |
|
"learning_rate": 2.3567708333333336e-05, |
|
"loss": 0.0517, |
|
"step": 2030 |
|
}, |
|
{ |
|
"epoch": 21.25, |
|
"grad_norm": 27.188432693481445, |
|
"learning_rate": 2.34375e-05, |
|
"loss": 0.0675, |
|
"step": 2040 |
|
}, |
|
{ |
|
"epoch": 21.354166666666668, |
|
"grad_norm": 22.65137481689453, |
|
"learning_rate": 2.3307291666666668e-05, |
|
"loss": 0.0572, |
|
"step": 2050 |
|
}, |
|
{ |
|
"epoch": 21.458333333333332, |
|
"grad_norm": 32.7464599609375, |
|
"learning_rate": 2.3177083333333335e-05, |
|
"loss": 0.0675, |
|
"step": 2060 |
|
}, |
|
{ |
|
"epoch": 21.5625, |
|
"grad_norm": 5.15673828125, |
|
"learning_rate": 2.3046875e-05, |
|
"loss": 0.0582, |
|
"step": 2070 |
|
}, |
|
{ |
|
"epoch": 21.666666666666668, |
|
"grad_norm": 27.673851013183594, |
|
"learning_rate": 2.2916666666666667e-05, |
|
"loss": 0.0415, |
|
"step": 2080 |
|
}, |
|
{ |
|
"epoch": 21.770833333333332, |
|
"grad_norm": 31.033462524414062, |
|
"learning_rate": 2.2786458333333334e-05, |
|
"loss": 0.0631, |
|
"step": 2090 |
|
}, |
|
{ |
|
"epoch": 21.875, |
|
"grad_norm": 48.3972053527832, |
|
"learning_rate": 2.2656250000000002e-05, |
|
"loss": 0.0588, |
|
"step": 2100 |
|
}, |
|
{ |
|
"epoch": 21.979166666666668, |
|
"grad_norm": 23.180862426757812, |
|
"learning_rate": 2.2526041666666666e-05, |
|
"loss": 0.0807, |
|
"step": 2110 |
|
}, |
|
{ |
|
"epoch": 22.0, |
|
"eval_accuracy": 0.5, |
|
"eval_loss": 10.706573486328125, |
|
"eval_runtime": 5.3363, |
|
"eval_samples_per_second": 103.068, |
|
"eval_steps_per_second": 6.559, |
|
"step": 2112 |
|
}, |
|
{ |
|
"epoch": 22.083333333333332, |
|
"grad_norm": 34.734291076660156, |
|
"learning_rate": 2.2395833333333337e-05, |
|
"loss": 0.0411, |
|
"step": 2120 |
|
}, |
|
{ |
|
"epoch": 22.1875, |
|
"grad_norm": 8.795220375061035, |
|
"learning_rate": 2.2265625e-05, |
|
"loss": 0.0655, |
|
"step": 2130 |
|
}, |
|
{ |
|
"epoch": 22.291666666666668, |
|
"grad_norm": 11.85872745513916, |
|
"learning_rate": 2.2135416666666668e-05, |
|
"loss": 0.0563, |
|
"step": 2140 |
|
}, |
|
{ |
|
"epoch": 22.395833333333332, |
|
"grad_norm": 17.562429428100586, |
|
"learning_rate": 2.2005208333333336e-05, |
|
"loss": 0.064, |
|
"step": 2150 |
|
}, |
|
{ |
|
"epoch": 22.5, |
|
"grad_norm": 19.056909561157227, |
|
"learning_rate": 2.1875e-05, |
|
"loss": 0.0707, |
|
"step": 2160 |
|
}, |
|
{ |
|
"epoch": 22.604166666666668, |
|
"grad_norm": 20.823223114013672, |
|
"learning_rate": 2.1744791666666667e-05, |
|
"loss": 0.0671, |
|
"step": 2170 |
|
}, |
|
{ |
|
"epoch": 22.708333333333332, |
|
"grad_norm": 5.610525131225586, |
|
"learning_rate": 2.1614583333333335e-05, |
|
"loss": 0.0617, |
|
"step": 2180 |
|
}, |
|
{ |
|
"epoch": 22.8125, |
|
"grad_norm": 9.894072532653809, |
|
"learning_rate": 2.1484375000000002e-05, |
|
"loss": 0.0705, |
|
"step": 2190 |
|
}, |
|
{ |
|
"epoch": 22.916666666666668, |
|
"grad_norm": 13.627318382263184, |
|
"learning_rate": 2.1354166666666666e-05, |
|
"loss": 0.0289, |
|
"step": 2200 |
|
}, |
|
{ |
|
"epoch": 23.0, |
|
"eval_accuracy": 0.49818181818181817, |
|
"eval_loss": 10.625250816345215, |
|
"eval_runtime": 5.8609, |
|
"eval_samples_per_second": 93.843, |
|
"eval_steps_per_second": 5.972, |
|
"step": 2208 |
|
}, |
|
{ |
|
"epoch": 23.020833333333332, |
|
"grad_norm": 1.5941517353057861, |
|
"learning_rate": 2.1223958333333334e-05, |
|
"loss": 0.064, |
|
"step": 2210 |
|
}, |
|
{ |
|
"epoch": 23.125, |
|
"grad_norm": 21.49423599243164, |
|
"learning_rate": 2.109375e-05, |
|
"loss": 0.0234, |
|
"step": 2220 |
|
}, |
|
{ |
|
"epoch": 23.229166666666668, |
|
"grad_norm": 11.075849533081055, |
|
"learning_rate": 2.0963541666666665e-05, |
|
"loss": 0.0655, |
|
"step": 2230 |
|
}, |
|
{ |
|
"epoch": 23.333333333333332, |
|
"grad_norm": 6.21483039855957, |
|
"learning_rate": 2.0833333333333336e-05, |
|
"loss": 0.0714, |
|
"step": 2240 |
|
}, |
|
{ |
|
"epoch": 23.4375, |
|
"grad_norm": 12.942922592163086, |
|
"learning_rate": 2.0703125e-05, |
|
"loss": 0.0569, |
|
"step": 2250 |
|
}, |
|
{ |
|
"epoch": 23.541666666666668, |
|
"grad_norm": 7.4485907554626465, |
|
"learning_rate": 2.0572916666666668e-05, |
|
"loss": 0.0491, |
|
"step": 2260 |
|
}, |
|
{ |
|
"epoch": 23.645833333333332, |
|
"grad_norm": 56.403717041015625, |
|
"learning_rate": 2.0442708333333335e-05, |
|
"loss": 0.0481, |
|
"step": 2270 |
|
}, |
|
{ |
|
"epoch": 23.75, |
|
"grad_norm": 55.23786163330078, |
|
"learning_rate": 2.0312500000000002e-05, |
|
"loss": 0.0656, |
|
"step": 2280 |
|
}, |
|
{ |
|
"epoch": 23.854166666666668, |
|
"grad_norm": 10.369833946228027, |
|
"learning_rate": 2.0182291666666667e-05, |
|
"loss": 0.0577, |
|
"step": 2290 |
|
}, |
|
{ |
|
"epoch": 23.958333333333332, |
|
"grad_norm": 13.128711700439453, |
|
"learning_rate": 2.0052083333333334e-05, |
|
"loss": 0.0755, |
|
"step": 2300 |
|
}, |
|
{ |
|
"epoch": 24.0, |
|
"eval_accuracy": 0.5018181818181818, |
|
"eval_loss": 10.485613822937012, |
|
"eval_runtime": 5.7432, |
|
"eval_samples_per_second": 95.766, |
|
"eval_steps_per_second": 6.094, |
|
"step": 2304 |
|
}, |
|
{ |
|
"epoch": 24.0625, |
|
"grad_norm": 23.282470703125, |
|
"learning_rate": 1.9921875e-05, |
|
"loss": 0.0486, |
|
"step": 2310 |
|
}, |
|
{ |
|
"epoch": 24.166666666666668, |
|
"grad_norm": 16.085485458374023, |
|
"learning_rate": 1.9791666666666665e-05, |
|
"loss": 0.0328, |
|
"step": 2320 |
|
}, |
|
{ |
|
"epoch": 24.270833333333332, |
|
"grad_norm": 8.7246675491333, |
|
"learning_rate": 1.9661458333333336e-05, |
|
"loss": 0.0512, |
|
"step": 2330 |
|
}, |
|
{ |
|
"epoch": 24.375, |
|
"grad_norm": 77.41475677490234, |
|
"learning_rate": 1.953125e-05, |
|
"loss": 0.0634, |
|
"step": 2340 |
|
}, |
|
{ |
|
"epoch": 24.479166666666668, |
|
"grad_norm": 46.152713775634766, |
|
"learning_rate": 1.9401041666666668e-05, |
|
"loss": 0.0643, |
|
"step": 2350 |
|
}, |
|
{ |
|
"epoch": 24.583333333333332, |
|
"grad_norm": 28.998939514160156, |
|
"learning_rate": 1.9270833333333335e-05, |
|
"loss": 0.0546, |
|
"step": 2360 |
|
}, |
|
{ |
|
"epoch": 24.6875, |
|
"grad_norm": 6.109686374664307, |
|
"learning_rate": 1.9140625e-05, |
|
"loss": 0.0496, |
|
"step": 2370 |
|
}, |
|
{ |
|
"epoch": 24.791666666666668, |
|
"grad_norm": 20.26320457458496, |
|
"learning_rate": 1.9010416666666667e-05, |
|
"loss": 0.0464, |
|
"step": 2380 |
|
}, |
|
{ |
|
"epoch": 24.895833333333332, |
|
"grad_norm": 72.42222595214844, |
|
"learning_rate": 1.8880208333333334e-05, |
|
"loss": 0.0806, |
|
"step": 2390 |
|
}, |
|
{ |
|
"epoch": 25.0, |
|
"grad_norm": 3.5703253746032715, |
|
"learning_rate": 1.8750000000000002e-05, |
|
"loss": 0.0483, |
|
"step": 2400 |
|
}, |
|
{ |
|
"epoch": 25.0, |
|
"eval_accuracy": 0.49636363636363634, |
|
"eval_loss": 11.383768081665039, |
|
"eval_runtime": 5.435, |
|
"eval_samples_per_second": 101.197, |
|
"eval_steps_per_second": 6.44, |
|
"step": 2400 |
|
}, |
|
{ |
|
"epoch": 25.104166666666668, |
|
"grad_norm": 15.163749694824219, |
|
"learning_rate": 1.8619791666666666e-05, |
|
"loss": 0.0393, |
|
"step": 2410 |
|
}, |
|
{ |
|
"epoch": 25.208333333333332, |
|
"grad_norm": 25.283937454223633, |
|
"learning_rate": 1.8489583333333337e-05, |
|
"loss": 0.0541, |
|
"step": 2420 |
|
}, |
|
{ |
|
"epoch": 25.3125, |
|
"grad_norm": 1.7519912719726562, |
|
"learning_rate": 1.8359375e-05, |
|
"loss": 0.071, |
|
"step": 2430 |
|
}, |
|
{ |
|
"epoch": 25.416666666666668, |
|
"grad_norm": 13.328243255615234, |
|
"learning_rate": 1.8229166666666668e-05, |
|
"loss": 0.052, |
|
"step": 2440 |
|
}, |
|
{ |
|
"epoch": 25.520833333333332, |
|
"grad_norm": 31.634199142456055, |
|
"learning_rate": 1.8098958333333336e-05, |
|
"loss": 0.0502, |
|
"step": 2450 |
|
}, |
|
{ |
|
"epoch": 25.625, |
|
"grad_norm": 27.173145294189453, |
|
"learning_rate": 1.796875e-05, |
|
"loss": 0.0606, |
|
"step": 2460 |
|
}, |
|
{ |
|
"epoch": 25.729166666666668, |
|
"grad_norm": 22.141252517700195, |
|
"learning_rate": 1.7838541666666667e-05, |
|
"loss": 0.047, |
|
"step": 2470 |
|
}, |
|
{ |
|
"epoch": 25.833333333333332, |
|
"grad_norm": 25.948257446289062, |
|
"learning_rate": 1.7708333333333335e-05, |
|
"loss": 0.0735, |
|
"step": 2480 |
|
}, |
|
{ |
|
"epoch": 25.9375, |
|
"grad_norm": 17.161785125732422, |
|
"learning_rate": 1.7578125000000002e-05, |
|
"loss": 0.0732, |
|
"step": 2490 |
|
}, |
|
{ |
|
"epoch": 26.0, |
|
"eval_accuracy": 0.49272727272727274, |
|
"eval_loss": 11.197073936462402, |
|
"eval_runtime": 5.3083, |
|
"eval_samples_per_second": 103.611, |
|
"eval_steps_per_second": 6.593, |
|
"step": 2496 |
|
}, |
|
{ |
|
"epoch": 26.041666666666668, |
|
"grad_norm": 23.315317153930664, |
|
"learning_rate": 1.7447916666666666e-05, |
|
"loss": 0.088, |
|
"step": 2500 |
|
}, |
|
{ |
|
"epoch": 26.145833333333332, |
|
"grad_norm": 0.7972298860549927, |
|
"learning_rate": 1.7317708333333334e-05, |
|
"loss": 0.0678, |
|
"step": 2510 |
|
}, |
|
{ |
|
"epoch": 26.25, |
|
"grad_norm": 18.949796676635742, |
|
"learning_rate": 1.71875e-05, |
|
"loss": 0.0488, |
|
"step": 2520 |
|
}, |
|
{ |
|
"epoch": 26.354166666666668, |
|
"grad_norm": 52.9923210144043, |
|
"learning_rate": 1.7057291666666665e-05, |
|
"loss": 0.0838, |
|
"step": 2530 |
|
}, |
|
{ |
|
"epoch": 26.458333333333332, |
|
"grad_norm": 54.01505661010742, |
|
"learning_rate": 1.6927083333333336e-05, |
|
"loss": 0.1282, |
|
"step": 2540 |
|
}, |
|
{ |
|
"epoch": 26.5625, |
|
"grad_norm": 26.549772262573242, |
|
"learning_rate": 1.6796875e-05, |
|
"loss": 0.1133, |
|
"step": 2550 |
|
}, |
|
{ |
|
"epoch": 26.666666666666668, |
|
"grad_norm": 23.752872467041016, |
|
"learning_rate": 1.6666666666666667e-05, |
|
"loss": 0.1165, |
|
"step": 2560 |
|
}, |
|
{ |
|
"epoch": 26.770833333333332, |
|
"grad_norm": 42.46553039550781, |
|
"learning_rate": 1.6536458333333335e-05, |
|
"loss": 0.0781, |
|
"step": 2570 |
|
}, |
|
{ |
|
"epoch": 26.875, |
|
"grad_norm": 17.504453659057617, |
|
"learning_rate": 1.6406250000000002e-05, |
|
"loss": 0.0851, |
|
"step": 2580 |
|
}, |
|
{ |
|
"epoch": 26.979166666666668, |
|
"grad_norm": 17.51653480529785, |
|
"learning_rate": 1.6276041666666666e-05, |
|
"loss": 0.1424, |
|
"step": 2590 |
|
}, |
|
{ |
|
"epoch": 27.0, |
|
"eval_accuracy": 0.49454545454545457, |
|
"eval_loss": 11.458148956298828, |
|
"eval_runtime": 5.487, |
|
"eval_samples_per_second": 100.238, |
|
"eval_steps_per_second": 6.379, |
|
"step": 2592 |
|
}, |
|
{ |
|
"epoch": 27.083333333333332, |
|
"grad_norm": 9.668028831481934, |
|
"learning_rate": 1.6145833333333334e-05, |
|
"loss": 0.0727, |
|
"step": 2600 |
|
}, |
|
{ |
|
"epoch": 27.1875, |
|
"grad_norm": 16.31097984313965, |
|
"learning_rate": 1.6015625e-05, |
|
"loss": 0.0952, |
|
"step": 2610 |
|
}, |
|
{ |
|
"epoch": 27.291666666666668, |
|
"grad_norm": 33.70851135253906, |
|
"learning_rate": 1.5885416666666665e-05, |
|
"loss": 0.1389, |
|
"step": 2620 |
|
}, |
|
{ |
|
"epoch": 27.395833333333332, |
|
"grad_norm": 54.45642852783203, |
|
"learning_rate": 1.5755208333333336e-05, |
|
"loss": 0.1256, |
|
"step": 2630 |
|
}, |
|
{ |
|
"epoch": 27.5, |
|
"grad_norm": 8.16263484954834, |
|
"learning_rate": 1.5625e-05, |
|
"loss": 0.0829, |
|
"step": 2640 |
|
}, |
|
{ |
|
"epoch": 27.604166666666668, |
|
"grad_norm": 12.835566520690918, |
|
"learning_rate": 1.5494791666666668e-05, |
|
"loss": 0.1457, |
|
"step": 2650 |
|
}, |
|
{ |
|
"epoch": 27.708333333333332, |
|
"grad_norm": 70.34893798828125, |
|
"learning_rate": 1.5364583333333335e-05, |
|
"loss": 0.1139, |
|
"step": 2660 |
|
}, |
|
{ |
|
"epoch": 27.8125, |
|
"grad_norm": 9.525261878967285, |
|
"learning_rate": 1.5234375000000001e-05, |
|
"loss": 0.1009, |
|
"step": 2670 |
|
}, |
|
{ |
|
"epoch": 27.916666666666668, |
|
"grad_norm": 11.617359161376953, |
|
"learning_rate": 1.5104166666666667e-05, |
|
"loss": 0.0814, |
|
"step": 2680 |
|
}, |
|
{ |
|
"epoch": 28.0, |
|
"eval_accuracy": 0.49454545454545457, |
|
"eval_loss": 11.334138870239258, |
|
"eval_runtime": 5.9555, |
|
"eval_samples_per_second": 92.351, |
|
"eval_steps_per_second": 5.877, |
|
"step": 2688 |
|
}, |
|
{ |
|
"epoch": 28.020833333333332, |
|
"grad_norm": 24.187095642089844, |
|
"learning_rate": 1.4973958333333334e-05, |
|
"loss": 0.0915, |
|
"step": 2690 |
|
}, |
|
{ |
|
"epoch": 28.125, |
|
"grad_norm": 34.853328704833984, |
|
"learning_rate": 1.484375e-05, |
|
"loss": 0.0781, |
|
"step": 2700 |
|
}, |
|
{ |
|
"epoch": 28.229166666666668, |
|
"grad_norm": 17.71786117553711, |
|
"learning_rate": 1.4713541666666666e-05, |
|
"loss": 0.1084, |
|
"step": 2710 |
|
}, |
|
{ |
|
"epoch": 28.333333333333332, |
|
"grad_norm": 21.2179012298584, |
|
"learning_rate": 1.4583333333333335e-05, |
|
"loss": 0.0948, |
|
"step": 2720 |
|
}, |
|
{ |
|
"epoch": 28.4375, |
|
"grad_norm": 29.340883255004883, |
|
"learning_rate": 1.4453125e-05, |
|
"loss": 0.0695, |
|
"step": 2730 |
|
}, |
|
{ |
|
"epoch": 28.541666666666668, |
|
"grad_norm": 50.22605514526367, |
|
"learning_rate": 1.4322916666666666e-05, |
|
"loss": 0.0985, |
|
"step": 2740 |
|
}, |
|
{ |
|
"epoch": 28.645833333333332, |
|
"grad_norm": 39.21680450439453, |
|
"learning_rate": 1.4192708333333336e-05, |
|
"loss": 0.0968, |
|
"step": 2750 |
|
}, |
|
{ |
|
"epoch": 28.75, |
|
"grad_norm": 27.641145706176758, |
|
"learning_rate": 1.4062500000000001e-05, |
|
"loss": 0.1039, |
|
"step": 2760 |
|
}, |
|
{ |
|
"epoch": 28.854166666666668, |
|
"grad_norm": 33.24095153808594, |
|
"learning_rate": 1.3932291666666667e-05, |
|
"loss": 0.1035, |
|
"step": 2770 |
|
}, |
|
{ |
|
"epoch": 28.958333333333332, |
|
"grad_norm": 12.199631690979004, |
|
"learning_rate": 1.3802083333333335e-05, |
|
"loss": 0.101, |
|
"step": 2780 |
|
}, |
|
{ |
|
"epoch": 29.0, |
|
"eval_accuracy": 0.49272727272727274, |
|
"eval_loss": 11.570547103881836, |
|
"eval_runtime": 5.6263, |
|
"eval_samples_per_second": 97.755, |
|
"eval_steps_per_second": 6.221, |
|
"step": 2784 |
|
}, |
|
{ |
|
"epoch": 29.0625, |
|
"grad_norm": 60.53170394897461, |
|
"learning_rate": 1.3671875e-05, |
|
"loss": 0.1166, |
|
"step": 2790 |
|
}, |
|
{ |
|
"epoch": 29.166666666666668, |
|
"grad_norm": 26.345138549804688, |
|
"learning_rate": 1.3541666666666666e-05, |
|
"loss": 0.1063, |
|
"step": 2800 |
|
}, |
|
{ |
|
"epoch": 29.270833333333332, |
|
"grad_norm": 28.609853744506836, |
|
"learning_rate": 1.3411458333333335e-05, |
|
"loss": 0.0939, |
|
"step": 2810 |
|
}, |
|
{ |
|
"epoch": 29.375, |
|
"grad_norm": 16.31063461303711, |
|
"learning_rate": 1.3281250000000001e-05, |
|
"loss": 0.0924, |
|
"step": 2820 |
|
}, |
|
{ |
|
"epoch": 29.479166666666668, |
|
"grad_norm": 7.441460132598877, |
|
"learning_rate": 1.3151041666666667e-05, |
|
"loss": 0.0867, |
|
"step": 2830 |
|
}, |
|
{ |
|
"epoch": 29.583333333333332, |
|
"grad_norm": 50.6924934387207, |
|
"learning_rate": 1.3020833333333334e-05, |
|
"loss": 0.1012, |
|
"step": 2840 |
|
}, |
|
{ |
|
"epoch": 29.6875, |
|
"grad_norm": 24.678504943847656, |
|
"learning_rate": 1.2890625e-05, |
|
"loss": 0.0993, |
|
"step": 2850 |
|
}, |
|
{ |
|
"epoch": 29.791666666666668, |
|
"grad_norm": 45.90309524536133, |
|
"learning_rate": 1.2760416666666666e-05, |
|
"loss": 0.0981, |
|
"step": 2860 |
|
}, |
|
{ |
|
"epoch": 29.895833333333332, |
|
"grad_norm": 29.595661163330078, |
|
"learning_rate": 1.2630208333333335e-05, |
|
"loss": 0.0826, |
|
"step": 2870 |
|
}, |
|
{ |
|
"epoch": 30.0, |
|
"grad_norm": 31.03252410888672, |
|
"learning_rate": 1.25e-05, |
|
"loss": 0.0894, |
|
"step": 2880 |
|
}, |
|
{ |
|
"epoch": 30.0, |
|
"eval_accuracy": 0.49272727272727274, |
|
"eval_loss": 11.52585506439209, |
|
"eval_runtime": 5.4101, |
|
"eval_samples_per_second": 101.661, |
|
"eval_steps_per_second": 6.469, |
|
"step": 2880 |
|
}, |
|
{ |
|
"epoch": 30.104166666666668, |
|
"grad_norm": 21.077327728271484, |
|
"learning_rate": 1.2369791666666668e-05, |
|
"loss": 0.1117, |
|
"step": 2890 |
|
}, |
|
{ |
|
"epoch": 30.208333333333332, |
|
"grad_norm": 25.293498992919922, |
|
"learning_rate": 1.2239583333333334e-05, |
|
"loss": 0.0852, |
|
"step": 2900 |
|
}, |
|
{ |
|
"epoch": 30.3125, |
|
"grad_norm": 23.318483352661133, |
|
"learning_rate": 1.2109375000000001e-05, |
|
"loss": 0.102, |
|
"step": 2910 |
|
}, |
|
{ |
|
"epoch": 30.416666666666668, |
|
"grad_norm": 19.827796936035156, |
|
"learning_rate": 1.1979166666666667e-05, |
|
"loss": 0.1279, |
|
"step": 2920 |
|
}, |
|
{ |
|
"epoch": 30.520833333333332, |
|
"grad_norm": 20.5388240814209, |
|
"learning_rate": 1.1848958333333333e-05, |
|
"loss": 0.0846, |
|
"step": 2930 |
|
}, |
|
{ |
|
"epoch": 30.625, |
|
"grad_norm": 29.120922088623047, |
|
"learning_rate": 1.171875e-05, |
|
"loss": 0.1006, |
|
"step": 2940 |
|
}, |
|
{ |
|
"epoch": 30.729166666666668, |
|
"grad_norm": 21.451297760009766, |
|
"learning_rate": 1.1588541666666668e-05, |
|
"loss": 0.0764, |
|
"step": 2950 |
|
}, |
|
{ |
|
"epoch": 30.833333333333332, |
|
"grad_norm": 23.58041763305664, |
|
"learning_rate": 1.1458333333333333e-05, |
|
"loss": 0.0905, |
|
"step": 2960 |
|
}, |
|
{ |
|
"epoch": 30.9375, |
|
"grad_norm": 21.310245513916016, |
|
"learning_rate": 1.1328125000000001e-05, |
|
"loss": 0.0707, |
|
"step": 2970 |
|
}, |
|
{ |
|
"epoch": 31.0, |
|
"eval_accuracy": 0.49454545454545457, |
|
"eval_loss": 11.175284385681152, |
|
"eval_runtime": 5.3931, |
|
"eval_samples_per_second": 101.982, |
|
"eval_steps_per_second": 6.49, |
|
"step": 2976 |
|
}, |
|
{ |
|
"epoch": 31.041666666666668, |
|
"grad_norm": 36.20291519165039, |
|
"learning_rate": 1.1197916666666668e-05, |
|
"loss": 0.0863, |
|
"step": 2980 |
|
}, |
|
{ |
|
"epoch": 31.145833333333332, |
|
"grad_norm": 30.241344451904297, |
|
"learning_rate": 1.1067708333333334e-05, |
|
"loss": 0.071, |
|
"step": 2990 |
|
}, |
|
{ |
|
"epoch": 31.25, |
|
"grad_norm": 37.42964172363281, |
|
"learning_rate": 1.09375e-05, |
|
"loss": 0.1031, |
|
"step": 3000 |
|
}, |
|
{ |
|
"epoch": 31.354166666666668, |
|
"grad_norm": 20.995710372924805, |
|
"learning_rate": 1.0807291666666667e-05, |
|
"loss": 0.0934, |
|
"step": 3010 |
|
}, |
|
{ |
|
"epoch": 31.458333333333332, |
|
"grad_norm": 11.484270095825195, |
|
"learning_rate": 1.0677083333333333e-05, |
|
"loss": 0.102, |
|
"step": 3020 |
|
}, |
|
{ |
|
"epoch": 31.5625, |
|
"grad_norm": 10.441804885864258, |
|
"learning_rate": 1.0546875e-05, |
|
"loss": 0.092, |
|
"step": 3030 |
|
}, |
|
{ |
|
"epoch": 31.666666666666668, |
|
"grad_norm": 27.40350341796875, |
|
"learning_rate": 1.0416666666666668e-05, |
|
"loss": 0.1018, |
|
"step": 3040 |
|
}, |
|
{ |
|
"epoch": 31.770833333333332, |
|
"grad_norm": 24.5902099609375, |
|
"learning_rate": 1.0286458333333334e-05, |
|
"loss": 0.0986, |
|
"step": 3050 |
|
}, |
|
{ |
|
"epoch": 31.875, |
|
"grad_norm": 5.833737373352051, |
|
"learning_rate": 1.0156250000000001e-05, |
|
"loss": 0.1158, |
|
"step": 3060 |
|
}, |
|
{ |
|
"epoch": 31.979166666666668, |
|
"grad_norm": 43.241512298583984, |
|
"learning_rate": 1.0026041666666667e-05, |
|
"loss": 0.1289, |
|
"step": 3070 |
|
}, |
|
{ |
|
"epoch": 32.0, |
|
"eval_accuracy": 0.49636363636363634, |
|
"eval_loss": 10.566783905029297, |
|
"eval_runtime": 5.4619, |
|
"eval_samples_per_second": 100.698, |
|
"eval_steps_per_second": 6.408, |
|
"step": 3072 |
|
}, |
|
{ |
|
"epoch": 32.083333333333336, |
|
"grad_norm": 15.365006446838379, |
|
"learning_rate": 9.895833333333333e-06, |
|
"loss": 0.099, |
|
"step": 3080 |
|
}, |
|
{ |
|
"epoch": 32.1875, |
|
"grad_norm": 30.022796630859375, |
|
"learning_rate": 9.765625e-06, |
|
"loss": 0.0985, |
|
"step": 3090 |
|
}, |
|
{ |
|
"epoch": 32.291666666666664, |
|
"grad_norm": 14.365524291992188, |
|
"learning_rate": 9.635416666666668e-06, |
|
"loss": 0.0762, |
|
"step": 3100 |
|
}, |
|
{ |
|
"epoch": 32.395833333333336, |
|
"grad_norm": 33.37839889526367, |
|
"learning_rate": 9.505208333333333e-06, |
|
"loss": 0.0692, |
|
"step": 3110 |
|
}, |
|
{ |
|
"epoch": 32.5, |
|
"grad_norm": 41.218177795410156, |
|
"learning_rate": 9.375000000000001e-06, |
|
"loss": 0.0886, |
|
"step": 3120 |
|
}, |
|
{ |
|
"epoch": 32.604166666666664, |
|
"grad_norm": 18.83156967163086, |
|
"learning_rate": 9.244791666666668e-06, |
|
"loss": 0.0719, |
|
"step": 3130 |
|
}, |
|
{ |
|
"epoch": 32.708333333333336, |
|
"grad_norm": 38.744815826416016, |
|
"learning_rate": 9.114583333333334e-06, |
|
"loss": 0.1015, |
|
"step": 3140 |
|
}, |
|
{ |
|
"epoch": 32.8125, |
|
"grad_norm": 10.752944946289062, |
|
"learning_rate": 8.984375e-06, |
|
"loss": 0.0938, |
|
"step": 3150 |
|
}, |
|
{ |
|
"epoch": 32.916666666666664, |
|
"grad_norm": 41.70597457885742, |
|
"learning_rate": 8.854166666666667e-06, |
|
"loss": 0.0991, |
|
"step": 3160 |
|
}, |
|
{ |
|
"epoch": 33.0, |
|
"eval_accuracy": 0.49454545454545457, |
|
"eval_loss": 11.101335525512695, |
|
"eval_runtime": 5.8998, |
|
"eval_samples_per_second": 93.224, |
|
"eval_steps_per_second": 5.932, |
|
"step": 3168 |
|
}, |
|
{ |
|
"epoch": 33.020833333333336, |
|
"grad_norm": 36.87518310546875, |
|
"learning_rate": 8.723958333333333e-06, |
|
"loss": 0.0906, |
|
"step": 3170 |
|
}, |
|
{ |
|
"epoch": 33.125, |
|
"grad_norm": 25.900714874267578, |
|
"learning_rate": 8.59375e-06, |
|
"loss": 0.1086, |
|
"step": 3180 |
|
}, |
|
{ |
|
"epoch": 33.229166666666664, |
|
"grad_norm": 11.405691146850586, |
|
"learning_rate": 8.463541666666668e-06, |
|
"loss": 0.0999, |
|
"step": 3190 |
|
}, |
|
{ |
|
"epoch": 33.333333333333336, |
|
"grad_norm": 16.193605422973633, |
|
"learning_rate": 8.333333333333334e-06, |
|
"loss": 0.0951, |
|
"step": 3200 |
|
}, |
|
{ |
|
"epoch": 33.4375, |
|
"grad_norm": 88.08230590820312, |
|
"learning_rate": 8.203125000000001e-06, |
|
"loss": 0.1168, |
|
"step": 3210 |
|
}, |
|
{ |
|
"epoch": 33.541666666666664, |
|
"grad_norm": 28.784753799438477, |
|
"learning_rate": 8.072916666666667e-06, |
|
"loss": 0.1072, |
|
"step": 3220 |
|
}, |
|
{ |
|
"epoch": 33.645833333333336, |
|
"grad_norm": 15.353262901306152, |
|
"learning_rate": 7.942708333333333e-06, |
|
"loss": 0.0774, |
|
"step": 3230 |
|
}, |
|
{ |
|
"epoch": 33.75, |
|
"grad_norm": 14.929109573364258, |
|
"learning_rate": 7.8125e-06, |
|
"loss": 0.0576, |
|
"step": 3240 |
|
}, |
|
{ |
|
"epoch": 33.854166666666664, |
|
"grad_norm": 26.58082389831543, |
|
"learning_rate": 7.682291666666668e-06, |
|
"loss": 0.1075, |
|
"step": 3250 |
|
}, |
|
{ |
|
"epoch": 33.958333333333336, |
|
"grad_norm": 12.775825500488281, |
|
"learning_rate": 7.552083333333333e-06, |
|
"loss": 0.0615, |
|
"step": 3260 |
|
}, |
|
{ |
|
"epoch": 34.0, |
|
"eval_accuracy": 0.49454545454545457, |
|
"eval_loss": 11.097322463989258, |
|
"eval_runtime": 5.6848, |
|
"eval_samples_per_second": 96.748, |
|
"eval_steps_per_second": 6.157, |
|
"step": 3264 |
|
}, |
|
{ |
|
"epoch": 34.0625, |
|
"grad_norm": 18.62384605407715, |
|
"learning_rate": 7.421875e-06, |
|
"loss": 0.0902, |
|
"step": 3270 |
|
}, |
|
{ |
|
"epoch": 34.166666666666664, |
|
"grad_norm": 20.48052406311035, |
|
"learning_rate": 7.2916666666666674e-06, |
|
"loss": 0.0877, |
|
"step": 3280 |
|
}, |
|
{ |
|
"epoch": 34.270833333333336, |
|
"grad_norm": 27.968793869018555, |
|
"learning_rate": 7.161458333333333e-06, |
|
"loss": 0.0925, |
|
"step": 3290 |
|
}, |
|
{ |
|
"epoch": 34.375, |
|
"grad_norm": 24.650409698486328, |
|
"learning_rate": 7.031250000000001e-06, |
|
"loss": 0.1428, |
|
"step": 3300 |
|
}, |
|
{ |
|
"epoch": 34.479166666666664, |
|
"grad_norm": 18.157577514648438, |
|
"learning_rate": 6.901041666666667e-06, |
|
"loss": 0.0906, |
|
"step": 3310 |
|
}, |
|
{ |
|
"epoch": 34.583333333333336, |
|
"grad_norm": 20.040916442871094, |
|
"learning_rate": 6.770833333333333e-06, |
|
"loss": 0.0831, |
|
"step": 3320 |
|
}, |
|
{ |
|
"epoch": 34.6875, |
|
"grad_norm": 14.048887252807617, |
|
"learning_rate": 6.6406250000000005e-06, |
|
"loss": 0.0889, |
|
"step": 3330 |
|
}, |
|
{ |
|
"epoch": 34.791666666666664, |
|
"grad_norm": 16.333171844482422, |
|
"learning_rate": 6.510416666666667e-06, |
|
"loss": 0.0852, |
|
"step": 3340 |
|
}, |
|
{ |
|
"epoch": 34.895833333333336, |
|
"grad_norm": 17.709381103515625, |
|
"learning_rate": 6.380208333333333e-06, |
|
"loss": 0.0655, |
|
"step": 3350 |
|
}, |
|
{ |
|
"epoch": 35.0, |
|
"grad_norm": 26.832077026367188, |
|
"learning_rate": 6.25e-06, |
|
"loss": 0.0784, |
|
"step": 3360 |
|
}, |
|
{ |
|
"epoch": 35.0, |
|
"eval_accuracy": 0.49454545454545457, |
|
"eval_loss": 11.071619987487793, |
|
"eval_runtime": 5.3413, |
|
"eval_samples_per_second": 102.971, |
|
"eval_steps_per_second": 6.553, |
|
"step": 3360 |
|
}, |
|
{ |
|
"epoch": 35.104166666666664, |
|
"grad_norm": 29.826557159423828, |
|
"learning_rate": 6.119791666666667e-06, |
|
"loss": 0.0962, |
|
"step": 3370 |
|
}, |
|
{ |
|
"epoch": 35.208333333333336, |
|
"grad_norm": 42.68644332885742, |
|
"learning_rate": 5.9895833333333335e-06, |
|
"loss": 0.1048, |
|
"step": 3380 |
|
}, |
|
{ |
|
"epoch": 35.3125, |
|
"grad_norm": 18.28743553161621, |
|
"learning_rate": 5.859375e-06, |
|
"loss": 0.0656, |
|
"step": 3390 |
|
}, |
|
{ |
|
"epoch": 35.416666666666664, |
|
"grad_norm": 9.781245231628418, |
|
"learning_rate": 5.729166666666667e-06, |
|
"loss": 0.0868, |
|
"step": 3400 |
|
}, |
|
{ |
|
"epoch": 35.520833333333336, |
|
"grad_norm": 19.422208786010742, |
|
"learning_rate": 5.598958333333334e-06, |
|
"loss": 0.1012, |
|
"step": 3410 |
|
}, |
|
{ |
|
"epoch": 35.625, |
|
"grad_norm": 11.414657592773438, |
|
"learning_rate": 5.46875e-06, |
|
"loss": 0.089, |
|
"step": 3420 |
|
}, |
|
{ |
|
"epoch": 35.729166666666664, |
|
"grad_norm": 46.26686477661133, |
|
"learning_rate": 5.3385416666666666e-06, |
|
"loss": 0.0907, |
|
"step": 3430 |
|
}, |
|
{ |
|
"epoch": 35.833333333333336, |
|
"grad_norm": 19.35893440246582, |
|
"learning_rate": 5.208333333333334e-06, |
|
"loss": 0.095, |
|
"step": 3440 |
|
}, |
|
{ |
|
"epoch": 35.9375, |
|
"grad_norm": 12.395063400268555, |
|
"learning_rate": 5.078125000000001e-06, |
|
"loss": 0.0792, |
|
"step": 3450 |
|
}, |
|
{ |
|
"epoch": 36.0, |
|
"eval_accuracy": 0.49454545454545457, |
|
"eval_loss": 11.024123191833496, |
|
"eval_runtime": 5.69, |
|
"eval_samples_per_second": 96.661, |
|
"eval_steps_per_second": 6.151, |
|
"step": 3456 |
|
}, |
|
{ |
|
"epoch": 36.041666666666664, |
|
"grad_norm": 26.335874557495117, |
|
"learning_rate": 4.947916666666666e-06, |
|
"loss": 0.1312, |
|
"step": 3460 |
|
}, |
|
{ |
|
"epoch": 36.145833333333336, |
|
"grad_norm": 31.72727394104004, |
|
"learning_rate": 4.817708333333334e-06, |
|
"loss": 0.1066, |
|
"step": 3470 |
|
}, |
|
{ |
|
"epoch": 36.25, |
|
"grad_norm": 25.335262298583984, |
|
"learning_rate": 4.6875000000000004e-06, |
|
"loss": 0.1081, |
|
"step": 3480 |
|
}, |
|
{ |
|
"epoch": 36.354166666666664, |
|
"grad_norm": 14.127216339111328, |
|
"learning_rate": 4.557291666666667e-06, |
|
"loss": 0.0798, |
|
"step": 3490 |
|
}, |
|
{ |
|
"epoch": 36.458333333333336, |
|
"grad_norm": 44.536399841308594, |
|
"learning_rate": 4.427083333333334e-06, |
|
"loss": 0.0712, |
|
"step": 3500 |
|
}, |
|
{ |
|
"epoch": 36.5625, |
|
"grad_norm": 23.42938995361328, |
|
"learning_rate": 4.296875e-06, |
|
"loss": 0.0864, |
|
"step": 3510 |
|
}, |
|
{ |
|
"epoch": 36.666666666666664, |
|
"grad_norm": 15.882771492004395, |
|
"learning_rate": 4.166666666666667e-06, |
|
"loss": 0.0847, |
|
"step": 3520 |
|
}, |
|
{ |
|
"epoch": 36.770833333333336, |
|
"grad_norm": 11.754857063293457, |
|
"learning_rate": 4.0364583333333335e-06, |
|
"loss": 0.0913, |
|
"step": 3530 |
|
}, |
|
{ |
|
"epoch": 36.875, |
|
"grad_norm": 3.5928895473480225, |
|
"learning_rate": 3.90625e-06, |
|
"loss": 0.0595, |
|
"step": 3540 |
|
}, |
|
{ |
|
"epoch": 36.979166666666664, |
|
"grad_norm": 12.730524063110352, |
|
"learning_rate": 3.7760416666666667e-06, |
|
"loss": 0.1032, |
|
"step": 3550 |
|
}, |
|
{ |
|
"epoch": 37.0, |
|
"eval_accuracy": 0.49454545454545457, |
|
"eval_loss": 11.233778953552246, |
|
"eval_runtime": 5.8124, |
|
"eval_samples_per_second": 94.625, |
|
"eval_steps_per_second": 6.022, |
|
"step": 3552 |
|
}, |
|
{ |
|
"epoch": 37.083333333333336, |
|
"grad_norm": 15.586324691772461, |
|
"learning_rate": 3.6458333333333337e-06, |
|
"loss": 0.0953, |
|
"step": 3560 |
|
}, |
|
{ |
|
"epoch": 37.1875, |
|
"grad_norm": 33.76521682739258, |
|
"learning_rate": 3.5156250000000003e-06, |
|
"loss": 0.098, |
|
"step": 3570 |
|
}, |
|
{ |
|
"epoch": 37.291666666666664, |
|
"grad_norm": 35.33890914916992, |
|
"learning_rate": 3.3854166666666665e-06, |
|
"loss": 0.0676, |
|
"step": 3580 |
|
}, |
|
{ |
|
"epoch": 37.395833333333336, |
|
"grad_norm": 16.272777557373047, |
|
"learning_rate": 3.2552083333333335e-06, |
|
"loss": 0.0768, |
|
"step": 3590 |
|
}, |
|
{ |
|
"epoch": 37.5, |
|
"grad_norm": 18.080459594726562, |
|
"learning_rate": 3.125e-06, |
|
"loss": 0.0565, |
|
"step": 3600 |
|
}, |
|
{ |
|
"epoch": 37.604166666666664, |
|
"grad_norm": 35.92354965209961, |
|
"learning_rate": 2.9947916666666668e-06, |
|
"loss": 0.1136, |
|
"step": 3610 |
|
}, |
|
{ |
|
"epoch": 37.708333333333336, |
|
"grad_norm": 52.009769439697266, |
|
"learning_rate": 2.8645833333333334e-06, |
|
"loss": 0.0925, |
|
"step": 3620 |
|
}, |
|
{ |
|
"epoch": 37.8125, |
|
"grad_norm": 12.11516284942627, |
|
"learning_rate": 2.734375e-06, |
|
"loss": 0.1097, |
|
"step": 3630 |
|
}, |
|
{ |
|
"epoch": 37.916666666666664, |
|
"grad_norm": 16.782026290893555, |
|
"learning_rate": 2.604166666666667e-06, |
|
"loss": 0.0837, |
|
"step": 3640 |
|
}, |
|
{ |
|
"epoch": 38.0, |
|
"eval_accuracy": 0.49272727272727274, |
|
"eval_loss": 11.425619125366211, |
|
"eval_runtime": 5.4726, |
|
"eval_samples_per_second": 100.5, |
|
"eval_steps_per_second": 6.395, |
|
"step": 3648 |
|
}, |
|
{ |
|
"epoch": 38.020833333333336, |
|
"grad_norm": 38.292327880859375, |
|
"learning_rate": 2.473958333333333e-06, |
|
"loss": 0.0804, |
|
"step": 3650 |
|
}, |
|
{ |
|
"epoch": 38.125, |
|
"grad_norm": 49.51952362060547, |
|
"learning_rate": 2.3437500000000002e-06, |
|
"loss": 0.0797, |
|
"step": 3660 |
|
}, |
|
{ |
|
"epoch": 38.229166666666664, |
|
"grad_norm": 30.671308517456055, |
|
"learning_rate": 2.213541666666667e-06, |
|
"loss": 0.0806, |
|
"step": 3670 |
|
}, |
|
{ |
|
"epoch": 38.333333333333336, |
|
"grad_norm": 18.12841033935547, |
|
"learning_rate": 2.0833333333333334e-06, |
|
"loss": 0.0821, |
|
"step": 3680 |
|
}, |
|
{ |
|
"epoch": 38.4375, |
|
"grad_norm": 38.42469787597656, |
|
"learning_rate": 1.953125e-06, |
|
"loss": 0.0917, |
|
"step": 3690 |
|
}, |
|
{ |
|
"epoch": 38.541666666666664, |
|
"grad_norm": 29.64519500732422, |
|
"learning_rate": 1.8229166666666669e-06, |
|
"loss": 0.0941, |
|
"step": 3700 |
|
}, |
|
{ |
|
"epoch": 38.645833333333336, |
|
"grad_norm": 17.413745880126953, |
|
"learning_rate": 1.6927083333333333e-06, |
|
"loss": 0.0924, |
|
"step": 3710 |
|
}, |
|
{ |
|
"epoch": 38.75, |
|
"grad_norm": 14.233410835266113, |
|
"learning_rate": 1.5625e-06, |
|
"loss": 0.0792, |
|
"step": 3720 |
|
}, |
|
{ |
|
"epoch": 38.854166666666664, |
|
"grad_norm": 30.758493423461914, |
|
"learning_rate": 1.4322916666666667e-06, |
|
"loss": 0.1, |
|
"step": 3730 |
|
}, |
|
{ |
|
"epoch": 38.958333333333336, |
|
"grad_norm": 15.391569137573242, |
|
"learning_rate": 1.3020833333333335e-06, |
|
"loss": 0.0722, |
|
"step": 3740 |
|
}, |
|
{ |
|
"epoch": 39.0, |
|
"eval_accuracy": 0.49454545454545457, |
|
"eval_loss": 11.397107124328613, |
|
"eval_runtime": 5.3214, |
|
"eval_samples_per_second": 103.356, |
|
"eval_steps_per_second": 6.577, |
|
"step": 3744 |
|
}, |
|
{ |
|
"epoch": 39.0625, |
|
"grad_norm": 43.09860610961914, |
|
"learning_rate": 1.1718750000000001e-06, |
|
"loss": 0.0718, |
|
"step": 3750 |
|
}, |
|
{ |
|
"epoch": 39.166666666666664, |
|
"grad_norm": 17.852291107177734, |
|
"learning_rate": 1.0416666666666667e-06, |
|
"loss": 0.0825, |
|
"step": 3760 |
|
}, |
|
{ |
|
"epoch": 39.270833333333336, |
|
"grad_norm": 11.047649383544922, |
|
"learning_rate": 9.114583333333334e-07, |
|
"loss": 0.0959, |
|
"step": 3770 |
|
}, |
|
{ |
|
"epoch": 39.375, |
|
"grad_norm": 14.04410171508789, |
|
"learning_rate": 7.8125e-07, |
|
"loss": 0.06, |
|
"step": 3780 |
|
}, |
|
{ |
|
"epoch": 39.479166666666664, |
|
"grad_norm": 27.379941940307617, |
|
"learning_rate": 6.510416666666668e-07, |
|
"loss": 0.118, |
|
"step": 3790 |
|
}, |
|
{ |
|
"epoch": 39.583333333333336, |
|
"grad_norm": 5.006075382232666, |
|
"learning_rate": 5.208333333333334e-07, |
|
"loss": 0.0933, |
|
"step": 3800 |
|
}, |
|
{ |
|
"epoch": 39.6875, |
|
"grad_norm": 16.986217498779297, |
|
"learning_rate": 3.90625e-07, |
|
"loss": 0.0909, |
|
"step": 3810 |
|
}, |
|
{ |
|
"epoch": 39.791666666666664, |
|
"grad_norm": 67.45948791503906, |
|
"learning_rate": 2.604166666666667e-07, |
|
"loss": 0.0831, |
|
"step": 3820 |
|
}, |
|
{ |
|
"epoch": 39.895833333333336, |
|
"grad_norm": 44.49368667602539, |
|
"learning_rate": 1.3020833333333334e-07, |
|
"loss": 0.0697, |
|
"step": 3830 |
|
}, |
|
{ |
|
"epoch": 40.0, |
|
"grad_norm": 52.69803237915039, |
|
"learning_rate": 0.0, |
|
"loss": 0.079, |
|
"step": 3840 |
|
}, |
|
{ |
|
"epoch": 40.0, |
|
"eval_accuracy": 0.49454545454545457, |
|
"eval_loss": 11.35228157043457, |
|
"eval_runtime": 5.9284, |
|
"eval_samples_per_second": 92.774, |
|
"eval_steps_per_second": 5.904, |
|
"step": 3840 |
|
}, |
|
{ |
|
"epoch": 40.0, |
|
"step": 3840, |
|
"total_flos": 7.981989095292273e+18, |
|
"train_loss": 0.08997984060940022, |
|
"train_runtime": 5789.2399, |
|
"train_samples_per_second": 42.375, |
|
"train_steps_per_second": 0.663 |
|
} |
|
], |
|
"logging_steps": 10, |
|
"max_steps": 3840, |
|
"num_input_tokens_seen": 0, |
|
"num_train_epochs": 40, |
|
"save_steps": 500, |
|
"stateful_callbacks": { |
|
"TrainerControl": { |
|
"args": { |
|
"should_epoch_stop": false, |
|
"should_evaluate": false, |
|
"should_log": false, |
|
"should_save": true, |
|
"should_training_stop": true |
|
}, |
|
"attributes": {} |
|
} |
|
}, |
|
"total_flos": 7.981989095292273e+18, |
|
"train_batch_size": 16, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|