PICA-V1 / trainer_state.json
Estwld's picture
Upload 14 files
28f1c0a
raw
history blame
70.6 kB
{
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 16.3654960790999,
"global_step": 6000,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.03,
"learning_rate": 0.009983333333333334,
"loss": 3.3346,
"step": 10
},
{
"epoch": 0.05,
"learning_rate": 0.009966666666666667,
"loss": 2.3946,
"step": 20
},
{
"epoch": 0.08,
"learning_rate": 0.00995,
"loss": 2.1448,
"step": 30
},
{
"epoch": 0.11,
"learning_rate": 0.009933333333333334,
"loss": 2.0269,
"step": 40
},
{
"epoch": 0.14,
"learning_rate": 0.009916666666666667,
"loss": 1.9411,
"step": 50
},
{
"epoch": 0.16,
"learning_rate": 0.0099,
"loss": 1.8771,
"step": 60
},
{
"epoch": 0.19,
"learning_rate": 0.009883333333333333,
"loss": 1.8389,
"step": 70
},
{
"epoch": 0.22,
"learning_rate": 0.009866666666666668,
"loss": 1.7383,
"step": 80
},
{
"epoch": 0.25,
"learning_rate": 0.00985,
"loss": 1.7346,
"step": 90
},
{
"epoch": 0.27,
"learning_rate": 0.009833333333333333,
"loss": 1.715,
"step": 100
},
{
"epoch": 0.3,
"learning_rate": 0.009816666666666666,
"loss": 1.702,
"step": 110
},
{
"epoch": 0.33,
"learning_rate": 0.0098,
"loss": 1.7118,
"step": 120
},
{
"epoch": 0.35,
"learning_rate": 0.009783333333333335,
"loss": 1.6655,
"step": 130
},
{
"epoch": 0.38,
"learning_rate": 0.009766666666666667,
"loss": 1.6489,
"step": 140
},
{
"epoch": 0.41,
"learning_rate": 0.00975,
"loss": 1.691,
"step": 150
},
{
"epoch": 0.44,
"learning_rate": 0.009733333333333333,
"loss": 1.6146,
"step": 160
},
{
"epoch": 0.46,
"learning_rate": 0.009716666666666667,
"loss": 1.6528,
"step": 170
},
{
"epoch": 0.49,
"learning_rate": 0.0097,
"loss": 1.5948,
"step": 180
},
{
"epoch": 0.52,
"learning_rate": 0.009683333333333334,
"loss": 1.5905,
"step": 190
},
{
"epoch": 0.55,
"learning_rate": 0.009666666666666667,
"loss": 1.5812,
"step": 200
},
{
"epoch": 0.57,
"learning_rate": 0.00965,
"loss": 1.5762,
"step": 210
},
{
"epoch": 0.6,
"learning_rate": 0.009633333333333334,
"loss": 1.5668,
"step": 220
},
{
"epoch": 0.63,
"learning_rate": 0.009616666666666667,
"loss": 1.5913,
"step": 230
},
{
"epoch": 0.65,
"learning_rate": 0.0096,
"loss": 1.5996,
"step": 240
},
{
"epoch": 0.68,
"learning_rate": 0.009583333333333334,
"loss": 1.5736,
"step": 250
},
{
"epoch": 0.71,
"learning_rate": 0.009566666666666666,
"loss": 1.5162,
"step": 260
},
{
"epoch": 0.74,
"learning_rate": 0.00955,
"loss": 1.5683,
"step": 270
},
{
"epoch": 0.76,
"learning_rate": 0.009533333333333335,
"loss": 1.556,
"step": 280
},
{
"epoch": 0.79,
"learning_rate": 0.009516666666666666,
"loss": 1.5412,
"step": 290
},
{
"epoch": 0.82,
"learning_rate": 0.0095,
"loss": 1.5631,
"step": 300
},
{
"epoch": 0.85,
"learning_rate": 0.009483333333333333,
"loss": 1.5543,
"step": 310
},
{
"epoch": 0.87,
"learning_rate": 0.009466666666666667,
"loss": 1.5401,
"step": 320
},
{
"epoch": 0.9,
"learning_rate": 0.00945,
"loss": 1.558,
"step": 330
},
{
"epoch": 0.93,
"learning_rate": 0.009433333333333334,
"loss": 1.5341,
"step": 340
},
{
"epoch": 0.95,
"learning_rate": 0.009416666666666667,
"loss": 1.5032,
"step": 350
},
{
"epoch": 0.98,
"learning_rate": 0.0094,
"loss": 1.5325,
"step": 360
},
{
"epoch": 1.01,
"learning_rate": 0.009383333333333334,
"loss": 1.5402,
"step": 370
},
{
"epoch": 1.04,
"learning_rate": 0.009366666666666667,
"loss": 1.497,
"step": 380
},
{
"epoch": 1.06,
"learning_rate": 0.00935,
"loss": 1.5264,
"step": 390
},
{
"epoch": 1.09,
"learning_rate": 0.009333333333333334,
"loss": 1.4878,
"step": 400
},
{
"epoch": 1.12,
"learning_rate": 0.009316666666666666,
"loss": 1.4904,
"step": 410
},
{
"epoch": 1.15,
"learning_rate": 0.009300000000000001,
"loss": 1.516,
"step": 420
},
{
"epoch": 1.17,
"learning_rate": 0.009283333333333334,
"loss": 1.482,
"step": 430
},
{
"epoch": 1.2,
"learning_rate": 0.009266666666666666,
"loss": 1.4909,
"step": 440
},
{
"epoch": 1.23,
"learning_rate": 0.009250000000000001,
"loss": 1.4759,
"step": 450
},
{
"epoch": 1.25,
"learning_rate": 0.009233333333333333,
"loss": 1.4913,
"step": 460
},
{
"epoch": 1.28,
"learning_rate": 0.009216666666666666,
"loss": 1.437,
"step": 470
},
{
"epoch": 1.31,
"learning_rate": 0.0092,
"loss": 1.473,
"step": 480
},
{
"epoch": 1.34,
"learning_rate": 0.009183333333333333,
"loss": 1.4505,
"step": 490
},
{
"epoch": 1.36,
"learning_rate": 0.009166666666666667,
"loss": 1.4748,
"step": 500
},
{
"epoch": 1.39,
"learning_rate": 0.00915,
"loss": 1.487,
"step": 510
},
{
"epoch": 1.42,
"learning_rate": 0.009133333333333334,
"loss": 1.4725,
"step": 520
},
{
"epoch": 1.45,
"learning_rate": 0.009116666666666667,
"loss": 1.4883,
"step": 530
},
{
"epoch": 1.47,
"learning_rate": 0.0091,
"loss": 1.4693,
"step": 540
},
{
"epoch": 1.5,
"learning_rate": 0.009083333333333334,
"loss": 1.4479,
"step": 550
},
{
"epoch": 1.53,
"learning_rate": 0.009066666666666666,
"loss": 1.4638,
"step": 560
},
{
"epoch": 1.55,
"learning_rate": 0.00905,
"loss": 1.4475,
"step": 570
},
{
"epoch": 1.58,
"learning_rate": 0.009033333333333334,
"loss": 1.4789,
"step": 580
},
{
"epoch": 1.61,
"learning_rate": 0.009016666666666666,
"loss": 1.4543,
"step": 590
},
{
"epoch": 1.64,
"learning_rate": 0.009000000000000001,
"loss": 1.471,
"step": 600
},
{
"epoch": 1.66,
"learning_rate": 0.008983333333333333,
"loss": 1.4645,
"step": 610
},
{
"epoch": 1.69,
"learning_rate": 0.008966666666666666,
"loss": 1.4582,
"step": 620
},
{
"epoch": 1.72,
"learning_rate": 0.00895,
"loss": 1.4463,
"step": 630
},
{
"epoch": 1.75,
"learning_rate": 0.008933333333333333,
"loss": 1.4333,
"step": 640
},
{
"epoch": 1.77,
"learning_rate": 0.008916666666666668,
"loss": 1.4296,
"step": 650
},
{
"epoch": 1.8,
"learning_rate": 0.0089,
"loss": 1.4241,
"step": 660
},
{
"epoch": 1.83,
"learning_rate": 0.008883333333333333,
"loss": 1.4399,
"step": 670
},
{
"epoch": 1.85,
"learning_rate": 0.008866666666666667,
"loss": 1.4596,
"step": 680
},
{
"epoch": 1.88,
"learning_rate": 0.00885,
"loss": 1.4629,
"step": 690
},
{
"epoch": 1.91,
"learning_rate": 0.008833333333333334,
"loss": 1.4161,
"step": 700
},
{
"epoch": 1.94,
"learning_rate": 0.008816666666666667,
"loss": 1.4246,
"step": 710
},
{
"epoch": 1.96,
"learning_rate": 0.0088,
"loss": 1.4578,
"step": 720
},
{
"epoch": 1.99,
"learning_rate": 0.008783333333333334,
"loss": 1.4384,
"step": 730
},
{
"epoch": 2.02,
"learning_rate": 0.008766666666666667,
"loss": 1.4659,
"step": 740
},
{
"epoch": 2.05,
"learning_rate": 0.00875,
"loss": 1.419,
"step": 750
},
{
"epoch": 2.07,
"learning_rate": 0.008733333333333333,
"loss": 1.426,
"step": 760
},
{
"epoch": 2.1,
"learning_rate": 0.008716666666666668,
"loss": 1.4152,
"step": 770
},
{
"epoch": 2.13,
"learning_rate": 0.0087,
"loss": 1.4156,
"step": 780
},
{
"epoch": 2.15,
"learning_rate": 0.008683333333333333,
"loss": 1.4278,
"step": 790
},
{
"epoch": 2.18,
"learning_rate": 0.008666666666666668,
"loss": 1.3812,
"step": 800
},
{
"epoch": 2.21,
"learning_rate": 0.00865,
"loss": 1.4269,
"step": 810
},
{
"epoch": 2.24,
"learning_rate": 0.008633333333333333,
"loss": 1.4,
"step": 820
},
{
"epoch": 2.26,
"learning_rate": 0.008616666666666667,
"loss": 1.3871,
"step": 830
},
{
"epoch": 2.29,
"learning_rate": 0.0086,
"loss": 1.4035,
"step": 840
},
{
"epoch": 2.32,
"learning_rate": 0.008583333333333333,
"loss": 1.4027,
"step": 850
},
{
"epoch": 2.35,
"learning_rate": 0.008566666666666667,
"loss": 1.3856,
"step": 860
},
{
"epoch": 2.37,
"learning_rate": 0.00855,
"loss": 1.3858,
"step": 870
},
{
"epoch": 2.4,
"learning_rate": 0.008533333333333334,
"loss": 1.3747,
"step": 880
},
{
"epoch": 2.43,
"learning_rate": 0.008516666666666667,
"loss": 1.3852,
"step": 890
},
{
"epoch": 2.45,
"learning_rate": 0.0085,
"loss": 1.3661,
"step": 900
},
{
"epoch": 2.48,
"learning_rate": 0.008483333333333334,
"loss": 1.4172,
"step": 910
},
{
"epoch": 2.51,
"learning_rate": 0.008466666666666667,
"loss": 1.3853,
"step": 920
},
{
"epoch": 2.54,
"learning_rate": 0.00845,
"loss": 1.4264,
"step": 930
},
{
"epoch": 2.56,
"learning_rate": 0.008433333333333334,
"loss": 1.3923,
"step": 940
},
{
"epoch": 2.59,
"learning_rate": 0.008416666666666668,
"loss": 1.3988,
"step": 950
},
{
"epoch": 2.62,
"learning_rate": 0.0084,
"loss": 1.4021,
"step": 960
},
{
"epoch": 2.65,
"learning_rate": 0.008383333333333335,
"loss": 1.3705,
"step": 970
},
{
"epoch": 2.67,
"learning_rate": 0.008366666666666666,
"loss": 1.3883,
"step": 980
},
{
"epoch": 2.7,
"learning_rate": 0.00835,
"loss": 1.387,
"step": 990
},
{
"epoch": 2.73,
"learning_rate": 0.008333333333333333,
"loss": 1.4285,
"step": 1000
},
{
"epoch": 2.75,
"learning_rate": 0.008316666666666667,
"loss": 1.3744,
"step": 1010
},
{
"epoch": 2.78,
"learning_rate": 0.0083,
"loss": 1.3651,
"step": 1020
},
{
"epoch": 2.81,
"learning_rate": 0.008283333333333334,
"loss": 1.3973,
"step": 1030
},
{
"epoch": 2.84,
"learning_rate": 0.008266666666666667,
"loss": 1.3706,
"step": 1040
},
{
"epoch": 2.86,
"learning_rate": 0.00825,
"loss": 1.3965,
"step": 1050
},
{
"epoch": 2.89,
"learning_rate": 0.008233333333333334,
"loss": 1.4056,
"step": 1060
},
{
"epoch": 2.92,
"learning_rate": 0.008216666666666667,
"loss": 1.384,
"step": 1070
},
{
"epoch": 2.95,
"learning_rate": 0.008199999999999999,
"loss": 1.4167,
"step": 1080
},
{
"epoch": 2.97,
"learning_rate": 0.008183333333333334,
"loss": 1.3812,
"step": 1090
},
{
"epoch": 3.0,
"learning_rate": 0.008166666666666666,
"loss": 1.4042,
"step": 1100
},
{
"epoch": 3.03,
"learning_rate": 0.00815,
"loss": 1.3652,
"step": 1110
},
{
"epoch": 3.05,
"learning_rate": 0.008133333333333334,
"loss": 1.3449,
"step": 1120
},
{
"epoch": 3.08,
"learning_rate": 0.008116666666666666,
"loss": 1.3451,
"step": 1130
},
{
"epoch": 3.11,
"learning_rate": 0.008100000000000001,
"loss": 1.3637,
"step": 1140
},
{
"epoch": 3.14,
"learning_rate": 0.008083333333333333,
"loss": 1.3631,
"step": 1150
},
{
"epoch": 3.16,
"learning_rate": 0.008066666666666666,
"loss": 1.3338,
"step": 1160
},
{
"epoch": 3.19,
"learning_rate": 0.00805,
"loss": 1.3459,
"step": 1170
},
{
"epoch": 3.22,
"learning_rate": 0.008033333333333333,
"loss": 1.3329,
"step": 1180
},
{
"epoch": 3.25,
"learning_rate": 0.008016666666666667,
"loss": 1.3197,
"step": 1190
},
{
"epoch": 3.27,
"learning_rate": 0.008,
"loss": 1.3702,
"step": 1200
},
{
"epoch": 3.3,
"learning_rate": 0.007983333333333334,
"loss": 1.3307,
"step": 1210
},
{
"epoch": 3.33,
"learning_rate": 0.007966666666666667,
"loss": 1.3756,
"step": 1220
},
{
"epoch": 3.35,
"learning_rate": 0.00795,
"loss": 1.3751,
"step": 1230
},
{
"epoch": 3.38,
"learning_rate": 0.007933333333333334,
"loss": 1.3888,
"step": 1240
},
{
"epoch": 3.41,
"learning_rate": 0.007916666666666666,
"loss": 1.3574,
"step": 1250
},
{
"epoch": 3.44,
"learning_rate": 0.0079,
"loss": 1.3884,
"step": 1260
},
{
"epoch": 3.46,
"learning_rate": 0.007883333333333334,
"loss": 1.3299,
"step": 1270
},
{
"epoch": 3.49,
"learning_rate": 0.007866666666666666,
"loss": 1.3797,
"step": 1280
},
{
"epoch": 3.52,
"learning_rate": 0.007850000000000001,
"loss": 1.3563,
"step": 1290
},
{
"epoch": 3.55,
"learning_rate": 0.007833333333333333,
"loss": 1.3869,
"step": 1300
},
{
"epoch": 3.57,
"learning_rate": 0.007816666666666666,
"loss": 1.3663,
"step": 1310
},
{
"epoch": 3.6,
"learning_rate": 0.0078000000000000005,
"loss": 1.3584,
"step": 1320
},
{
"epoch": 3.63,
"learning_rate": 0.007783333333333333,
"loss": 1.3343,
"step": 1330
},
{
"epoch": 3.65,
"learning_rate": 0.0077666666666666665,
"loss": 1.3715,
"step": 1340
},
{
"epoch": 3.68,
"learning_rate": 0.007750000000000001,
"loss": 1.3298,
"step": 1350
},
{
"epoch": 3.71,
"learning_rate": 0.007733333333333333,
"loss": 1.3384,
"step": 1360
},
{
"epoch": 3.74,
"learning_rate": 0.007716666666666666,
"loss": 1.3652,
"step": 1370
},
{
"epoch": 3.76,
"learning_rate": 0.0077,
"loss": 1.3717,
"step": 1380
},
{
"epoch": 3.79,
"learning_rate": 0.007683333333333334,
"loss": 1.3568,
"step": 1390
},
{
"epoch": 3.82,
"learning_rate": 0.007666666666666667,
"loss": 1.3639,
"step": 1400
},
{
"epoch": 3.85,
"learning_rate": 0.0076500000000000005,
"loss": 1.3191,
"step": 1410
},
{
"epoch": 3.87,
"learning_rate": 0.007633333333333333,
"loss": 1.3142,
"step": 1420
},
{
"epoch": 3.9,
"learning_rate": 0.007616666666666667,
"loss": 1.3456,
"step": 1430
},
{
"epoch": 3.93,
"learning_rate": 0.0076,
"loss": 1.3367,
"step": 1440
},
{
"epoch": 3.95,
"learning_rate": 0.007583333333333333,
"loss": 1.3529,
"step": 1450
},
{
"epoch": 3.98,
"learning_rate": 0.007566666666666667,
"loss": 1.3024,
"step": 1460
},
{
"epoch": 4.01,
"learning_rate": 0.00755,
"loss": 1.3387,
"step": 1470
},
{
"epoch": 4.04,
"learning_rate": 0.007533333333333333,
"loss": 1.3111,
"step": 1480
},
{
"epoch": 4.06,
"learning_rate": 0.007516666666666667,
"loss": 1.2992,
"step": 1490
},
{
"epoch": 4.09,
"learning_rate": 0.0075,
"loss": 1.3248,
"step": 1500
},
{
"epoch": 4.12,
"learning_rate": 0.007483333333333333,
"loss": 1.3116,
"step": 1510
},
{
"epoch": 4.15,
"learning_rate": 0.0074666666666666675,
"loss": 1.3163,
"step": 1520
},
{
"epoch": 4.17,
"learning_rate": 0.00745,
"loss": 1.3206,
"step": 1530
},
{
"epoch": 4.2,
"learning_rate": 0.0074333333333333335,
"loss": 1.3048,
"step": 1540
},
{
"epoch": 4.23,
"learning_rate": 0.007416666666666667,
"loss": 1.3067,
"step": 1550
},
{
"epoch": 4.26,
"learning_rate": 0.0074,
"loss": 1.311,
"step": 1560
},
{
"epoch": 4.28,
"learning_rate": 0.007383333333333333,
"loss": 1.3216,
"step": 1570
},
{
"epoch": 4.31,
"learning_rate": 0.007366666666666667,
"loss": 1.3593,
"step": 1580
},
{
"epoch": 4.34,
"learning_rate": 0.00735,
"loss": 1.3173,
"step": 1590
},
{
"epoch": 4.36,
"learning_rate": 0.007333333333333333,
"loss": 1.3334,
"step": 1600
},
{
"epoch": 4.39,
"learning_rate": 0.007316666666666667,
"loss": 1.2942,
"step": 1610
},
{
"epoch": 4.42,
"learning_rate": 0.0073,
"loss": 1.3168,
"step": 1620
},
{
"epoch": 4.45,
"learning_rate": 0.007283333333333334,
"loss": 1.3196,
"step": 1630
},
{
"epoch": 4.47,
"learning_rate": 0.007266666666666667,
"loss": 1.2944,
"step": 1640
},
{
"epoch": 4.5,
"learning_rate": 0.0072499999999999995,
"loss": 1.3114,
"step": 1650
},
{
"epoch": 4.53,
"learning_rate": 0.007233333333333334,
"loss": 1.313,
"step": 1660
},
{
"epoch": 4.56,
"learning_rate": 0.007216666666666667,
"loss": 1.3111,
"step": 1670
},
{
"epoch": 4.58,
"learning_rate": 0.0072,
"loss": 1.3006,
"step": 1680
},
{
"epoch": 4.61,
"learning_rate": 0.007183333333333334,
"loss": 1.2912,
"step": 1690
},
{
"epoch": 4.64,
"learning_rate": 0.007166666666666667,
"loss": 1.3316,
"step": 1700
},
{
"epoch": 4.66,
"learning_rate": 0.00715,
"loss": 1.2703,
"step": 1710
},
{
"epoch": 4.69,
"learning_rate": 0.0071333333333333335,
"loss": 1.3171,
"step": 1720
},
{
"epoch": 4.72,
"learning_rate": 0.007116666666666667,
"loss": 1.3396,
"step": 1730
},
{
"epoch": 4.75,
"learning_rate": 0.0070999999999999995,
"loss": 1.3077,
"step": 1740
},
{
"epoch": 4.77,
"learning_rate": 0.007083333333333334,
"loss": 1.3081,
"step": 1750
},
{
"epoch": 4.8,
"learning_rate": 0.007066666666666666,
"loss": 1.3006,
"step": 1760
},
{
"epoch": 4.83,
"learning_rate": 0.00705,
"loss": 1.3088,
"step": 1770
},
{
"epoch": 4.86,
"learning_rate": 0.007033333333333334,
"loss": 1.3215,
"step": 1780
},
{
"epoch": 4.88,
"learning_rate": 0.007016666666666667,
"loss": 1.3437,
"step": 1790
},
{
"epoch": 4.91,
"learning_rate": 0.006999999999999999,
"loss": 1.3399,
"step": 1800
},
{
"epoch": 4.94,
"learning_rate": 0.006983333333333334,
"loss": 1.3443,
"step": 1810
},
{
"epoch": 4.96,
"learning_rate": 0.006966666666666667,
"loss": 1.3599,
"step": 1820
},
{
"epoch": 4.99,
"learning_rate": 0.00695,
"loss": 1.3384,
"step": 1830
},
{
"epoch": 5.02,
"learning_rate": 0.006933333333333334,
"loss": 1.2999,
"step": 1840
},
{
"epoch": 5.05,
"learning_rate": 0.0069166666666666664,
"loss": 1.3106,
"step": 1850
},
{
"epoch": 5.07,
"learning_rate": 0.0069,
"loss": 1.2915,
"step": 1860
},
{
"epoch": 5.1,
"learning_rate": 0.006883333333333333,
"loss": 1.302,
"step": 1870
},
{
"epoch": 5.13,
"learning_rate": 0.006866666666666667,
"loss": 1.2971,
"step": 1880
},
{
"epoch": 5.16,
"learning_rate": 0.006850000000000001,
"loss": 1.3054,
"step": 1890
},
{
"epoch": 5.18,
"learning_rate": 0.006833333333333334,
"loss": 1.2756,
"step": 1900
},
{
"epoch": 5.21,
"learning_rate": 0.006816666666666666,
"loss": 1.3053,
"step": 1910
},
{
"epoch": 5.24,
"learning_rate": 0.0068000000000000005,
"loss": 1.2852,
"step": 1920
},
{
"epoch": 5.26,
"learning_rate": 0.006783333333333334,
"loss": 1.2803,
"step": 1930
},
{
"epoch": 5.29,
"learning_rate": 0.0067666666666666665,
"loss": 1.2732,
"step": 1940
},
{
"epoch": 5.32,
"learning_rate": 0.006750000000000001,
"loss": 1.3025,
"step": 1950
},
{
"epoch": 5.35,
"learning_rate": 0.006733333333333333,
"loss": 1.3013,
"step": 1960
},
{
"epoch": 5.37,
"learning_rate": 0.006716666666666667,
"loss": 1.2941,
"step": 1970
},
{
"epoch": 5.4,
"learning_rate": 0.0067,
"loss": 1.2812,
"step": 1980
},
{
"epoch": 5.43,
"learning_rate": 0.006683333333333334,
"loss": 1.2955,
"step": 1990
},
{
"epoch": 5.46,
"learning_rate": 0.006666666666666666,
"loss": 1.2704,
"step": 2000
},
{
"epoch": 5.48,
"learning_rate": 0.0066500000000000005,
"loss": 1.2579,
"step": 2010
},
{
"epoch": 5.51,
"learning_rate": 0.006633333333333333,
"loss": 1.3084,
"step": 2020
},
{
"epoch": 5.54,
"learning_rate": 0.0066166666666666665,
"loss": 1.2913,
"step": 2030
},
{
"epoch": 5.56,
"learning_rate": 0.006600000000000001,
"loss": 1.2759,
"step": 2040
},
{
"epoch": 5.59,
"learning_rate": 0.006583333333333333,
"loss": 1.2985,
"step": 2050
},
{
"epoch": 5.62,
"learning_rate": 0.006566666666666666,
"loss": 1.2782,
"step": 2060
},
{
"epoch": 5.65,
"learning_rate": 0.00655,
"loss": 1.3069,
"step": 2070
},
{
"epoch": 5.67,
"learning_rate": 0.006533333333333334,
"loss": 1.3028,
"step": 2080
},
{
"epoch": 5.7,
"learning_rate": 0.006516666666666666,
"loss": 1.3198,
"step": 2090
},
{
"epoch": 5.73,
"learning_rate": 0.006500000000000001,
"loss": 1.3124,
"step": 2100
},
{
"epoch": 5.76,
"learning_rate": 0.006483333333333333,
"loss": 1.2651,
"step": 2110
},
{
"epoch": 5.78,
"learning_rate": 0.006466666666666667,
"loss": 1.2844,
"step": 2120
},
{
"epoch": 5.81,
"learning_rate": 0.00645,
"loss": 1.2699,
"step": 2130
},
{
"epoch": 5.84,
"learning_rate": 0.0064333333333333334,
"loss": 1.2539,
"step": 2140
},
{
"epoch": 5.86,
"learning_rate": 0.006416666666666668,
"loss": 1.2651,
"step": 2150
},
{
"epoch": 5.89,
"learning_rate": 0.0064,
"loss": 1.2798,
"step": 2160
},
{
"epoch": 5.92,
"learning_rate": 0.006383333333333333,
"loss": 1.2872,
"step": 2170
},
{
"epoch": 5.95,
"learning_rate": 0.006366666666666667,
"loss": 1.2785,
"step": 2180
},
{
"epoch": 5.97,
"learning_rate": 0.006350000000000001,
"loss": 1.2703,
"step": 2190
},
{
"epoch": 6.0,
"learning_rate": 0.006333333333333333,
"loss": 1.3233,
"step": 2200
},
{
"epoch": 6.03,
"learning_rate": 0.0063166666666666675,
"loss": 1.2491,
"step": 2210
},
{
"epoch": 6.06,
"learning_rate": 0.0063,
"loss": 1.2707,
"step": 2220
},
{
"epoch": 6.08,
"learning_rate": 0.0062833333333333335,
"loss": 1.2638,
"step": 2230
},
{
"epoch": 6.11,
"learning_rate": 0.006266666666666667,
"loss": 1.231,
"step": 2240
},
{
"epoch": 6.14,
"learning_rate": 0.00625,
"loss": 1.2711,
"step": 2250
},
{
"epoch": 6.16,
"learning_rate": 0.006233333333333333,
"loss": 1.2418,
"step": 2260
},
{
"epoch": 6.19,
"learning_rate": 0.006216666666666667,
"loss": 1.2962,
"step": 2270
},
{
"epoch": 6.22,
"learning_rate": 0.0062,
"loss": 1.2507,
"step": 2280
},
{
"epoch": 6.25,
"learning_rate": 0.006183333333333333,
"loss": 1.2309,
"step": 2290
},
{
"epoch": 6.27,
"learning_rate": 0.0061666666666666675,
"loss": 1.2618,
"step": 2300
},
{
"epoch": 6.3,
"learning_rate": 0.00615,
"loss": 1.2637,
"step": 2310
},
{
"epoch": 6.33,
"learning_rate": 0.006133333333333333,
"loss": 1.2739,
"step": 2320
},
{
"epoch": 6.36,
"learning_rate": 0.006116666666666667,
"loss": 1.2583,
"step": 2330
},
{
"epoch": 6.38,
"learning_rate": 0.0061,
"loss": 1.2403,
"step": 2340
},
{
"epoch": 6.41,
"learning_rate": 0.006083333333333333,
"loss": 1.2758,
"step": 2350
},
{
"epoch": 6.44,
"learning_rate": 0.006066666666666667,
"loss": 1.2781,
"step": 2360
},
{
"epoch": 6.46,
"learning_rate": 0.00605,
"loss": 1.2946,
"step": 2370
},
{
"epoch": 6.49,
"learning_rate": 0.006033333333333334,
"loss": 1.2583,
"step": 2380
},
{
"epoch": 6.52,
"learning_rate": 0.006016666666666667,
"loss": 1.2502,
"step": 2390
},
{
"epoch": 6.55,
"learning_rate": 0.006,
"loss": 1.2383,
"step": 2400
},
{
"epoch": 6.57,
"learning_rate": 0.0059833333333333336,
"loss": 1.2734,
"step": 2410
},
{
"epoch": 6.6,
"learning_rate": 0.005966666666666667,
"loss": 1.2796,
"step": 2420
},
{
"epoch": 6.63,
"learning_rate": 0.0059499999999999996,
"loss": 1.2581,
"step": 2430
},
{
"epoch": 6.66,
"learning_rate": 0.005933333333333334,
"loss": 1.2437,
"step": 2440
},
{
"epoch": 6.68,
"learning_rate": 0.005916666666666667,
"loss": 1.246,
"step": 2450
},
{
"epoch": 6.71,
"learning_rate": 0.0059,
"loss": 1.2532,
"step": 2460
},
{
"epoch": 6.74,
"learning_rate": 0.005883333333333334,
"loss": 1.2381,
"step": 2470
},
{
"epoch": 6.76,
"learning_rate": 0.005866666666666667,
"loss": 1.2651,
"step": 2480
},
{
"epoch": 6.79,
"learning_rate": 0.00585,
"loss": 1.2934,
"step": 2490
},
{
"epoch": 6.82,
"learning_rate": 0.005833333333333334,
"loss": 1.277,
"step": 2500
},
{
"epoch": 6.85,
"learning_rate": 0.005816666666666667,
"loss": 1.2479,
"step": 2510
},
{
"epoch": 6.87,
"learning_rate": 0.0058,
"loss": 1.273,
"step": 2520
},
{
"epoch": 6.9,
"learning_rate": 0.005783333333333334,
"loss": 1.2727,
"step": 2530
},
{
"epoch": 6.93,
"learning_rate": 0.0057666666666666665,
"loss": 1.286,
"step": 2540
},
{
"epoch": 6.96,
"learning_rate": 0.00575,
"loss": 1.2298,
"step": 2550
},
{
"epoch": 6.98,
"learning_rate": 0.005733333333333333,
"loss": 1.2762,
"step": 2560
},
{
"epoch": 7.01,
"learning_rate": 0.005716666666666667,
"loss": 1.2645,
"step": 2570
},
{
"epoch": 7.04,
"learning_rate": 0.005699999999999999,
"loss": 1.2356,
"step": 2580
},
{
"epoch": 7.06,
"learning_rate": 0.005683333333333334,
"loss": 1.2279,
"step": 2590
},
{
"epoch": 7.09,
"learning_rate": 0.005666666666666666,
"loss": 1.2303,
"step": 2600
},
{
"epoch": 7.12,
"learning_rate": 0.00565,
"loss": 1.235,
"step": 2610
},
{
"epoch": 7.15,
"learning_rate": 0.005633333333333334,
"loss": 1.2664,
"step": 2620
},
{
"epoch": 7.17,
"learning_rate": 0.0056166666666666665,
"loss": 1.26,
"step": 2630
},
{
"epoch": 7.2,
"learning_rate": 0.005600000000000001,
"loss": 1.226,
"step": 2640
},
{
"epoch": 7.23,
"learning_rate": 0.005583333333333333,
"loss": 1.2351,
"step": 2650
},
{
"epoch": 7.26,
"learning_rate": 0.005566666666666667,
"loss": 1.2077,
"step": 2660
},
{
"epoch": 7.28,
"learning_rate": 0.00555,
"loss": 1.2163,
"step": 2670
},
{
"epoch": 7.31,
"learning_rate": 0.005533333333333334,
"loss": 1.2576,
"step": 2680
},
{
"epoch": 7.34,
"learning_rate": 0.005516666666666666,
"loss": 1.2333,
"step": 2690
},
{
"epoch": 7.36,
"learning_rate": 0.0055000000000000005,
"loss": 1.2196,
"step": 2700
},
{
"epoch": 7.39,
"learning_rate": 0.005483333333333333,
"loss": 1.2387,
"step": 2710
},
{
"epoch": 7.42,
"learning_rate": 0.0054666666666666665,
"loss": 1.2607,
"step": 2720
},
{
"epoch": 7.45,
"learning_rate": 0.005450000000000001,
"loss": 1.2213,
"step": 2730
},
{
"epoch": 7.47,
"learning_rate": 0.005433333333333333,
"loss": 1.2546,
"step": 2740
},
{
"epoch": 7.5,
"learning_rate": 0.005416666666666666,
"loss": 1.2289,
"step": 2750
},
{
"epoch": 7.53,
"learning_rate": 0.0054,
"loss": 1.247,
"step": 2760
},
{
"epoch": 7.56,
"learning_rate": 0.005383333333333334,
"loss": 1.238,
"step": 2770
},
{
"epoch": 7.58,
"learning_rate": 0.005366666666666666,
"loss": 1.2383,
"step": 2780
},
{
"epoch": 7.61,
"learning_rate": 0.005350000000000001,
"loss": 1.2337,
"step": 2790
},
{
"epoch": 7.64,
"learning_rate": 0.005333333333333333,
"loss": 1.2686,
"step": 2800
},
{
"epoch": 7.66,
"learning_rate": 0.005316666666666667,
"loss": 1.2249,
"step": 2810
},
{
"epoch": 7.69,
"learning_rate": 0.0053,
"loss": 1.27,
"step": 2820
},
{
"epoch": 7.72,
"learning_rate": 0.0052833333333333335,
"loss": 1.2176,
"step": 2830
},
{
"epoch": 7.75,
"learning_rate": 0.005266666666666666,
"loss": 1.251,
"step": 2840
},
{
"epoch": 7.77,
"learning_rate": 0.00525,
"loss": 1.2011,
"step": 2850
},
{
"epoch": 7.8,
"learning_rate": 0.005233333333333333,
"loss": 1.2397,
"step": 2860
},
{
"epoch": 7.83,
"learning_rate": 0.005216666666666666,
"loss": 1.2578,
"step": 2870
},
{
"epoch": 7.86,
"learning_rate": 0.005200000000000001,
"loss": 1.2616,
"step": 2880
},
{
"epoch": 7.88,
"learning_rate": 0.005183333333333333,
"loss": 1.2411,
"step": 2890
},
{
"epoch": 7.91,
"learning_rate": 0.0051666666666666675,
"loss": 1.2729,
"step": 2900
},
{
"epoch": 7.94,
"learning_rate": 0.00515,
"loss": 1.2464,
"step": 2910
},
{
"epoch": 7.96,
"learning_rate": 0.0051333333333333335,
"loss": 1.246,
"step": 2920
},
{
"epoch": 7.99,
"learning_rate": 0.005116666666666667,
"loss": 1.2711,
"step": 2930
},
{
"epoch": 8.02,
"learning_rate": 0.0051,
"loss": 1.2223,
"step": 2940
},
{
"epoch": 8.05,
"learning_rate": 0.005083333333333333,
"loss": 1.264,
"step": 2950
},
{
"epoch": 8.07,
"learning_rate": 0.005066666666666667,
"loss": 1.2479,
"step": 2960
},
{
"epoch": 8.1,
"learning_rate": 0.00505,
"loss": 1.2029,
"step": 2970
},
{
"epoch": 8.13,
"learning_rate": 0.005033333333333333,
"loss": 1.2385,
"step": 2980
},
{
"epoch": 8.16,
"learning_rate": 0.0050166666666666675,
"loss": 1.2152,
"step": 2990
},
{
"epoch": 8.18,
"learning_rate": 0.005,
"loss": 1.2252,
"step": 3000
},
{
"epoch": 8.21,
"learning_rate": 0.0049833333333333335,
"loss": 1.2047,
"step": 3010
},
{
"epoch": 8.24,
"learning_rate": 0.004966666666666667,
"loss": 1.2605,
"step": 3020
},
{
"epoch": 8.26,
"learning_rate": 0.00495,
"loss": 1.2015,
"step": 3030
},
{
"epoch": 8.29,
"learning_rate": 0.004933333333333334,
"loss": 1.2061,
"step": 3040
},
{
"epoch": 8.32,
"learning_rate": 0.004916666666666666,
"loss": 1.2198,
"step": 3050
},
{
"epoch": 8.35,
"learning_rate": 0.0049,
"loss": 1.2278,
"step": 3060
},
{
"epoch": 8.37,
"learning_rate": 0.004883333333333333,
"loss": 1.2081,
"step": 3070
},
{
"epoch": 8.4,
"learning_rate": 0.004866666666666667,
"loss": 1.2069,
"step": 3080
},
{
"epoch": 8.43,
"learning_rate": 0.00485,
"loss": 1.252,
"step": 3090
},
{
"epoch": 8.46,
"learning_rate": 0.004833333333333334,
"loss": 1.2439,
"step": 3100
},
{
"epoch": 8.48,
"learning_rate": 0.004816666666666667,
"loss": 1.2309,
"step": 3110
},
{
"epoch": 8.51,
"learning_rate": 0.0048,
"loss": 1.2208,
"step": 3120
},
{
"epoch": 8.54,
"learning_rate": 0.004783333333333333,
"loss": 1.237,
"step": 3130
},
{
"epoch": 8.56,
"learning_rate": 0.004766666666666667,
"loss": 1.2407,
"step": 3140
},
{
"epoch": 8.59,
"learning_rate": 0.00475,
"loss": 1.1824,
"step": 3150
},
{
"epoch": 8.62,
"learning_rate": 0.004733333333333333,
"loss": 1.2495,
"step": 3160
},
{
"epoch": 8.65,
"learning_rate": 0.004716666666666667,
"loss": 1.2273,
"step": 3170
},
{
"epoch": 8.67,
"learning_rate": 0.0047,
"loss": 1.2432,
"step": 3180
},
{
"epoch": 8.7,
"learning_rate": 0.004683333333333334,
"loss": 1.2071,
"step": 3190
},
{
"epoch": 8.73,
"learning_rate": 0.004666666666666667,
"loss": 1.2083,
"step": 3200
},
{
"epoch": 8.76,
"learning_rate": 0.0046500000000000005,
"loss": 1.2195,
"step": 3210
},
{
"epoch": 8.78,
"learning_rate": 0.004633333333333333,
"loss": 1.2086,
"step": 3220
},
{
"epoch": 8.81,
"learning_rate": 0.0046166666666666665,
"loss": 1.2168,
"step": 3230
},
{
"epoch": 8.84,
"learning_rate": 0.0046,
"loss": 1.2131,
"step": 3240
},
{
"epoch": 8.86,
"learning_rate": 0.004583333333333333,
"loss": 1.2005,
"step": 3250
},
{
"epoch": 8.89,
"learning_rate": 0.004566666666666667,
"loss": 1.2445,
"step": 3260
},
{
"epoch": 8.92,
"learning_rate": 0.00455,
"loss": 1.2001,
"step": 3270
},
{
"epoch": 8.95,
"learning_rate": 0.004533333333333333,
"loss": 1.234,
"step": 3280
},
{
"epoch": 8.97,
"learning_rate": 0.004516666666666667,
"loss": 1.2456,
"step": 3290
},
{
"epoch": 9.0,
"learning_rate": 0.0045000000000000005,
"loss": 1.2301,
"step": 3300
},
{
"epoch": 9.03,
"learning_rate": 0.004483333333333333,
"loss": 1.1701,
"step": 3310
},
{
"epoch": 9.06,
"learning_rate": 0.0044666666666666665,
"loss": 1.2109,
"step": 3320
},
{
"epoch": 9.08,
"learning_rate": 0.00445,
"loss": 1.1927,
"step": 3330
},
{
"epoch": 9.11,
"learning_rate": 0.004433333333333333,
"loss": 1.1943,
"step": 3340
},
{
"epoch": 9.14,
"learning_rate": 0.004416666666666667,
"loss": 1.2431,
"step": 3350
},
{
"epoch": 9.16,
"learning_rate": 0.0044,
"loss": 1.2092,
"step": 3360
},
{
"epoch": 9.19,
"learning_rate": 0.004383333333333334,
"loss": 1.2055,
"step": 3370
},
{
"epoch": 9.22,
"learning_rate": 0.004366666666666666,
"loss": 1.2218,
"step": 3380
},
{
"epoch": 9.25,
"learning_rate": 0.00435,
"loss": 1.2198,
"step": 3390
},
{
"epoch": 9.27,
"learning_rate": 0.004333333333333334,
"loss": 1.2108,
"step": 3400
},
{
"epoch": 9.3,
"learning_rate": 0.004316666666666667,
"loss": 1.1913,
"step": 3410
},
{
"epoch": 9.33,
"learning_rate": 0.0043,
"loss": 1.18,
"step": 3420
},
{
"epoch": 9.36,
"learning_rate": 0.0042833333333333334,
"loss": 1.1824,
"step": 3430
},
{
"epoch": 9.38,
"learning_rate": 0.004266666666666667,
"loss": 1.1856,
"step": 3440
},
{
"epoch": 9.41,
"learning_rate": 0.00425,
"loss": 1.2179,
"step": 3450
},
{
"epoch": 9.44,
"learning_rate": 0.004233333333333334,
"loss": 1.2013,
"step": 3460
},
{
"epoch": 9.46,
"learning_rate": 0.004216666666666667,
"loss": 1.1588,
"step": 3470
},
{
"epoch": 9.49,
"learning_rate": 0.0042,
"loss": 1.1924,
"step": 3480
},
{
"epoch": 9.52,
"learning_rate": 0.004183333333333333,
"loss": 1.2153,
"step": 3490
},
{
"epoch": 9.55,
"learning_rate": 0.004166666666666667,
"loss": 1.2107,
"step": 3500
},
{
"epoch": 9.57,
"learning_rate": 0.00415,
"loss": 1.253,
"step": 3510
},
{
"epoch": 9.6,
"learning_rate": 0.0041333333333333335,
"loss": 1.237,
"step": 3520
},
{
"epoch": 9.63,
"learning_rate": 0.004116666666666667,
"loss": 1.2135,
"step": 3530
},
{
"epoch": 9.66,
"learning_rate": 0.0040999999999999995,
"loss": 1.2249,
"step": 3540
},
{
"epoch": 9.68,
"learning_rate": 0.004083333333333333,
"loss": 1.1945,
"step": 3550
},
{
"epoch": 9.71,
"learning_rate": 0.004066666666666667,
"loss": 1.1974,
"step": 3560
},
{
"epoch": 9.74,
"learning_rate": 0.004050000000000001,
"loss": 1.2021,
"step": 3570
},
{
"epoch": 9.76,
"learning_rate": 0.004033333333333333,
"loss": 1.2518,
"step": 3580
},
{
"epoch": 9.79,
"learning_rate": 0.004016666666666667,
"loss": 1.2144,
"step": 3590
},
{
"epoch": 9.82,
"learning_rate": 0.004,
"loss": 1.1988,
"step": 3600
},
{
"epoch": 9.85,
"learning_rate": 0.0039833333333333335,
"loss": 1.1958,
"step": 3610
},
{
"epoch": 9.87,
"learning_rate": 0.003966666666666667,
"loss": 1.2396,
"step": 3620
},
{
"epoch": 9.9,
"learning_rate": 0.00395,
"loss": 1.2122,
"step": 3630
},
{
"epoch": 9.93,
"learning_rate": 0.003933333333333333,
"loss": 1.2182,
"step": 3640
},
{
"epoch": 9.96,
"learning_rate": 0.003916666666666666,
"loss": 1.2054,
"step": 3650
},
{
"epoch": 9.98,
"learning_rate": 0.0039000000000000003,
"loss": 1.2311,
"step": 3660
},
{
"epoch": 10.01,
"learning_rate": 0.0038833333333333333,
"loss": 1.2083,
"step": 3670
},
{
"epoch": 10.04,
"learning_rate": 0.0038666666666666667,
"loss": 1.2011,
"step": 3680
},
{
"epoch": 10.06,
"learning_rate": 0.00385,
"loss": 1.1834,
"step": 3690
},
{
"epoch": 10.09,
"learning_rate": 0.0038333333333333336,
"loss": 1.1674,
"step": 3700
},
{
"epoch": 10.12,
"learning_rate": 0.0038166666666666666,
"loss": 1.1961,
"step": 3710
},
{
"epoch": 10.15,
"learning_rate": 0.0038,
"loss": 1.1738,
"step": 3720
},
{
"epoch": 10.17,
"learning_rate": 0.0037833333333333334,
"loss": 1.2389,
"step": 3730
},
{
"epoch": 10.2,
"learning_rate": 0.0037666666666666664,
"loss": 1.1866,
"step": 3740
},
{
"epoch": 10.23,
"learning_rate": 0.00375,
"loss": 1.1796,
"step": 3750
},
{
"epoch": 10.26,
"learning_rate": 0.0037333333333333337,
"loss": 1.1713,
"step": 3760
},
{
"epoch": 10.28,
"learning_rate": 0.0037166666666666667,
"loss": 1.1805,
"step": 3770
},
{
"epoch": 10.31,
"learning_rate": 0.0037,
"loss": 1.2036,
"step": 3780
},
{
"epoch": 10.34,
"learning_rate": 0.0036833333333333336,
"loss": 1.1736,
"step": 3790
},
{
"epoch": 10.36,
"learning_rate": 0.0036666666666666666,
"loss": 1.191,
"step": 3800
},
{
"epoch": 10.39,
"learning_rate": 0.00365,
"loss": 1.1986,
"step": 3810
},
{
"epoch": 10.42,
"learning_rate": 0.0036333333333333335,
"loss": 1.1792,
"step": 3820
},
{
"epoch": 10.45,
"learning_rate": 0.003616666666666667,
"loss": 1.1777,
"step": 3830
},
{
"epoch": 10.47,
"learning_rate": 0.0036,
"loss": 1.2089,
"step": 3840
},
{
"epoch": 10.5,
"learning_rate": 0.0035833333333333333,
"loss": 1.1686,
"step": 3850
},
{
"epoch": 10.53,
"learning_rate": 0.0035666666666666668,
"loss": 1.1971,
"step": 3860
},
{
"epoch": 10.56,
"learning_rate": 0.0035499999999999998,
"loss": 1.2036,
"step": 3870
},
{
"epoch": 10.58,
"learning_rate": 0.003533333333333333,
"loss": 1.2016,
"step": 3880
},
{
"epoch": 10.61,
"learning_rate": 0.003516666666666667,
"loss": 1.1825,
"step": 3890
},
{
"epoch": 10.64,
"learning_rate": 0.0034999999999999996,
"loss": 1.168,
"step": 3900
},
{
"epoch": 10.66,
"learning_rate": 0.0034833333333333335,
"loss": 1.1884,
"step": 3910
},
{
"epoch": 10.69,
"learning_rate": 0.003466666666666667,
"loss": 1.1809,
"step": 3920
},
{
"epoch": 10.72,
"learning_rate": 0.00345,
"loss": 1.202,
"step": 3930
},
{
"epoch": 10.75,
"learning_rate": 0.0034333333333333334,
"loss": 1.1921,
"step": 3940
},
{
"epoch": 10.77,
"learning_rate": 0.003416666666666667,
"loss": 1.1979,
"step": 3950
},
{
"epoch": 10.8,
"learning_rate": 0.0034000000000000002,
"loss": 1.1936,
"step": 3960
},
{
"epoch": 10.83,
"learning_rate": 0.0033833333333333332,
"loss": 1.1788,
"step": 3970
},
{
"epoch": 10.86,
"learning_rate": 0.0033666666666666667,
"loss": 1.1947,
"step": 3980
},
{
"epoch": 10.88,
"learning_rate": 0.00335,
"loss": 1.1941,
"step": 3990
},
{
"epoch": 10.91,
"learning_rate": 0.003333333333333333,
"loss": 1.1943,
"step": 4000
},
{
"epoch": 10.94,
"learning_rate": 0.0033166666666666665,
"loss": 1.2392,
"step": 4010
},
{
"epoch": 10.96,
"learning_rate": 0.0033000000000000004,
"loss": 1.2077,
"step": 4020
},
{
"epoch": 10.99,
"learning_rate": 0.003283333333333333,
"loss": 1.233,
"step": 4030
},
{
"epoch": 11.02,
"learning_rate": 0.003266666666666667,
"loss": 1.1922,
"step": 4040
},
{
"epoch": 11.05,
"learning_rate": 0.0032500000000000003,
"loss": 1.2214,
"step": 4050
},
{
"epoch": 11.07,
"learning_rate": 0.0032333333333333333,
"loss": 1.1711,
"step": 4060
},
{
"epoch": 11.1,
"learning_rate": 0.0032166666666666667,
"loss": 1.1699,
"step": 4070
},
{
"epoch": 11.13,
"learning_rate": 0.0032,
"loss": 1.1665,
"step": 4080
},
{
"epoch": 11.16,
"learning_rate": 0.0031833333333333336,
"loss": 1.1659,
"step": 4090
},
{
"epoch": 11.18,
"learning_rate": 0.0031666666666666666,
"loss": 1.1595,
"step": 4100
},
{
"epoch": 11.21,
"learning_rate": 0.00315,
"loss": 1.1981,
"step": 4110
},
{
"epoch": 11.24,
"learning_rate": 0.0031333333333333335,
"loss": 1.171,
"step": 4120
},
{
"epoch": 11.26,
"learning_rate": 0.0031166666666666665,
"loss": 1.2047,
"step": 4130
},
{
"epoch": 11.29,
"learning_rate": 0.0031,
"loss": 1.1857,
"step": 4140
},
{
"epoch": 11.32,
"learning_rate": 0.0030833333333333338,
"loss": 1.163,
"step": 4150
},
{
"epoch": 11.35,
"learning_rate": 0.0030666666666666663,
"loss": 1.2034,
"step": 4160
},
{
"epoch": 11.37,
"learning_rate": 0.00305,
"loss": 1.1832,
"step": 4170
},
{
"epoch": 11.4,
"learning_rate": 0.0030333333333333336,
"loss": 1.1893,
"step": 4180
},
{
"epoch": 11.43,
"learning_rate": 0.003016666666666667,
"loss": 1.1873,
"step": 4190
},
{
"epoch": 11.46,
"learning_rate": 0.003,
"loss": 1.1887,
"step": 4200
},
{
"epoch": 11.48,
"learning_rate": 0.0029833333333333335,
"loss": 1.1644,
"step": 4210
},
{
"epoch": 11.51,
"learning_rate": 0.002966666666666667,
"loss": 1.1813,
"step": 4220
},
{
"epoch": 11.54,
"learning_rate": 0.00295,
"loss": 1.1663,
"step": 4230
},
{
"epoch": 11.56,
"learning_rate": 0.0029333333333333334,
"loss": 1.2023,
"step": 4240
},
{
"epoch": 11.59,
"learning_rate": 0.002916666666666667,
"loss": 1.1473,
"step": 4250
},
{
"epoch": 11.62,
"learning_rate": 0.0029,
"loss": 1.182,
"step": 4260
},
{
"epoch": 11.65,
"learning_rate": 0.0028833333333333332,
"loss": 1.1548,
"step": 4270
},
{
"epoch": 11.67,
"learning_rate": 0.0028666666666666667,
"loss": 1.1754,
"step": 4280
},
{
"epoch": 11.7,
"learning_rate": 0.0028499999999999997,
"loss": 1.1686,
"step": 4290
},
{
"epoch": 11.73,
"learning_rate": 0.002833333333333333,
"loss": 1.1569,
"step": 4300
},
{
"epoch": 11.76,
"learning_rate": 0.002816666666666667,
"loss": 1.2046,
"step": 4310
},
{
"epoch": 11.78,
"learning_rate": 0.0028000000000000004,
"loss": 1.1836,
"step": 4320
},
{
"epoch": 11.81,
"learning_rate": 0.0027833333333333334,
"loss": 1.206,
"step": 4330
},
{
"epoch": 11.84,
"learning_rate": 0.002766666666666667,
"loss": 1.1764,
"step": 4340
},
{
"epoch": 11.86,
"learning_rate": 0.0027500000000000003,
"loss": 1.1831,
"step": 4350
},
{
"epoch": 11.89,
"learning_rate": 0.0027333333333333333,
"loss": 1.1573,
"step": 4360
},
{
"epoch": 11.92,
"learning_rate": 0.0027166666666666667,
"loss": 1.1967,
"step": 4370
},
{
"epoch": 11.95,
"learning_rate": 0.0027,
"loss": 1.1795,
"step": 4380
},
{
"epoch": 11.97,
"learning_rate": 0.002683333333333333,
"loss": 1.1812,
"step": 4390
},
{
"epoch": 12.0,
"learning_rate": 0.0026666666666666666,
"loss": 1.1906,
"step": 4400
},
{
"epoch": 12.03,
"learning_rate": 0.00265,
"loss": 1.2172,
"step": 4410
},
{
"epoch": 12.06,
"learning_rate": 0.002633333333333333,
"loss": 1.1863,
"step": 4420
},
{
"epoch": 12.08,
"learning_rate": 0.0026166666666666664,
"loss": 1.164,
"step": 4430
},
{
"epoch": 12.11,
"learning_rate": 0.0026000000000000003,
"loss": 1.1833,
"step": 4440
},
{
"epoch": 12.14,
"learning_rate": 0.0025833333333333337,
"loss": 1.1867,
"step": 4450
},
{
"epoch": 12.17,
"learning_rate": 0.0025666666666666667,
"loss": 1.1565,
"step": 4460
},
{
"epoch": 12.19,
"learning_rate": 0.00255,
"loss": 1.1626,
"step": 4470
},
{
"epoch": 12.22,
"learning_rate": 0.0025333333333333336,
"loss": 1.1476,
"step": 4480
},
{
"epoch": 12.25,
"learning_rate": 0.0025166666666666666,
"loss": 1.1743,
"step": 4490
},
{
"epoch": 12.27,
"learning_rate": 0.0025,
"loss": 1.1562,
"step": 4500
},
{
"epoch": 12.3,
"learning_rate": 0.0024833333333333335,
"loss": 1.1779,
"step": 4510
},
{
"epoch": 12.33,
"learning_rate": 0.002466666666666667,
"loss": 1.188,
"step": 4520
},
{
"epoch": 12.36,
"learning_rate": 0.00245,
"loss": 1.1969,
"step": 4530
},
{
"epoch": 12.38,
"learning_rate": 0.0024333333333333334,
"loss": 1.2007,
"step": 4540
},
{
"epoch": 12.41,
"learning_rate": 0.002416666666666667,
"loss": 1.1713,
"step": 4550
},
{
"epoch": 12.44,
"learning_rate": 0.0024,
"loss": 1.1603,
"step": 4560
},
{
"epoch": 12.47,
"learning_rate": 0.0023833333333333337,
"loss": 1.1689,
"step": 4570
},
{
"epoch": 12.49,
"learning_rate": 0.0023666666666666667,
"loss": 1.1695,
"step": 4580
},
{
"epoch": 12.52,
"learning_rate": 0.00235,
"loss": 1.1593,
"step": 4590
},
{
"epoch": 12.55,
"learning_rate": 0.0023333333333333335,
"loss": 1.1636,
"step": 4600
},
{
"epoch": 12.57,
"learning_rate": 0.0023166666666666665,
"loss": 1.1649,
"step": 4610
},
{
"epoch": 12.6,
"learning_rate": 0.0023,
"loss": 1.1675,
"step": 4620
},
{
"epoch": 12.63,
"learning_rate": 0.0022833333333333334,
"loss": 1.1672,
"step": 4630
},
{
"epoch": 12.66,
"learning_rate": 0.0022666666666666664,
"loss": 1.1576,
"step": 4640
},
{
"epoch": 12.68,
"learning_rate": 0.0022500000000000003,
"loss": 1.1687,
"step": 4650
},
{
"epoch": 12.71,
"learning_rate": 0.0022333333333333333,
"loss": 1.1715,
"step": 4660
},
{
"epoch": 12.74,
"learning_rate": 0.0022166666666666667,
"loss": 1.1442,
"step": 4670
},
{
"epoch": 12.77,
"learning_rate": 0.0022,
"loss": 1.151,
"step": 4680
},
{
"epoch": 12.79,
"learning_rate": 0.002183333333333333,
"loss": 1.1504,
"step": 4690
},
{
"epoch": 12.82,
"learning_rate": 0.002166666666666667,
"loss": 1.1845,
"step": 4700
},
{
"epoch": 12.85,
"learning_rate": 0.00215,
"loss": 1.1462,
"step": 4710
},
{
"epoch": 12.87,
"learning_rate": 0.0021333333333333334,
"loss": 1.1901,
"step": 4720
},
{
"epoch": 12.9,
"learning_rate": 0.002116666666666667,
"loss": 1.176,
"step": 4730
},
{
"epoch": 12.93,
"learning_rate": 0.0021,
"loss": 1.1823,
"step": 4740
},
{
"epoch": 12.96,
"learning_rate": 0.0020833333333333333,
"loss": 1.1984,
"step": 4750
},
{
"epoch": 12.98,
"learning_rate": 0.0020666666666666667,
"loss": 1.1599,
"step": 4760
},
{
"epoch": 13.01,
"learning_rate": 0.0020499999999999997,
"loss": 1.1767,
"step": 4770
},
{
"epoch": 13.04,
"learning_rate": 0.0020333333333333336,
"loss": 1.171,
"step": 4780
},
{
"epoch": 13.07,
"learning_rate": 0.0020166666666666666,
"loss": 1.1555,
"step": 4790
},
{
"epoch": 13.09,
"learning_rate": 0.002,
"loss": 1.2026,
"step": 4800
},
{
"epoch": 13.12,
"learning_rate": 0.0019833333333333335,
"loss": 1.1578,
"step": 4810
},
{
"epoch": 13.15,
"learning_rate": 0.0019666666666666665,
"loss": 1.158,
"step": 4820
},
{
"epoch": 13.17,
"learning_rate": 0.0019500000000000001,
"loss": 1.1475,
"step": 4830
},
{
"epoch": 13.2,
"learning_rate": 0.0019333333333333333,
"loss": 1.1428,
"step": 4840
},
{
"epoch": 13.23,
"learning_rate": 0.0019166666666666668,
"loss": 1.1605,
"step": 4850
},
{
"epoch": 13.26,
"learning_rate": 0.0019,
"loss": 1.1817,
"step": 4860
},
{
"epoch": 13.28,
"learning_rate": 0.0018833333333333332,
"loss": 1.1322,
"step": 4870
},
{
"epoch": 13.31,
"learning_rate": 0.0018666666666666669,
"loss": 1.1645,
"step": 4880
},
{
"epoch": 13.34,
"learning_rate": 0.00185,
"loss": 1.1176,
"step": 4890
},
{
"epoch": 13.37,
"learning_rate": 0.0018333333333333333,
"loss": 1.1808,
"step": 4900
},
{
"epoch": 13.39,
"learning_rate": 0.0018166666666666667,
"loss": 1.1692,
"step": 4910
},
{
"epoch": 13.42,
"learning_rate": 0.0018,
"loss": 1.168,
"step": 4920
},
{
"epoch": 13.45,
"learning_rate": 0.0017833333333333334,
"loss": 1.1415,
"step": 4930
},
{
"epoch": 13.47,
"learning_rate": 0.0017666666666666666,
"loss": 1.1476,
"step": 4940
},
{
"epoch": 13.5,
"learning_rate": 0.0017499999999999998,
"loss": 1.1483,
"step": 4950
},
{
"epoch": 13.53,
"learning_rate": 0.0017333333333333335,
"loss": 1.1472,
"step": 4960
},
{
"epoch": 13.56,
"learning_rate": 0.0017166666666666667,
"loss": 1.1898,
"step": 4970
},
{
"epoch": 13.58,
"learning_rate": 0.0017000000000000001,
"loss": 1.1874,
"step": 4980
},
{
"epoch": 13.61,
"learning_rate": 0.0016833333333333333,
"loss": 1.1686,
"step": 4990
},
{
"epoch": 13.64,
"learning_rate": 0.0016666666666666666,
"loss": 1.1537,
"step": 5000
},
{
"epoch": 13.67,
"learning_rate": 0.0016500000000000002,
"loss": 1.16,
"step": 5010
},
{
"epoch": 13.69,
"learning_rate": 0.0016333333333333334,
"loss": 1.1361,
"step": 5020
},
{
"epoch": 13.72,
"learning_rate": 0.0016166666666666666,
"loss": 1.1489,
"step": 5030
},
{
"epoch": 13.75,
"learning_rate": 0.0016,
"loss": 1.1863,
"step": 5040
},
{
"epoch": 13.77,
"learning_rate": 0.0015833333333333333,
"loss": 1.1592,
"step": 5050
},
{
"epoch": 13.8,
"learning_rate": 0.0015666666666666667,
"loss": 1.171,
"step": 5060
},
{
"epoch": 13.83,
"learning_rate": 0.00155,
"loss": 1.167,
"step": 5070
},
{
"epoch": 13.86,
"learning_rate": 0.0015333333333333332,
"loss": 1.1872,
"step": 5080
},
{
"epoch": 13.88,
"learning_rate": 0.0015166666666666668,
"loss": 1.1908,
"step": 5090
},
{
"epoch": 13.91,
"learning_rate": 0.0015,
"loss": 1.1852,
"step": 5100
},
{
"epoch": 13.94,
"learning_rate": 0.0014833333333333335,
"loss": 1.1802,
"step": 5110
},
{
"epoch": 13.97,
"learning_rate": 0.0014666666666666667,
"loss": 1.1801,
"step": 5120
},
{
"epoch": 13.99,
"learning_rate": 0.00145,
"loss": 1.1488,
"step": 5130
},
{
"epoch": 14.02,
"learning_rate": 0.0014333333333333333,
"loss": 1.1791,
"step": 5140
},
{
"epoch": 14.05,
"learning_rate": 0.0014166666666666666,
"loss": 1.1945,
"step": 5150
},
{
"epoch": 14.07,
"learning_rate": 0.0014000000000000002,
"loss": 1.132,
"step": 5160
},
{
"epoch": 14.1,
"learning_rate": 0.0013833333333333334,
"loss": 1.1297,
"step": 5170
},
{
"epoch": 14.13,
"learning_rate": 0.0013666666666666666,
"loss": 1.1581,
"step": 5180
},
{
"epoch": 14.16,
"learning_rate": 0.00135,
"loss": 1.1625,
"step": 5190
},
{
"epoch": 14.18,
"learning_rate": 0.0013333333333333333,
"loss": 1.1499,
"step": 5200
},
{
"epoch": 14.21,
"learning_rate": 0.0013166666666666665,
"loss": 1.1372,
"step": 5210
},
{
"epoch": 14.24,
"learning_rate": 0.0013000000000000002,
"loss": 1.1367,
"step": 5220
},
{
"epoch": 14.27,
"learning_rate": 0.0012833333333333334,
"loss": 1.1624,
"step": 5230
},
{
"epoch": 14.29,
"learning_rate": 0.0012666666666666668,
"loss": 1.1296,
"step": 5240
},
{
"epoch": 14.32,
"learning_rate": 0.00125,
"loss": 1.171,
"step": 5250
},
{
"epoch": 14.35,
"learning_rate": 0.0012333333333333335,
"loss": 1.1338,
"step": 5260
},
{
"epoch": 14.37,
"learning_rate": 0.0012166666666666667,
"loss": 1.2046,
"step": 5270
},
{
"epoch": 14.4,
"learning_rate": 0.0012,
"loss": 1.1112,
"step": 5280
},
{
"epoch": 14.43,
"learning_rate": 0.0011833333333333333,
"loss": 1.1516,
"step": 5290
},
{
"epoch": 14.46,
"learning_rate": 0.0011666666666666668,
"loss": 1.1567,
"step": 5300
},
{
"epoch": 14.48,
"learning_rate": 0.00115,
"loss": 1.1438,
"step": 5310
},
{
"epoch": 14.51,
"learning_rate": 0.0011333333333333332,
"loss": 1.1539,
"step": 5320
},
{
"epoch": 14.54,
"learning_rate": 0.0011166666666666666,
"loss": 1.1618,
"step": 5330
},
{
"epoch": 14.57,
"learning_rate": 0.0011,
"loss": 1.1511,
"step": 5340
},
{
"epoch": 14.59,
"learning_rate": 0.0010833333333333335,
"loss": 1.1348,
"step": 5350
},
{
"epoch": 14.62,
"learning_rate": 0.0010666666666666667,
"loss": 1.1565,
"step": 5360
},
{
"epoch": 14.65,
"learning_rate": 0.00105,
"loss": 1.1779,
"step": 5370
},
{
"epoch": 14.67,
"learning_rate": 0.0010333333333333334,
"loss": 1.1463,
"step": 5380
},
{
"epoch": 14.7,
"learning_rate": 0.0010166666666666668,
"loss": 1.157,
"step": 5390
},
{
"epoch": 14.73,
"learning_rate": 0.001,
"loss": 1.1713,
"step": 5400
},
{
"epoch": 14.76,
"learning_rate": 0.0009833333333333332,
"loss": 1.1403,
"step": 5410
},
{
"epoch": 14.78,
"learning_rate": 0.0009666666666666667,
"loss": 1.1657,
"step": 5420
},
{
"epoch": 14.81,
"learning_rate": 0.00095,
"loss": 1.1388,
"step": 5430
},
{
"epoch": 14.84,
"learning_rate": 0.0009333333333333334,
"loss": 1.1374,
"step": 5440
},
{
"epoch": 14.87,
"learning_rate": 0.0009166666666666666,
"loss": 1.1495,
"step": 5450
},
{
"epoch": 14.89,
"learning_rate": 0.0009,
"loss": 1.1804,
"step": 5460
},
{
"epoch": 14.92,
"learning_rate": 0.0008833333333333333,
"loss": 1.1684,
"step": 5470
},
{
"epoch": 14.95,
"learning_rate": 0.0008666666666666667,
"loss": 1.1997,
"step": 5480
},
{
"epoch": 14.97,
"learning_rate": 0.0008500000000000001,
"loss": 1.1755,
"step": 5490
},
{
"epoch": 15.0,
"learning_rate": 0.0008333333333333333,
"loss": 1.1713,
"step": 5500
},
{
"epoch": 15.03,
"learning_rate": 0.0008166666666666667,
"loss": 1.1926,
"step": 5510
},
{
"epoch": 15.06,
"learning_rate": 0.0008,
"loss": 1.1547,
"step": 5520
},
{
"epoch": 15.08,
"learning_rate": 0.0007833333333333334,
"loss": 1.1607,
"step": 5530
},
{
"epoch": 15.11,
"learning_rate": 0.0007666666666666666,
"loss": 1.16,
"step": 5540
},
{
"epoch": 15.14,
"learning_rate": 0.00075,
"loss": 1.1402,
"step": 5550
},
{
"epoch": 15.17,
"learning_rate": 0.0007333333333333333,
"loss": 1.1738,
"step": 5560
},
{
"epoch": 15.19,
"learning_rate": 0.0007166666666666667,
"loss": 1.154,
"step": 5570
},
{
"epoch": 15.22,
"learning_rate": 0.0007000000000000001,
"loss": 1.1417,
"step": 5580
},
{
"epoch": 15.25,
"learning_rate": 0.0006833333333333333,
"loss": 1.1342,
"step": 5590
},
{
"epoch": 15.27,
"learning_rate": 0.0006666666666666666,
"loss": 1.1252,
"step": 5600
},
{
"epoch": 15.3,
"learning_rate": 0.0006500000000000001,
"loss": 1.1678,
"step": 5610
},
{
"epoch": 15.33,
"learning_rate": 0.0006333333333333334,
"loss": 1.1139,
"step": 5620
},
{
"epoch": 15.36,
"learning_rate": 0.0006166666666666667,
"loss": 1.1479,
"step": 5630
},
{
"epoch": 15.38,
"learning_rate": 0.0006,
"loss": 1.1492,
"step": 5640
},
{
"epoch": 15.41,
"learning_rate": 0.0005833333333333334,
"loss": 1.149,
"step": 5650
},
{
"epoch": 15.44,
"learning_rate": 0.0005666666666666666,
"loss": 1.1302,
"step": 5660
},
{
"epoch": 15.47,
"learning_rate": 0.00055,
"loss": 1.1624,
"step": 5670
},
{
"epoch": 15.49,
"learning_rate": 0.0005333333333333334,
"loss": 1.1504,
"step": 5680
},
{
"epoch": 15.52,
"learning_rate": 0.0005166666666666667,
"loss": 1.1253,
"step": 5690
},
{
"epoch": 15.55,
"learning_rate": 0.0005,
"loss": 1.1717,
"step": 5700
},
{
"epoch": 15.57,
"learning_rate": 0.00048333333333333334,
"loss": 1.1445,
"step": 5710
},
{
"epoch": 15.6,
"learning_rate": 0.0004666666666666667,
"loss": 1.1433,
"step": 5720
},
{
"epoch": 15.63,
"learning_rate": 0.00045,
"loss": 1.1741,
"step": 5730
},
{
"epoch": 15.66,
"learning_rate": 0.00043333333333333337,
"loss": 1.1226,
"step": 5740
},
{
"epoch": 15.68,
"learning_rate": 0.00041666666666666664,
"loss": 1.1682,
"step": 5750
},
{
"epoch": 15.71,
"learning_rate": 0.0004,
"loss": 1.1424,
"step": 5760
},
{
"epoch": 15.74,
"learning_rate": 0.0003833333333333333,
"loss": 1.1378,
"step": 5770
},
{
"epoch": 15.77,
"learning_rate": 0.00036666666666666667,
"loss": 1.1709,
"step": 5780
},
{
"epoch": 15.79,
"learning_rate": 0.00035000000000000005,
"loss": 1.1647,
"step": 5790
},
{
"epoch": 15.82,
"learning_rate": 0.0003333333333333333,
"loss": 1.1556,
"step": 5800
},
{
"epoch": 15.85,
"learning_rate": 0.0003166666666666667,
"loss": 1.1612,
"step": 5810
},
{
"epoch": 15.87,
"learning_rate": 0.0003,
"loss": 1.1452,
"step": 5820
},
{
"epoch": 15.9,
"learning_rate": 0.0002833333333333333,
"loss": 1.1742,
"step": 5830
},
{
"epoch": 15.93,
"learning_rate": 0.0002666666666666667,
"loss": 1.1532,
"step": 5840
},
{
"epoch": 15.96,
"learning_rate": 0.00025,
"loss": 1.1308,
"step": 5850
},
{
"epoch": 15.98,
"learning_rate": 0.00023333333333333336,
"loss": 1.1521,
"step": 5860
},
{
"epoch": 16.01,
"learning_rate": 0.00021666666666666668,
"loss": 1.1214,
"step": 5870
},
{
"epoch": 16.04,
"learning_rate": 0.0002,
"loss": 1.1254,
"step": 5880
},
{
"epoch": 16.07,
"learning_rate": 0.00018333333333333334,
"loss": 1.1607,
"step": 5890
},
{
"epoch": 16.09,
"learning_rate": 0.00016666666666666666,
"loss": 1.1418,
"step": 5900
},
{
"epoch": 16.12,
"learning_rate": 0.00015,
"loss": 1.1488,
"step": 5910
},
{
"epoch": 16.15,
"learning_rate": 0.00013333333333333334,
"loss": 1.1653,
"step": 5920
},
{
"epoch": 16.17,
"learning_rate": 0.00011666666666666668,
"loss": 1.1358,
"step": 5930
},
{
"epoch": 16.2,
"learning_rate": 0.0001,
"loss": 1.1459,
"step": 5940
},
{
"epoch": 16.23,
"learning_rate": 8.333333333333333e-05,
"loss": 1.1506,
"step": 5950
},
{
"epoch": 16.26,
"learning_rate": 6.666666666666667e-05,
"loss": 1.1636,
"step": 5960
},
{
"epoch": 16.28,
"learning_rate": 5e-05,
"loss": 1.1322,
"step": 5970
},
{
"epoch": 16.31,
"learning_rate": 3.3333333333333335e-05,
"loss": 1.1333,
"step": 5980
},
{
"epoch": 16.34,
"learning_rate": 1.6666666666666667e-05,
"loss": 1.1226,
"step": 5990
},
{
"epoch": 16.37,
"learning_rate": 0.0,
"loss": 1.1463,
"step": 6000
}
],
"max_steps": 6000,
"num_train_epochs": 17,
"total_flos": 1.4113510921204662e+19,
"trial_name": null,
"trial_params": null
}