Attila1011 commited on
Commit
2d5724b
·
verified ·
1 Parent(s): e17afbe

Upload folder using huggingface_hub

Browse files
checkpoints-v5.0-discrete/checkpoint-21651/model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:0ea6a3e9e30fe2c208e517aad00bb3294f844ceddbbbf16415105747e2d50ff8
3
+ size 24033312
checkpoints-v5.0-discrete/checkpoint-21651/optimizer.pt ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:d368339b4709833bbbf749613318695b0d3d6044889c592ab5165918ad324ed7
3
+ size 1641995
checkpoints-v5.0-discrete/checkpoint-21651/rng_state.pth ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:75d75019ccf591158f09e2056c16fed704fd247136dcb492260f8477519b26e1
3
+ size 14645
checkpoints-v5.0-discrete/checkpoint-21651/scaler.pt ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:aa61369d34c9a7d9f223d124e3d74ce0a95c2f36a7f22817e0dece3667ba529c
3
+ size 1383
checkpoints-v5.0-discrete/checkpoint-21651/scheduler.pt ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:70a493bf8fd6932c4ac60675b60fe483d4684704d3cab9dc59633db8961d91a7
3
+ size 1465
checkpoints-v5.0-discrete/checkpoint-21651/trainer_state.json ADDED
@@ -0,0 +1,707 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "best_global_step": null,
3
+ "best_metric": null,
4
+ "best_model_checkpoint": null,
5
+ "epoch": 1.0,
6
+ "eval_steps": 4096,
7
+ "global_step": 21651,
8
+ "is_hyper_param_search": false,
9
+ "is_local_process_zero": true,
10
+ "is_world_process_zero": true,
11
+ "log_history": [
12
+ {
13
+ "epoch": 0.011823934229365849,
14
+ "grad_norm": 0.18402186036109924,
15
+ "learning_rate": 0.000498046875,
16
+ "loss": 1.8115350008010864,
17
+ "step": 256
18
+ },
19
+ {
20
+ "epoch": 0.023647868458731697,
21
+ "grad_norm": 0.4108147621154785,
22
+ "learning_rate": 0.000998046875,
23
+ "loss": 1.4767377376556396,
24
+ "step": 512
25
+ },
26
+ {
27
+ "epoch": 0.03547180268809755,
28
+ "grad_norm": 1.3596770763397217,
29
+ "learning_rate": 0.000999640996023194,
30
+ "loss": 0.9155849814414978,
31
+ "step": 768
32
+ },
33
+ {
34
+ "epoch": 0.047295736917463395,
35
+ "grad_norm": 1.1700756549835205,
36
+ "learning_rate": 0.0009985588674043958,
37
+ "loss": 0.7087033987045288,
38
+ "step": 1024
39
+ },
40
+ {
41
+ "epoch": 0.05911967114682925,
42
+ "grad_norm": 1.650791049003601,
43
+ "learning_rate": 0.0009967551747861387,
44
+ "loss": 0.6173122525215149,
45
+ "step": 1280
46
+ },
47
+ {
48
+ "epoch": 0.0709436053761951,
49
+ "grad_norm": 1.8865877389907837,
50
+ "learning_rate": 0.000994232528651847,
51
+ "loss": 0.5729857087135315,
52
+ "step": 1536
53
+ },
54
+ {
55
+ "epoch": 0.08276753960556095,
56
+ "grad_norm": 1.6446881294250488,
57
+ "learning_rate": 0.0009909945800260092,
58
+ "loss": 0.5393890738487244,
59
+ "step": 1792
60
+ },
61
+ {
62
+ "epoch": 0.09459147383492679,
63
+ "grad_norm": 2.635244607925415,
64
+ "learning_rate": 0.0009870460151900522,
65
+ "loss": 0.5070732831954956,
66
+ "step": 2048
67
+ },
68
+ {
69
+ "epoch": 0.10641540806429264,
70
+ "grad_norm": 1.272750973701477,
71
+ "learning_rate": 0.0009823925488998885,
72
+ "loss": 0.4697394371032715,
73
+ "step": 2304
74
+ },
75
+ {
76
+ "epoch": 0.1182393422936585,
77
+ "grad_norm": 1.4025074243545532,
78
+ "learning_rate": 0.0009770409161149525,
79
+ "loss": 0.4449075758457184,
80
+ "step": 2560
81
+ },
82
+ {
83
+ "epoch": 0.13006327652302435,
84
+ "grad_norm": 1.790603756904602,
85
+ "learning_rate": 0.0009709988622506973,
86
+ "loss": 0.429438054561615,
87
+ "step": 2816
88
+ },
89
+ {
90
+ "epoch": 0.1418872107523902,
91
+ "grad_norm": 2.6458230018615723,
92
+ "learning_rate": 0.000964275131968659,
93
+ "loss": 0.40448033809661865,
94
+ "step": 3072
95
+ },
96
+ {
97
+ "epoch": 0.15371114498175603,
98
+ "grad_norm": 1.2802140712738037,
99
+ "learning_rate": 0.0009568794565203123,
100
+ "loss": 0.37199050188064575,
101
+ "step": 3328
102
+ },
103
+ {
104
+ "epoch": 0.1655350792111219,
105
+ "grad_norm": 2.276002883911133,
106
+ "learning_rate": 0.0009488225396630347,
107
+ "loss": 0.35290926694869995,
108
+ "step": 3584
109
+ },
110
+ {
111
+ "epoch": 0.17735901344048774,
112
+ "grad_norm": 0.9080029726028442,
113
+ "learning_rate": 0.0009401160421685646,
114
+ "loss": 0.34065455198287964,
115
+ "step": 3840
116
+ },
117
+ {
118
+ "epoch": 0.18918294766985358,
119
+ "grad_norm": 1.5332542657852173,
120
+ "learning_rate": 0.0009307725649463714,
121
+ "loss": 0.332533061504364,
122
+ "step": 4096
123
+ },
124
+ {
125
+ "epoch": 0.18918294766985358,
126
+ "eval_cos_loss": 0.08604974599053326,
127
+ "eval_loss": 0.3280431266925106,
128
+ "eval_mse_loss": 0.3280431266925106,
129
+ "step": 4096
130
+ },
131
+ {
132
+ "epoch": 0.18918294766985358,
133
+ "eval_cos_loss": 0.08604974599053326,
134
+ "eval_loss": 0.3280431266925106,
135
+ "eval_mse_loss": 0.3280431266925106,
136
+ "eval_runtime": 21.822,
137
+ "eval_samples_per_second": 1282.788,
138
+ "eval_steps_per_second": 20.071,
139
+ "step": 4096
140
+ },
141
+ {
142
+ "epoch": 0.20100688189921945,
143
+ "grad_norm": 2.443835735321045,
144
+ "learning_rate": 0.0009208056308063659,
145
+ "loss": 0.32748207449913025,
146
+ "step": 4352
147
+ },
148
+ {
149
+ "epoch": 0.2128308161285853,
150
+ "grad_norm": 1.772533655166626,
151
+ "learning_rate": 0.0009102296648873445,
152
+ "loss": 0.3217240273952484,
153
+ "step": 4608
154
+ },
155
+ {
156
+ "epoch": 0.22465475035795113,
157
+ "grad_norm": 1.5118556022644043,
158
+ "learning_rate": 0.0008990599737794927,
159
+ "loss": 0.3180062472820282,
160
+ "step": 4864
161
+ },
162
+ {
163
+ "epoch": 0.236478684587317,
164
+ "grad_norm": 1.8052319288253784,
165
+ "learning_rate": 0.0008873127233711644,
166
+ "loss": 0.31198516488075256,
167
+ "step": 5120
168
+ },
169
+ {
170
+ "epoch": 0.24830261881668284,
171
+ "grad_norm": 1.6095125675201416,
172
+ "learning_rate": 0.0008750049154520011,
173
+ "loss": 0.29585230350494385,
174
+ "step": 5376
175
+ },
176
+ {
177
+ "epoch": 0.2601265530460487,
178
+ "grad_norm": 1.390695571899414,
179
+ "learning_rate": 0.0008621543631062487,
180
+ "loss": 0.2820141613483429,
181
+ "step": 5632
182
+ },
183
+ {
184
+ "epoch": 0.27195048727541454,
185
+ "grad_norm": 2.0912108421325684,
186
+ "learning_rate": 0.0008487796649318904,
187
+ "loss": 0.2732571065425873,
188
+ "step": 5888
189
+ },
190
+ {
191
+ "epoch": 0.2837744215047804,
192
+ "grad_norm": 0.9537489414215088,
193
+ "learning_rate": 0.0008349001781229053,
194
+ "loss": 0.2696087062358856,
195
+ "step": 6144
196
+ },
197
+ {
198
+ "epoch": 0.2955983557341462,
199
+ "grad_norm": 2.4934329986572266,
200
+ "learning_rate": 0.0008205359904536107,
201
+ "loss": 0.26490405201911926,
202
+ "step": 6400
203
+ },
204
+ {
205
+ "epoch": 0.30742228996351206,
206
+ "grad_norm": 1.6984636783599854,
207
+ "learning_rate": 0.0008057078912056363,
208
+ "loss": 0.2640382945537567,
209
+ "step": 6656
210
+ },
211
+ {
212
+ "epoch": 0.3192462241928779,
213
+ "grad_norm": 1.2631934881210327,
214
+ "learning_rate": 0.0007904373410796086,
215
+ "loss": 0.2591536343097687,
216
+ "step": 6912
217
+ },
218
+ {
219
+ "epoch": 0.3310701584222438,
220
+ "grad_norm": 1.6110726594924927,
221
+ "learning_rate": 0.0007747464411350876,
222
+ "loss": 0.2562218904495239,
223
+ "step": 7168
224
+ },
225
+ {
226
+ "epoch": 0.34289409265160964,
227
+ "grad_norm": 1.6103037595748901,
228
+ "learning_rate": 0.000758657900803716,
229
+ "loss": 0.253754198551178,
230
+ "step": 7424
231
+ },
232
+ {
233
+ "epoch": 0.3547180268809755,
234
+ "grad_norm": 2.4476754665374756,
235
+ "learning_rate": 0.000742195005021869,
236
+ "loss": 0.2527516186237335,
237
+ "step": 7680
238
+ },
239
+ {
240
+ "epoch": 0.3665419611103413,
241
+ "grad_norm": 2.702977418899536,
242
+ "learning_rate": 0.0007253815805303786,
243
+ "loss": 0.2500854730606079,
244
+ "step": 7936
245
+ },
246
+ {
247
+ "epoch": 0.37836589533970716,
248
+ "grad_norm": 2.4479708671569824,
249
+ "learning_rate": 0.0007082419613901028,
250
+ "loss": 0.24893712997436523,
251
+ "step": 8192
252
+ },
253
+ {
254
+ "epoch": 0.37836589533970716,
255
+ "eval_cos_loss": 0.06396377409838105,
256
+ "eval_loss": 0.2469226431152592,
257
+ "eval_mse_loss": 0.2469226431152592,
258
+ "step": 8192
259
+ },
260
+ {
261
+ "epoch": 0.37836589533970716,
262
+ "eval_cos_loss": 0.06396377409838105,
263
+ "eval_loss": 0.2469226431152592,
264
+ "eval_mse_loss": 0.2469226431152592,
265
+ "eval_runtime": 22.2856,
266
+ "eval_samples_per_second": 1256.103,
267
+ "eval_steps_per_second": 19.654,
268
+ "step": 8192
269
+ },
270
+ {
271
+ "epoch": 0.390189829569073,
272
+ "grad_norm": 3.390707492828369,
273
+ "learning_rate": 0.0006908009537632514,
274
+ "loss": 0.24660637974739075,
275
+ "step": 8448
276
+ },
277
+ {
278
+ "epoch": 0.4020137637984389,
279
+ "grad_norm": 1.5318117141723633,
280
+ "learning_rate": 0.0006730838000114403,
281
+ "loss": 0.24438612163066864,
282
+ "step": 8704
283
+ },
284
+ {
285
+ "epoch": 0.41383769802780473,
286
+ "grad_norm": 1.2596393823623657,
287
+ "learning_rate": 0.0006551161421624341,
288
+ "loss": 0.24414348602294922,
289
+ "step": 8960
290
+ },
291
+ {
292
+ "epoch": 0.4256616322571706,
293
+ "grad_norm": 1.104812741279602,
294
+ "learning_rate": 0.0006369239847984517,
295
+ "loss": 0.24030941724777222,
296
+ "step": 9216
297
+ },
298
+ {
299
+ "epoch": 0.4374855664865364,
300
+ "grad_norm": 1.2544385194778442,
301
+ "learning_rate": 0.0006185336574197479,
302
+ "loss": 0.2396625429391861,
303
+ "step": 9472
304
+ },
305
+ {
306
+ "epoch": 0.44930950071590225,
307
+ "grad_norm": 1.9055131673812866,
308
+ "learning_rate": 0.0005999717763379407,
309
+ "loss": 0.24050591886043549,
310
+ "step": 9728
311
+ },
312
+ {
313
+ "epoch": 0.4611334349452681,
314
+ "grad_norm": 1.7073079347610474,
315
+ "learning_rate": 0.0005812652061542363,
316
+ "loss": 0.23612475395202637,
317
+ "step": 9984
318
+ },
319
+ {
320
+ "epoch": 0.472957369174634,
321
+ "grad_norm": 2.8459248542785645,
322
+ "learning_rate": 0.0005624410208783071,
323
+ "loss": 0.23526903986930847,
324
+ "step": 10240
325
+ },
326
+ {
327
+ "epoch": 0.48478130340399983,
328
+ "grad_norm": 2.6020126342773438,
329
+ "learning_rate": 0.0005435264647440881,
330
+ "loss": 0.2306881994009018,
331
+ "step": 10496
332
+ },
333
+ {
334
+ "epoch": 0.49660523763336567,
335
+ "grad_norm": 0.8958224058151245,
336
+ "learning_rate": 0.000524548912779213,
337
+ "loss": 0.21731789410114288,
338
+ "step": 10752
339
+ },
340
+ {
341
+ "epoch": 0.5084291718627315,
342
+ "grad_norm": 4.940415382385254,
343
+ "learning_rate": 0.0005055358311851499,
344
+ "loss": 0.20828305184841156,
345
+ "step": 11008
346
+ },
347
+ {
348
+ "epoch": 0.5202531060920974,
349
+ "grad_norm": 2.7164206504821777,
350
+ "learning_rate": 0.0004865147375853812,
351
+ "loss": 0.20155978202819824,
352
+ "step": 11264
353
+ },
354
+ {
355
+ "epoch": 0.5320770403214632,
356
+ "grad_norm": 1.6858763694763184,
357
+ "learning_rate": 0.0004675131611991607,
358
+ "loss": 0.20079405605793,
359
+ "step": 11520
360
+ },
361
+ {
362
+ "epoch": 0.5439009745508291,
363
+ "grad_norm": 1.2543561458587646,
364
+ "learning_rate": 0.0004485586029984899,
365
+ "loss": 0.1966271549463272,
366
+ "step": 11776
367
+ },
368
+ {
369
+ "epoch": 0.5557249087801949,
370
+ "grad_norm": 2.1684601306915283,
371
+ "learning_rate": 0.00042967849590597266,
372
+ "loss": 0.19424939155578613,
373
+ "step": 12032
374
+ },
375
+ {
376
+ "epoch": 0.5675488430095608,
377
+ "grad_norm": 3.1498053073883057,
378
+ "learning_rate": 0.0004109001650911621,
379
+ "loss": 0.19250820577144623,
380
+ "step": 12288
381
+ },
382
+ {
383
+ "epoch": 0.5675488430095608,
384
+ "eval_cos_loss": 0.049239259187693465,
385
+ "eval_loss": 0.1923176841852872,
386
+ "eval_mse_loss": 0.1923176841852872,
387
+ "step": 12288
388
+ },
389
+ {
390
+ "epoch": 0.5675488430095608,
391
+ "eval_cos_loss": 0.049239259187693465,
392
+ "eval_loss": 0.1923176841852872,
393
+ "eval_mse_loss": 0.1923176841852872,
394
+ "eval_runtime": 22.1826,
395
+ "eval_samples_per_second": 1261.934,
396
+ "eval_steps_per_second": 19.745,
397
+ "step": 12288
398
+ },
399
+ {
400
+ "epoch": 0.5793727772389267,
401
+ "grad_norm": 3.117367744445801,
402
+ "learning_rate": 0.0003922507884228551,
403
+ "loss": 0.1909542828798294,
404
+ "step": 12544
405
+ },
406
+ {
407
+ "epoch": 0.5911967114682924,
408
+ "grad_norm": 1.0131003856658936,
409
+ "learning_rate": 0.00037375735713457723,
410
+ "loss": 0.18720369040966034,
411
+ "step": 12800
412
+ },
413
+ {
414
+ "epoch": 0.6030206456976583,
415
+ "grad_norm": 1.0626946687698364,
416
+ "learning_rate": 0.00035544663676018276,
417
+ "loss": 0.18841665983200073,
418
+ "step": 13056
419
+ },
420
+ {
421
+ "epoch": 0.6148445799270241,
422
+ "grad_norm": 1.2435246706008911,
423
+ "learning_rate": 0.00033734512839611255,
424
+ "loss": 0.18598631024360657,
425
+ "step": 13312
426
+ },
427
+ {
428
+ "epoch": 0.62666851415639,
429
+ "grad_norm": 2.3437485694885254,
430
+ "learning_rate": 0.0003194790303463687,
431
+ "loss": 0.18473073840141296,
432
+ "step": 13568
433
+ },
434
+ {
435
+ "epoch": 0.6384924483857558,
436
+ "grad_norm": 1.2678331136703491,
437
+ "learning_rate": 0.00030187420020572406,
438
+ "loss": 0.18379564583301544,
439
+ "step": 13824
440
+ },
441
+ {
442
+ "epoch": 0.6503163826151217,
443
+ "grad_norm": 1.6793171167373657,
444
+ "learning_rate": 0.00028455611743603626,
445
+ "loss": 0.18272742629051208,
446
+ "step": 14080
447
+ },
448
+ {
449
+ "epoch": 0.6621403168444876,
450
+ "grad_norm": 2.8752336502075195,
451
+ "learning_rate": 0.0002675498464898373,
452
+ "loss": 0.18118959665298462,
453
+ "step": 14336
454
+ },
455
+ {
456
+ "epoch": 0.6739642510738534,
457
+ "grad_norm": 3.1830852031707764,
458
+ "learning_rate": 0.0002508800005345623,
459
+ "loss": 0.18004077672958374,
460
+ "step": 14592
461
+ },
462
+ {
463
+ "epoch": 0.6857881853032193,
464
+ "grad_norm": 1.5492419004440308,
465
+ "learning_rate": 0.00023457070582992562,
466
+ "loss": 0.17936719954013824,
467
+ "step": 14848
468
+ },
469
+ {
470
+ "epoch": 0.6976121195325851,
471
+ "grad_norm": 1.6632952690124512,
472
+ "learning_rate": 0.00021864556680999692,
473
+ "loss": 0.1790514439344406,
474
+ "step": 15104
475
+ },
476
+ {
477
+ "epoch": 0.709436053761951,
478
+ "grad_norm": 2.520484447479248,
479
+ "learning_rate": 0.0002031276319205152,
480
+ "loss": 0.17697934806346893,
481
+ "step": 15360
482
+ },
483
+ {
484
+ "epoch": 0.7212599879913169,
485
+ "grad_norm": 2.8939716815948486,
486
+ "learning_rate": 0.00018803936026088542,
487
+ "loss": 0.17736898362636566,
488
+ "step": 15616
489
+ },
490
+ {
491
+ "epoch": 0.7330839222206826,
492
+ "grad_norm": 2.011647939682007,
493
+ "learning_rate": 0.00017340258907913464,
494
+ "loss": 0.17596976459026337,
495
+ "step": 15872
496
+ },
497
+ {
498
+ "epoch": 0.7449078564500485,
499
+ "grad_norm": 3.576449394226074,
500
+ "learning_rate": 0.0001592385021668743,
501
+ "loss": 0.17757916450500488,
502
+ "step": 16128
503
+ },
504
+ {
505
+ "epoch": 0.7567317906794143,
506
+ "grad_norm": 0.8762983679771423,
507
+ "learning_rate": 0.0001455675992000087,
508
+ "loss": 0.17395147681236267,
509
+ "step": 16384
510
+ },
511
+ {
512
+ "epoch": 0.7567317906794143,
513
+ "eval_cos_loss": 0.04475189867050953,
514
+ "eval_loss": 0.174370547135671,
515
+ "eval_mse_loss": 0.174370547135671,
516
+ "step": 16384
517
+ },
518
+ {
519
+ "epoch": 0.7567317906794143,
520
+ "eval_cos_loss": 0.04475189867050953,
521
+ "eval_loss": 0.174370547135671,
522
+ "eval_mse_loss": 0.174370547135671,
523
+ "eval_runtime": 21.3395,
524
+ "eval_samples_per_second": 1311.791,
525
+ "eval_steps_per_second": 20.525,
526
+ "step": 16384
527
+ },
528
+ {
529
+ "epoch": 0.7685557249087802,
530
+ "grad_norm": 6.87594747543335,
531
+ "learning_rate": 0.000132409666069565,
532
+ "loss": 0.17396144568920135,
533
+ "step": 16640
534
+ },
535
+ {
536
+ "epoch": 0.780379659138146,
537
+ "grad_norm": 1.0676745176315308,
538
+ "learning_rate": 0.0001197837462455823,
539
+ "loss": 0.1725805699825287,
540
+ "step": 16896
541
+ },
542
+ {
543
+ "epoch": 0.7922035933675119,
544
+ "grad_norm": 0.7290428876876831,
545
+ "learning_rate": 0.00010770811321550749,
546
+ "loss": 0.172632098197937,
547
+ "step": 17152
548
+ },
549
+ {
550
+ "epoch": 0.8040275275968778,
551
+ "grad_norm": 4.348757266998291,
552
+ "learning_rate": 9.620024403698591e-05,
553
+ "loss": 0.17183484137058258,
554
+ "step": 17408
555
+ },
556
+ {
557
+ "epoch": 0.8158514618262436,
558
+ "grad_norm": 1.9107364416122437,
559
+ "learning_rate": 8.527679404332429e-05,
560
+ "loss": 0.1712249517440796,
561
+ "step": 17664
562
+ },
563
+ {
564
+ "epoch": 0.8276753960556095,
565
+ "grad_norm": 2.7877731323242188,
566
+ "learning_rate": 7.495357273823544e-05,
567
+ "loss": 0.17192786931991577,
568
+ "step": 17920
569
+ },
570
+ {
571
+ "epoch": 0.8394993302849753,
572
+ "grad_norm": 0.7712404727935791,
573
+ "learning_rate": 6.524552091475183e-05,
574
+ "loss": 0.1696942299604416,
575
+ "step": 18176
576
+ },
577
+ {
578
+ "epoch": 0.8513232645143411,
579
+ "grad_norm": 0.6965790390968323,
580
+ "learning_rate": 5.6166689031422024e-05,
581
+ "loss": 0.16899120807647705,
582
+ "step": 18432
583
+ },
584
+ {
585
+ "epoch": 0.8631471987437069,
586
+ "grad_norm": 0.7712779641151428,
587
+ "learning_rate": 4.773021687709067e-05,
588
+ "loss": 0.16999296844005585,
589
+ "step": 18688
590
+ },
591
+ {
592
+ "epoch": 0.8749711329730728,
593
+ "grad_norm": 1.6937882900238037,
594
+ "learning_rate": 3.994831455368719e-05,
595
+ "loss": 0.16844625771045685,
596
+ "step": 18944
597
+ },
598
+ {
599
+ "epoch": 0.8867950672024387,
600
+ "grad_norm": 2.856898546218872,
601
+ "learning_rate": 3.283224480455282e-05,
602
+ "loss": 0.169948548078537,
603
+ "step": 19200
604
+ },
605
+ {
606
+ "epoch": 0.8986190014318045,
607
+ "grad_norm": 1.5607414245605469,
608
+ "learning_rate": 2.639230671387627e-05,
609
+ "loss": 0.16692468523979187,
610
+ "step": 19456
611
+ },
612
+ {
613
+ "epoch": 0.9104429356611704,
614
+ "grad_norm": 4.749592304229736,
615
+ "learning_rate": 2.063782080083576e-05,
616
+ "loss": 0.16736747324466705,
617
+ "step": 19712
618
+ },
619
+ {
620
+ "epoch": 0.9222668698905362,
621
+ "grad_norm": 2.466669797897339,
622
+ "learning_rate": 1.557711553001523e-05,
623
+ "loss": 0.1678391396999359,
624
+ "step": 19968
625
+ },
626
+ {
627
+ "epoch": 0.9340908041199021,
628
+ "grad_norm": 1.3046340942382812,
629
+ "learning_rate": 1.1217515257622269e-05,
630
+ "loss": 0.16723711788654327,
631
+ "step": 20224
632
+ },
633
+ {
634
+ "epoch": 0.945914738349268,
635
+ "grad_norm": 1.354536533355713,
636
+ "learning_rate": 7.565329630950746e-06,
637
+ "loss": 0.16632604598999023,
638
+ "step": 20480
639
+ },
640
+ {
641
+ "epoch": 0.945914738349268,
642
+ "eval_cos_loss": 0.04284026679587147,
643
+ "eval_loss": 0.16740792040547278,
644
+ "eval_mse_loss": 0.16740792040547278,
645
+ "step": 20480
646
+ },
647
+ {
648
+ "epoch": 0.945914738349268,
649
+ "eval_cos_loss": 0.04284026679587147,
650
+ "eval_loss": 0.16740792040547278,
651
+ "eval_mse_loss": 0.16740792040547278,
652
+ "eval_runtime": 21.7414,
653
+ "eval_samples_per_second": 1287.544,
654
+ "eval_steps_per_second": 20.146,
655
+ "step": 20480
656
+ },
657
+ {
658
+ "epoch": 0.9577386725786338,
659
+ "grad_norm": 1.4545016288757324,
660
+ "learning_rate": 4.62584445643166e-06,
661
+ "loss": 0.1668822169303894,
662
+ "step": 20736
663
+ },
664
+ {
665
+ "epoch": 0.9695626068079997,
666
+ "grad_norm": 0.8554348945617676,
667
+ "learning_rate": 2.40331404948807e-06,
668
+ "loss": 0.16744907200336456,
669
+ "step": 20992
670
+ },
671
+ {
672
+ "epoch": 0.9813865410373654,
673
+ "grad_norm": 1.1707971096038818,
674
+ "learning_rate": 9.009550772663965e-07,
675
+ "loss": 0.16711625456809998,
676
+ "step": 21248
677
+ },
678
+ {
679
+ "epoch": 0.9932104752667313,
680
+ "grad_norm": 0.4992499053478241,
681
+ "learning_rate": 1.2094190315575791e-07,
682
+ "loss": 0.16653874516487122,
683
+ "step": 21504
684
+ }
685
+ ],
686
+ "logging_steps": 256,
687
+ "max_steps": 21651,
688
+ "num_input_tokens_seen": 0,
689
+ "num_train_epochs": 1,
690
+ "save_steps": 4096,
691
+ "stateful_callbacks": {
692
+ "TrainerControl": {
693
+ "args": {
694
+ "should_epoch_stop": false,
695
+ "should_evaluate": false,
696
+ "should_log": false,
697
+ "should_save": true,
698
+ "should_training_stop": true
699
+ },
700
+ "attributes": {}
701
+ }
702
+ },
703
+ "total_flos": 0.0,
704
+ "train_batch_size": 64,
705
+ "trial_name": null,
706
+ "trial_params": null
707
+ }
checkpoints-v5.0-discrete/checkpoint-21651/training_args.bin ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:9ead218b695fa4b63d3e4ce43bbad945367d95b659c14f235f9c2095bf1b3c31
3
+ size 5137