thenam commited on
Commit
e74473c
1 Parent(s): cddcd78

End of training

Browse files
all_results.json ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "epoch": 3.25,
3
+ "eval_accuracy": 0.9161290322580645,
4
+ "eval_loss": 0.2788711488246918,
5
+ "eval_runtime": 41.4461,
6
+ "eval_samples_per_second": 3.74,
7
+ "eval_steps_per_second": 1.882
8
+ }
runs/May01_20-23-56_ip-10-192-11-122/events.out.tfevents.1714595899.ip-10-192-11-122.18938.1 CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:a6390b67fc1b44566128bf6f61cce8fa05117e7cd8a60509e43909081b076178
3
- size 411
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:10929c12525fb46f2cb40f5537db68103834aa04febf594359d2f5ad5dc4c832
3
+ size 734
test_results.json ADDED
@@ -0,0 +1,8 @@
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "epoch": 3.25,
3
+ "eval_accuracy": 0.9161290322580645,
4
+ "eval_loss": 0.2788711488246918,
5
+ "eval_runtime": 41.4461,
6
+ "eval_samples_per_second": 3.74,
7
+ "eval_steps_per_second": 1.882
8
+ }
trainer_state.json ADDED
@@ -0,0 +1,504 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "best_metric": 0.9,
3
+ "best_model_checkpoint": "videomae-base-finetuned-ucf101-subset/checkpoint-600",
4
+ "epoch": 3.25,
5
+ "eval_steps": 500,
6
+ "global_step": 600,
7
+ "is_hyper_param_search": false,
8
+ "is_local_process_zero": true,
9
+ "is_world_process_zero": true,
10
+ "log_history": [
11
+ {
12
+ "epoch": 0.016666666666666666,
13
+ "grad_norm": 14.084315299987793,
14
+ "learning_rate": 8.333333333333334e-06,
15
+ "loss": 2.2625,
16
+ "step": 10
17
+ },
18
+ {
19
+ "epoch": 0.03333333333333333,
20
+ "grad_norm": 12.500144958496094,
21
+ "learning_rate": 1.6666666666666667e-05,
22
+ "loss": 2.3353,
23
+ "step": 20
24
+ },
25
+ {
26
+ "epoch": 0.05,
27
+ "grad_norm": 13.111361503601074,
28
+ "learning_rate": 2.5e-05,
29
+ "loss": 2.2527,
30
+ "step": 30
31
+ },
32
+ {
33
+ "epoch": 0.06666666666666667,
34
+ "grad_norm": 14.977873802185059,
35
+ "learning_rate": 3.3333333333333335e-05,
36
+ "loss": 2.2332,
37
+ "step": 40
38
+ },
39
+ {
40
+ "epoch": 0.08333333333333333,
41
+ "grad_norm": 18.667680740356445,
42
+ "learning_rate": 4.166666666666667e-05,
43
+ "loss": 2.1483,
44
+ "step": 50
45
+ },
46
+ {
47
+ "epoch": 0.1,
48
+ "grad_norm": 14.930619239807129,
49
+ "learning_rate": 5e-05,
50
+ "loss": 2.2316,
51
+ "step": 60
52
+ },
53
+ {
54
+ "epoch": 0.11666666666666667,
55
+ "grad_norm": 17.389162063598633,
56
+ "learning_rate": 4.9074074074074075e-05,
57
+ "loss": 2.0506,
58
+ "step": 70
59
+ },
60
+ {
61
+ "epoch": 0.13333333333333333,
62
+ "grad_norm": 19.799802780151367,
63
+ "learning_rate": 4.814814814814815e-05,
64
+ "loss": 1.7776,
65
+ "step": 80
66
+ },
67
+ {
68
+ "epoch": 0.15,
69
+ "grad_norm": 15.30734920501709,
70
+ "learning_rate": 4.722222222222222e-05,
71
+ "loss": 1.817,
72
+ "step": 90
73
+ },
74
+ {
75
+ "epoch": 0.16666666666666666,
76
+ "grad_norm": 17.61277198791504,
77
+ "learning_rate": 4.62962962962963e-05,
78
+ "loss": 1.7994,
79
+ "step": 100
80
+ },
81
+ {
82
+ "epoch": 0.18333333333333332,
83
+ "grad_norm": 9.471660614013672,
84
+ "learning_rate": 4.5370370370370374e-05,
85
+ "loss": 1.3306,
86
+ "step": 110
87
+ },
88
+ {
89
+ "epoch": 0.2,
90
+ "grad_norm": 4.7816081047058105,
91
+ "learning_rate": 4.4444444444444447e-05,
92
+ "loss": 1.6416,
93
+ "step": 120
94
+ },
95
+ {
96
+ "epoch": 0.21666666666666667,
97
+ "grad_norm": 21.287919998168945,
98
+ "learning_rate": 4.351851851851852e-05,
99
+ "loss": 1.6549,
100
+ "step": 130
101
+ },
102
+ {
103
+ "epoch": 0.23333333333333334,
104
+ "grad_norm": 16.014236450195312,
105
+ "learning_rate": 4.259259259259259e-05,
106
+ "loss": 1.5492,
107
+ "step": 140
108
+ },
109
+ {
110
+ "epoch": 0.25,
111
+ "grad_norm": 14.71437931060791,
112
+ "learning_rate": 4.166666666666667e-05,
113
+ "loss": 1.3234,
114
+ "step": 150
115
+ },
116
+ {
117
+ "epoch": 0.25,
118
+ "eval_accuracy": 0.6142857142857143,
119
+ "eval_loss": 1.1605435609817505,
120
+ "eval_runtime": 18.4031,
121
+ "eval_samples_per_second": 3.804,
122
+ "eval_steps_per_second": 1.902,
123
+ "step": 150
124
+ },
125
+ {
126
+ "epoch": 1.0166666666666666,
127
+ "grad_norm": 14.739291191101074,
128
+ "learning_rate": 4.074074074074074e-05,
129
+ "loss": 0.8406,
130
+ "step": 160
131
+ },
132
+ {
133
+ "epoch": 1.0333333333333334,
134
+ "grad_norm": 20.024723052978516,
135
+ "learning_rate": 3.981481481481482e-05,
136
+ "loss": 1.1478,
137
+ "step": 170
138
+ },
139
+ {
140
+ "epoch": 1.05,
141
+ "grad_norm": 64.58138275146484,
142
+ "learning_rate": 3.888888888888889e-05,
143
+ "loss": 1.0488,
144
+ "step": 180
145
+ },
146
+ {
147
+ "epoch": 1.0666666666666667,
148
+ "grad_norm": 12.84802532196045,
149
+ "learning_rate": 3.7962962962962964e-05,
150
+ "loss": 0.8007,
151
+ "step": 190
152
+ },
153
+ {
154
+ "epoch": 1.0833333333333333,
155
+ "grad_norm": 27.170969009399414,
156
+ "learning_rate": 3.7037037037037037e-05,
157
+ "loss": 1.2599,
158
+ "step": 200
159
+ },
160
+ {
161
+ "epoch": 1.1,
162
+ "grad_norm": 14.179140090942383,
163
+ "learning_rate": 3.611111111111111e-05,
164
+ "loss": 0.6757,
165
+ "step": 210
166
+ },
167
+ {
168
+ "epoch": 1.1166666666666667,
169
+ "grad_norm": 26.276153564453125,
170
+ "learning_rate": 3.518518518518519e-05,
171
+ "loss": 0.8593,
172
+ "step": 220
173
+ },
174
+ {
175
+ "epoch": 1.1333333333333333,
176
+ "grad_norm": 3.5043022632598877,
177
+ "learning_rate": 3.425925925925926e-05,
178
+ "loss": 1.0581,
179
+ "step": 230
180
+ },
181
+ {
182
+ "epoch": 1.15,
183
+ "grad_norm": 12.9857177734375,
184
+ "learning_rate": 3.3333333333333335e-05,
185
+ "loss": 0.8675,
186
+ "step": 240
187
+ },
188
+ {
189
+ "epoch": 1.1666666666666667,
190
+ "grad_norm": 23.625690460205078,
191
+ "learning_rate": 3.240740740740741e-05,
192
+ "loss": 0.4225,
193
+ "step": 250
194
+ },
195
+ {
196
+ "epoch": 1.1833333333333333,
197
+ "grad_norm": 33.589900970458984,
198
+ "learning_rate": 3.148148148148148e-05,
199
+ "loss": 0.6679,
200
+ "step": 260
201
+ },
202
+ {
203
+ "epoch": 1.2,
204
+ "grad_norm": 77.1363296508789,
205
+ "learning_rate": 3.055555555555556e-05,
206
+ "loss": 0.871,
207
+ "step": 270
208
+ },
209
+ {
210
+ "epoch": 1.2166666666666668,
211
+ "grad_norm": 26.5102481842041,
212
+ "learning_rate": 2.962962962962963e-05,
213
+ "loss": 0.345,
214
+ "step": 280
215
+ },
216
+ {
217
+ "epoch": 1.2333333333333334,
218
+ "grad_norm": 97.94902801513672,
219
+ "learning_rate": 2.8703703703703706e-05,
220
+ "loss": 0.9062,
221
+ "step": 290
222
+ },
223
+ {
224
+ "epoch": 1.25,
225
+ "grad_norm": 4.820228576660156,
226
+ "learning_rate": 2.777777777777778e-05,
227
+ "loss": 1.0245,
228
+ "step": 300
229
+ },
230
+ {
231
+ "epoch": 1.25,
232
+ "eval_accuracy": 0.6714285714285714,
233
+ "eval_loss": 0.776366114616394,
234
+ "eval_runtime": 18.2334,
235
+ "eval_samples_per_second": 3.839,
236
+ "eval_steps_per_second": 1.92,
237
+ "step": 300
238
+ },
239
+ {
240
+ "epoch": 2.0166666666666666,
241
+ "grad_norm": 5.84061861038208,
242
+ "learning_rate": 2.6851851851851855e-05,
243
+ "loss": 0.3563,
244
+ "step": 310
245
+ },
246
+ {
247
+ "epoch": 2.033333333333333,
248
+ "grad_norm": 7.712353229522705,
249
+ "learning_rate": 2.5925925925925925e-05,
250
+ "loss": 0.2456,
251
+ "step": 320
252
+ },
253
+ {
254
+ "epoch": 2.05,
255
+ "grad_norm": 10.726452827453613,
256
+ "learning_rate": 2.5e-05,
257
+ "loss": 0.4232,
258
+ "step": 330
259
+ },
260
+ {
261
+ "epoch": 2.066666666666667,
262
+ "grad_norm": 9.719975471496582,
263
+ "learning_rate": 2.4074074074074074e-05,
264
+ "loss": 0.1975,
265
+ "step": 340
266
+ },
267
+ {
268
+ "epoch": 2.0833333333333335,
269
+ "grad_norm": 3.219958543777466,
270
+ "learning_rate": 2.314814814814815e-05,
271
+ "loss": 0.2796,
272
+ "step": 350
273
+ },
274
+ {
275
+ "epoch": 2.1,
276
+ "grad_norm": 4.559834957122803,
277
+ "learning_rate": 2.2222222222222223e-05,
278
+ "loss": 0.3343,
279
+ "step": 360
280
+ },
281
+ {
282
+ "epoch": 2.1166666666666667,
283
+ "grad_norm": 5.237907409667969,
284
+ "learning_rate": 2.1296296296296296e-05,
285
+ "loss": 0.2744,
286
+ "step": 370
287
+ },
288
+ {
289
+ "epoch": 2.1333333333333333,
290
+ "grad_norm": 1.3404731750488281,
291
+ "learning_rate": 2.037037037037037e-05,
292
+ "loss": 0.2313,
293
+ "step": 380
294
+ },
295
+ {
296
+ "epoch": 2.15,
297
+ "grad_norm": 0.18039122223854065,
298
+ "learning_rate": 1.9444444444444445e-05,
299
+ "loss": 0.4182,
300
+ "step": 390
301
+ },
302
+ {
303
+ "epoch": 2.1666666666666665,
304
+ "grad_norm": 0.4312891960144043,
305
+ "learning_rate": 1.8518518518518518e-05,
306
+ "loss": 0.2587,
307
+ "step": 400
308
+ },
309
+ {
310
+ "epoch": 2.183333333333333,
311
+ "grad_norm": 2.762604236602783,
312
+ "learning_rate": 1.7592592592592595e-05,
313
+ "loss": 0.0869,
314
+ "step": 410
315
+ },
316
+ {
317
+ "epoch": 2.2,
318
+ "grad_norm": 16.173503875732422,
319
+ "learning_rate": 1.6666666666666667e-05,
320
+ "loss": 0.0854,
321
+ "step": 420
322
+ },
323
+ {
324
+ "epoch": 2.216666666666667,
325
+ "grad_norm": 4.518730640411377,
326
+ "learning_rate": 1.574074074074074e-05,
327
+ "loss": 0.2236,
328
+ "step": 430
329
+ },
330
+ {
331
+ "epoch": 2.2333333333333334,
332
+ "grad_norm": 0.27387773990631104,
333
+ "learning_rate": 1.4814814814814815e-05,
334
+ "loss": 0.0327,
335
+ "step": 440
336
+ },
337
+ {
338
+ "epoch": 2.25,
339
+ "grad_norm": 25.623882293701172,
340
+ "learning_rate": 1.388888888888889e-05,
341
+ "loss": 0.1441,
342
+ "step": 450
343
+ },
344
+ {
345
+ "epoch": 2.25,
346
+ "eval_accuracy": 0.8571428571428571,
347
+ "eval_loss": 0.4293404221534729,
348
+ "eval_runtime": 18.5539,
349
+ "eval_samples_per_second": 3.773,
350
+ "eval_steps_per_second": 1.886,
351
+ "step": 450
352
+ },
353
+ {
354
+ "epoch": 3.0166666666666666,
355
+ "grad_norm": 0.1813192516565323,
356
+ "learning_rate": 1.2962962962962962e-05,
357
+ "loss": 0.0688,
358
+ "step": 460
359
+ },
360
+ {
361
+ "epoch": 3.033333333333333,
362
+ "grad_norm": 1.2744430303573608,
363
+ "learning_rate": 1.2037037037037037e-05,
364
+ "loss": 0.0496,
365
+ "step": 470
366
+ },
367
+ {
368
+ "epoch": 3.05,
369
+ "grad_norm": 0.08318241685628891,
370
+ "learning_rate": 1.1111111111111112e-05,
371
+ "loss": 0.0262,
372
+ "step": 480
373
+ },
374
+ {
375
+ "epoch": 3.066666666666667,
376
+ "grad_norm": 0.11013840138912201,
377
+ "learning_rate": 1.0185185185185185e-05,
378
+ "loss": 0.0512,
379
+ "step": 490
380
+ },
381
+ {
382
+ "epoch": 3.0833333333333335,
383
+ "grad_norm": 0.11020367592573166,
384
+ "learning_rate": 9.259259259259259e-06,
385
+ "loss": 0.076,
386
+ "step": 500
387
+ },
388
+ {
389
+ "epoch": 3.1,
390
+ "grad_norm": 4.4319586753845215,
391
+ "learning_rate": 8.333333333333334e-06,
392
+ "loss": 0.2574,
393
+ "step": 510
394
+ },
395
+ {
396
+ "epoch": 3.1166666666666667,
397
+ "grad_norm": 0.10417469590902328,
398
+ "learning_rate": 7.4074074074074075e-06,
399
+ "loss": 0.0439,
400
+ "step": 520
401
+ },
402
+ {
403
+ "epoch": 3.1333333333333333,
404
+ "grad_norm": 53.32948684692383,
405
+ "learning_rate": 6.481481481481481e-06,
406
+ "loss": 0.1041,
407
+ "step": 530
408
+ },
409
+ {
410
+ "epoch": 3.15,
411
+ "grad_norm": 0.8091713786125183,
412
+ "learning_rate": 5.555555555555556e-06,
413
+ "loss": 0.1931,
414
+ "step": 540
415
+ },
416
+ {
417
+ "epoch": 3.1666666666666665,
418
+ "grad_norm": 0.8358808159828186,
419
+ "learning_rate": 4.6296296296296296e-06,
420
+ "loss": 0.2557,
421
+ "step": 550
422
+ },
423
+ {
424
+ "epoch": 3.183333333333333,
425
+ "grad_norm": 0.0853860154747963,
426
+ "learning_rate": 3.7037037037037037e-06,
427
+ "loss": 0.1618,
428
+ "step": 560
429
+ },
430
+ {
431
+ "epoch": 3.2,
432
+ "grad_norm": 0.3539259135723114,
433
+ "learning_rate": 2.777777777777778e-06,
434
+ "loss": 0.3177,
435
+ "step": 570
436
+ },
437
+ {
438
+ "epoch": 3.216666666666667,
439
+ "grad_norm": 1.287772297859192,
440
+ "learning_rate": 1.8518518518518519e-06,
441
+ "loss": 0.124,
442
+ "step": 580
443
+ },
444
+ {
445
+ "epoch": 3.2333333333333334,
446
+ "grad_norm": 0.10092153400182724,
447
+ "learning_rate": 9.259259259259259e-07,
448
+ "loss": 0.2376,
449
+ "step": 590
450
+ },
451
+ {
452
+ "epoch": 3.25,
453
+ "grad_norm": 0.5576777458190918,
454
+ "learning_rate": 0.0,
455
+ "loss": 0.4346,
456
+ "step": 600
457
+ },
458
+ {
459
+ "epoch": 3.25,
460
+ "eval_accuracy": 0.9,
461
+ "eval_loss": 0.22466129064559937,
462
+ "eval_runtime": 18.3475,
463
+ "eval_samples_per_second": 3.815,
464
+ "eval_steps_per_second": 1.908,
465
+ "step": 600
466
+ },
467
+ {
468
+ "epoch": 3.25,
469
+ "step": 600,
470
+ "total_flos": 1.495384188125184e+18,
471
+ "train_loss": 0.7866153143843015,
472
+ "train_runtime": 807.4229,
473
+ "train_samples_per_second": 1.486,
474
+ "train_steps_per_second": 0.743
475
+ },
476
+ {
477
+ "epoch": 3.25,
478
+ "eval_accuracy": 0.9161290322580645,
479
+ "eval_loss": 0.2788711488246918,
480
+ "eval_runtime": 41.526,
481
+ "eval_samples_per_second": 3.733,
482
+ "eval_steps_per_second": 1.878,
483
+ "step": 600
484
+ },
485
+ {
486
+ "epoch": 3.25,
487
+ "eval_accuracy": 0.9161290322580645,
488
+ "eval_loss": 0.2788711488246918,
489
+ "eval_runtime": 41.4461,
490
+ "eval_samples_per_second": 3.74,
491
+ "eval_steps_per_second": 1.882,
492
+ "step": 600
493
+ }
494
+ ],
495
+ "logging_steps": 10,
496
+ "max_steps": 600,
497
+ "num_input_tokens_seen": 0,
498
+ "num_train_epochs": 9223372036854775807,
499
+ "save_steps": 500,
500
+ "total_flos": 1.495384188125184e+18,
501
+ "train_batch_size": 2,
502
+ "trial_name": null,
503
+ "trial_params": null
504
+ }