AlexN commited on
Commit
65ca3d0
β€’
1 Parent(s): 518ae47

Training in progress, step 8000

Browse files
pytorch_model.bin CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:668614f668fb91c4fef6a7f941dd4958fc73e871cf709e247da324057b2f3521
3
  size 1262817457
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:c7d5c5665cb2f10cbee4073c92b5d77e0f1dafd3e633c65ef200d4ca4dca469e
3
  size 1262817457
wandb/run-20220129_131141-h6nhqm30/files/output.log CHANGED
@@ -7941,3 +7941,532 @@ Configuration saved in ./checkpoint-7500/config.json
7941
  {'eval_loss': 0.3057877719402313, 'eval_wer': 0.4125112241843759, 'eval_runtime': 65.7311, 'eval_samples_per_second': 27.978, 'eval_steps_per_second': 0.441, 'epoch': 1.74}
7942
  Model weights saved in ./checkpoint-7500/pytorch_model.bin
7943
  Configuration saved in ./checkpoint-7500/preprocessor_config.json
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
7941
  {'eval_loss': 0.3057877719402313, 'eval_wer': 0.4125112241843759, 'eval_runtime': 65.7311, 'eval_samples_per_second': 27.978, 'eval_steps_per_second': 0.441, 'epoch': 1.74}
7942
  Model weights saved in ./checkpoint-7500/pytorch_model.bin
7943
  Configuration saved in ./checkpoint-7500/preprocessor_config.json
7944
+ Configuration saved in ./preprocessor_config.json
7945
+ Deleting older checkpoint [checkpoint-6000] due to args.save_total_limit
7946
+
7947
+
7948
+
7949
+
7950
+
7951
+
7952
+
7953
+
7954
+
7955
+
7956
+
7957
+
7958
+
7959
+
7960
+
7961
+
7962
+
7963
+
7964
+
7965
+
7966
+
7967
+
7968
+
7969
+
7970
+
7971
+
7972
+
7973
+
7974
+
7975
+
7976
+
7977
+
7978
+
7979
+
7980
+
7981
+
7982
+
7983
+
7984
+
7985
+
7986
+
7987
+
7988
+
7989
+
7990
+
7991
+
7992
+
7993
+
7994
+
7995
+
7996
+
7997
+
7998
+
7999
+
8000
+
8001
+
8002
+
8003
+
8004
+
8005
+
8006
+
8007
+
8008
+
8009
+
8010
+
8011
+
8012
+
8013
+
8014
+
8015
+
8016
+
8017
+
8018
+
8019
+
8020
+
8021
+
8022
+
8023
+
8024
+
8025
+
8026
+
8027
+
8028
+
8029
+
8030
+
8031
+
8032
+
8033
+
8034
+
8035
+
8036
+
8037
+
8038
+
8039
+
8040
+
8041
+
8042
+
8043
+ 35%|β–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆ | 7600/21520 [6:16:59<7:31:32, 1.95s/it]
8044
+
8045
+
8046
+
8047
+
8048
+
8049
+
8050
+
8051
+
8052
+
8053
+
8054
+
8055
+
8056
+
8057
+
8058
+
8059
+
8060
+
8061
+
8062
+
8063
+
8064
+
8065
+
8066
+
8067
+
8068
+
8069
+
8070
+
8071
+
8072
+
8073
+
8074
+
8075
+
8076
+
8077
+
8078
+
8079
+
8080
+
8081
+
8082
+
8083
+
8084
+
8085
+
8086
+
8087
+
8088
+
8089
+
8090
+
8091
+
8092
+
8093
+
8094
+
8095
+
8096
+
8097
+
8098
+
8099
+
8100
+
8101
+
8102
+
8103
+
8104
+
8105
+
8106
+
8107
+
8108
+
8109
+
8110
+
8111
+
8112
+
8113
+
8114
+
8115
+
8116
+
8117
+
8118
+
8119
+
8120
+
8121
+
8122
+
8123
+
8124
+
8125
+
8126
+
8127
+
8128
+
8129
+
8130
+
8131
+
8132
+
8133
+
8134
+
8135
+
8136
+
8137
+
8138
+
8139
+
8140
+ 36%|β–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–Š | 7699/21520 [6:21:22<7:59:09, 2.08s/it]
8141
+
8142
+
8143
+
8144
+
8145
+
8146
+
8147
+
8148
+
8149
+
8150
+
8151
+
8152
+
8153
+
8154
+
8155
+
8156
+
8157
+
8158
+
8159
+
8160
+
8161
+
8162
+
8163
+
8164
+
8165
+
8166
+
8167
+
8168
+
8169
+
8170
+
8171
+
8172
+
8173
+
8174
+
8175
+
8176
+
8177
+
8178
+
8179
+
8180
+
8181
+
8182
+
8183
+
8184
+
8185
+
8186
+
8187
+
8188
+
8189
+
8190
+
8191
+
8192
+
8193
+
8194
+
8195
+
8196
+
8197
+
8198
+
8199
+
8200
+
8201
+
8202
+
8203
+
8204
+
8205
+
8206
+
8207
+
8208
+
8209
+
8210
+
8211
+
8212
+
8213
+
8214
+
8215
+
8216
+
8217
+
8218
+
8219
+
8220
+
8221
+
8222
+
8223
+
8224
+
8225
+
8226
+
8227
+
8228
+
8229
+
8230
+
8231
+
8232
+
8233
+
8234
+
8235
+
8236
+
8237
+
8238
+
8239
+
8240
+ 36%|β–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–Œ | 7800/21520 [6:25:47<7:34:58, 1.99s/it]
8241
+
8242
+
8243
+
8244
+
8245
+
8246
+
8247
+
8248
+
8249
+
8250
+
8251
+
8252
+
8253
+
8254
+
8255
+
8256
+
8257
+
8258
+
8259
+
8260
+
8261
+
8262
+
8263
+
8264
+
8265
+
8266
+
8267
+
8268
+
8269
+
8270
+
8271
+
8272
+
8273
+
8274
+
8275
+
8276
+
8277
+
8278
+
8279
+
8280
+
8281
+
8282
+
8283
+
8284
+
8285
+
8286
+
8287
+
8288
+
8289
+
8290
+
8291
+
8292
+
8293
+
8294
+
8295
+
8296
+
8297
+
8298
+
8299
+
8300
+
8301
+
8302
+
8303
+
8304
+
8305
+
8306
+
8307
+
8308
+
8309
+
8310
+
8311
+
8312
+
8313
+
8314
+
8315
+
8316
+
8317
+
8318
+
8319
+
8320
+
8321
+
8322
+
8323
+
8324
+
8325
+
8326
+
8327
+
8328
+
8329
+
8330
+
8331
+
8332
+
8333
+
8334
+
8335
+
8336
+
8337
+
8338
+ 37%|β–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–Ž | 7899/21520 [6:30:08<7:34:20, 2.00s/it]
8339
+
8340
+
8341
+
8342
+
8343
+
8344
+
8345
+
8346
+
8347
+
8348
+
8349
+
8350
+
8351
+
8352
+
8353
+
8354
+
8355
+
8356
+
8357
+
8358
+
8359
+
8360
+
8361
+
8362
+
8363
+
8364
+
8365
+
8366
+
8367
+
8368
+
8369
+
8370
+
8371
+
8372
+
8373
+
8374
+
8375
+
8376
+
8377
+
8378
+
8379
+
8380
+
8381
+
8382
+
8383
+
8384
+
8385
+
8386
+
8387
+
8388
+
8389
+
8390
+
8391
+
8392
+
8393
+
8394
+
8395
+
8396
+
8397
+
8398
+
8399
+
8400
+
8401
+
8402
+
8403
+
8404
+
8405
+
8406
+
8407
+
8408
+
8409
+
8410
+
8411
+
8412
+
8413
+
8414
+
8415
+
8416
+
8417
+
8418
+
8419
+
8420
+
8421
+
8422
+
8423
+
8424
+
8425
+
8426
+
8427
+
8428
+
8429
+
8430
+
8431
+
8432
+
8433
+
8434
+
8435
+
8436
+ 37%|β–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–ˆβ–‰ | 8000/21520 [6:34:33<7:26:34, 1.98s/it]The following columns in the evaluation set don't have a corresponding argument in `Wav2Vec2ForCTC.forward` and have been ignored: input_length.
8437
+ ***** Running Evaluation *****
8438
+ Num examples = 1839
8439
+ Batch size = 64
8440
+ {'loss': 1.1101, 'learning_rate': 4.7311188811188806e-05, 'epoch': 1.86}
8441
+
8442
+
8443
+
8444
+
8445
+
8446
+
8447
+
8448
+
8449
+
8450
+
8451
+
8452
+
8453
+
8454
+
8455
+
8456
+
8457
+
8458
+
8459
+
8460
+
8461
+
8462
+
8463
+
8464
+
8465
+
8466
+
8467
+
8468
+
8469
+ Configuration saved in ./checkpoint-8000/config.json
8470
+ {'eval_loss': 0.3026394248008728, 'eval_wer': 0.4099970068841664, 'eval_runtime': 64.4321, 'eval_samples_per_second': 28.542, 'eval_steps_per_second': 0.45, 'epoch': 1.86}
8471
+ Model weights saved in ./checkpoint-8000/pytorch_model.bin
8472
+ Configuration saved in ./checkpoint-8000/preprocessor_config.json
wandb/run-20220129_131141-h6nhqm30/files/wandb-summary.json CHANGED
The diff for this file is too large to render. See raw diff
 
wandb/run-20220129_131141-h6nhqm30/logs/debug-internal.log CHANGED
The diff for this file is too large to render. See raw diff
 
wandb/run-20220129_131141-h6nhqm30/run-h6nhqm30.wandb CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:132db8bd550d292dd27ba83c905d22c9aae42965aec8be9243e54f66789bd4a7
3
- size 54300922
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:65aa39669da36f28c6653cdb0f6c9fe3d2f0eba29768f21178ba8144dbee3edf
3
+ size 58269618